Caschys Blog

Apple: CSAM-Erkennung für iCloud-Fotos wird nicht mehr erscheinen

Mit Sicherheit ist vielen von euch noch in Erinnerung geblieben, dass Apple ein Feature in iOS implementieren wollte, das Fotos, die für den iCloud-Upload vorgesehen sind, nach sogenannten CSAM-Aufnahmen (Child Sexual Abuse Material) scannen sollte? Nachdem das Unternehmen nun aber angekündigt hatte, dass man eine Ende-zu-Ende-Verschlüsselung für iCloud Fotos, aber auch Notizen, Backups und mehr einführen werden, heißt es parallel auch, dass die Pläne für die CSAM-Erkennung nun aufgegeben worden sind.

Nach einer ausführlichen Konsultation mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, investieren wir verstärkt in die Funktion für Kommunikationssicherheit, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben. Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen. Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet für Kinder und uns alle sicherer zu machen. – Apple

Einige Kritiker des Systems hatten argumentiert, dass die Funktion eine »Hintertür« in die Endgeräte geschaffen hätte, mit der Regierungen oder Strafverfolgungsbehörden Nutzer überwachen könnten. Eine weitere Sorge war die Überlegung, dass jemand absichtlich CSAM-Bilder zum iCloud-Konto einer anderen Person hinzufügen, um deren Konto entsprechend zu markieren.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Aktuelle Beiträge