Apple: Pläne zum CSAM-Scannen sollen unverändert sein
Wir hatten bei Bekanntwerden der Thematik darüber berichtet: Apple plante, auf den Geräten der Nutzer lokal nach CSAM-Inhalten (Child Sexual Abuse Material) zu scannen, der für den iCloud-Upload vorgesehen ist. Zahlreiche Bürgerrechtsgruppen protestierten, Nutzer im Netz ebenso – und so verschob das US-Unternehmen seine Pläne auf unbestimmte Zeit.
Nun wurde festgestellt, dass Apple die entsprechenden Seiten zum Thema entfernt, bzw. bestehende zur Kindersicherheit angepasst wurden, stattdessen gibt’s nur noch die in den USA eingeführte und standardmäßig deaktivierte Funktion, die in iOS 15.2 hinzugekommen ist – da können Fotos, die Nacktheit enthalten, in Familiengruppen vor Kindern mit eigener iMessage-ID verborgen werden.
Das warf die Frage auf, ob Apple seine Pläne vielleicht verworfen habe. Auf Nachfrage des US-Mediums The Verge teilte Apple-Sprecher Shane Bauer mit, dass sich die Position des Unternehmens seit September, als es erstmals ankündigte, die Einführung der CSAM-Erkennung zu verschieben, nicht geändert habe.
„Aufgrund von Rückmeldungen von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Kindersicherheitsfunktionen veröffentlichen„, hieß es in der Erklärung des Unternehmens vom September.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Im Grunde ja auch eine gute Sache, nur an der Umsetzung müssen sie einfach noch Arbeiten.
Da wohl die Wenigsten ein Leuchtschild mit der Aufschrift „Auf diesem Handy liegen Kinderpornos“ tragen, ist hier gar nichts gut. Jedes Scannen des Handys bietet eine solche Menge Missbrauchspotential, dass es sich nicht lohnt, in die Privatsphäre eines jeden zu dringen.
(Und mit „des Handys“ sind auch sämtliche Fotos in der und für die Cloud gemeint)
Klar, aber damit kann man auch wirklich alles totreden … 🙁
Ebenso mit Kinderpornos … 🙁
Und Terror!
Gut so!
Kinderpornographie ist eine schlimme Sache, aber wegen einer Minderheit alle iPhone-User unter Generalverdacht zu stellen? Das ist so, als würden alle Unternehmen Ihre Mitarbeiter täglich auf geklaute Sachen abtasten, weil es mal zu Diebstahl im Unternehmen gekommen ist.
Mal eine provokante These: Hat man bei Apple etwa erkannt, das speziell deren Kunden zu Kinderpornographie neigen?
Ich kann daran nichts gut finden.
Es werden wieder mal Millionen von Usern in Sippenhaft genommen, weil man glaubt so ein paar Kriminelle zu schnappen.
Dass diese Kriminellen aber mit ein paar Klicks, dutzende andere Möglichkeiten haben, sieht man vor lauter Scheuklappen nicht.
Man sieht aber vor lauter Scheuklappen auch nicht, dass dadurch der oder die eine oder andere gefasst werden kann. Ich bin jedenfalls kein Fan davon, sowas gleich von vornherein abzulehnen. Das liegt aber wohl auch daran, dass ich andererseits ein Fan davon bin, Kriminellen das Leben wenigstens zu erschweren. Offenbar sehen heute recht viele das anders. Und das ist eine Entwicklung, an der ich nichts Gutes finden kann.
Wo macht es das Kriminellen schwerer?
Stattdessen werden Millionen Nutzer in Sippenhaft genommen und False-Positiv riskiert die gerade bei KiPo schnell Existenzen vernichten können.
Ebenso ist es ein Backdoor das ebenso genutzt werden kann um lokal nach anderen unliebsamen Daten in repressiven Systemen suchen zu lassen.
Schwachsinn, sorry für die drastischen Worte.
Es sollen sich Millionen komplett überwachen lassen, um angeblich ein paar Kriminelle zu fangen? Weißt Du, jemand mit krimineller Energie ist nicht doof. Wenn der weiß, das Smartphones komplett überwacht werden, findet er Wege das zu umgehen oder eben seine kriminellen Machenschaften komplett ohne Smartphone zu erledigen.
Und was bleibt dann? Die überwachten Smartphones von Millionen Menschen, die keine Straftäter sind und nicht kriminell.
Und mehr und mehr bekommt man den Eindruck das es auch genau um letzteres geht und das „Kindesmissbrauch“ nur als Vorwand benutzt wird, weil man sich ja schlecht dafür aussprechen kann, Kinderschänder zu schützen.
Ich würde für folgende Sachen plädieren:
– Finanziert die Polizei vernünftig, damit diese ganz klassische Polizeiarbeit machen kann und ermitteln. Massenhaftes Scannen ist kein Ersatz dafür und wird es niemals sein!
– Schärft das Bewusstsein in Kindergärten, Ämtern und vor allen Dingen Familien dafür. Kindesmissbrauch ist ein menschliches und ein gesellschaftliches Phänomen und muss auch da bekämpft werden. Seid wachsam für die Anzeichen und redet mit euren Kindern. Im Internet kuriert man nur an den Symptomen herum.
Die Überwachung passiert ja schon, allein von deinem Provider aus. In jedes Wlan ob öffentlch oder „Privat“,in das du bzw. dein Smartphone sich einloggt kann man alles nachverfolgen, Suche in Google etc…..
Oh mei, müssen wir jetzt wirklich wieder alles komplett undifferenziert in einen Topf werfen?
– Mein Provider weiß, zu welchen IP ich mich verbinde und über welche Protokolle (https z.B. oder ssl oder wasweißich). Das loggt er sicher auch ein bisschen mit, das wird aber auch relativ kurzfristig wieder verworfen, alleine aufgrund der schieren Datenmenge die dabei entsteht. Deshalb gibt es ja schon das Instrument des „Quick freeze“
– Mein Provider weiß grundsätzlich nicht, WAS ich von der IP abrufe. Klar, er sieht das ein Stream von Netflix an mich geschickt wird. Aber woher soll er wissen, welche Serie ich gucke? Das kommt verschlüsselt und zwar verschlüsselt über die Transportschicht UND verschlüsselt auf der Nutzungsschicht da Netflix ja keine ungeschützten Streams ausliefert
Mittlerweile hat sich für das Netz auch https durchgesetzt zu 95%, somit kann mein Provider auch nicht wissen, welche Teile einer Webseite ich abrufe oder welche Suchbegriffe ich eingebe. Das ist verschlüsselt. Er sieht nur „ist verbunden zu google.de“, „Ruft 2130kB von wikipedia.org ab“ etc.
Also bitte, nein, es kann nicht jeder alles sowieso überwachen.
OK, Beispiel Netflix. Provider weiß du hast dich zu Netflix verbunden, anfrage an Netflix –> Was hat der Kunde angeschaut…… Netflix weiss es 😉 Netflix US Konzern denn Rest kann ich mir ja sparen.
Gibt ja in letzter Zeit genug Beispiele bei dem Anbieter „gezwungen“ wurden Daten über Nutzer preis zu geben. z.B. Proton oder auch Tutanota wobei im letztern Fall soweit ich weiß noch nicht entschieden ist.
Aber: Das Appel auf dem Smartphone schon scannen will finde ich auch nicht gut, in der Cloud selber von mir aus ist ihre Hardware und somit ihre Verantwortung. Aber auf meinen Smartphone, für das ich um die 1000€ hingelegt habe, möcht ich dies auch nicht.
Apple könnte ja auch den Masterkey für ihre Geräte der Polizei geben, dann muss sie keine teure Software kaufen und kann schneller ermitteln.
Zum Schutz vor Kriminellen könnte man im ganzen auch Passwörter auf dem Gerät verbietet.
Eigentlich könnte man alles mit so einer Argumentation, wie bei dem Scanner durchwinken.
> Apple könnte ja auch den Masterkey für ihre Geräte der Polizei geben
Welche Art Meisterschlüssel soll das sein? So etwas gibt es schlicht nicht. Hier sind wieder nur Experten unterwegs.
Genauso wie es noch keinen Scanner gibt. Mit einem Update lässt sich so etwas schnell einspielen!
Damit der Scanner funktioniert ist so ein Key auch nötig. Ansonsten erhält die Polizei die Meldung auf dem Verdacht, kann aber keine Beweise sichern. Wegen eines Verdachts kann niemand verurteilt werden.
> Mit einem Update lässt sich so etwas schnell einspielen!
Sowas läßt sich nicht „einfach schnell einspielen.“ Bevor man nach dem Motto ‚hätte hätte Fahrradkette‘ „argumentiert,“ sollte man sich einmal ausführlich mit der Materie befassen. Dann kann man versuchen, Anhand der gewonnen Erkenntnisse den Hebel der Kritik anzusetzen.
https://manuals.info.apple.com/MANUALS/1000/MA1902/de_DE/apple-platform-security-guide-d.pdf (ab S. 82, Stichpunkte: einzigartiger Schlüssel, der bei der Herstellung in Hardware gebrannt wird und nicht ausgelesen werden kann; daraus abgeleitete Schlüssel und Keybags für die Dateiverschlüsselung; Verknüpfung des Ganzen mit dem vom Nutzer erstellten Gerätecode).
https://www.apple.com/105/media/us/child-safety/2021/7bc1183f-32b5-41da-8757-f7625cf634a3/films/usenix-security-symposium/child-safety-usenix-security-symposium-tpl-us-2021_16x9.m3u8
> Damit der Scanner funktioniert ist so ein Key auch nötig.
Jo, irgend so ein Key wird schon nötig sein.
https://medium.com/nerd-for-tech/csam-detection-by-apple-explained-387970f52510
Apple kann doch aktuell ohne großen Aufwand auf die iCloud eines Nutzers zugreifen, oder?
Ist ja noch nicht verschlüsselt.
@Robert:
„Weißt Du, jemand mit krimineller Energie ist nicht doof. Wenn der weiß, das Smartphones komplett überwacht werden, findet er Wege das zu umgehen oder eben seine kriminellen Machenschaften komplett ohne Smartphone zu erledigen.“ – Richtig, und damit wäre schon viel erreicht.
Ansonsten kann ich mit Deinen drastischen Worten leben, das kommt für mich auch nicht überraschend, allerdings zeigt jemand, der eine andere Meinung pauschal als „Schwachsinn“ abtut, m.E. recht deutlich, dass er nicht Willens und in der Lage ist, sich ernsthaft an so einer Diskussion zu beteiligen – sorry für die drastischen Worte. 😉
Ich diskutiere doch mit Dir.
Und was bitte ist gewonnen, wenn Pädokriminelle ihre Schandtaten nicht mit dem Smartphone filmen und verbreiten sondern ganz altbacken mit der offline-Digitalkamera und es dann am PC hochladen? Das musst Du mir bitte mal erklären.
Ach ja, als Kollateralschaden wird es ja nur ein paar Uiguren und Demokratieaktivisten in China treffen, deren iPhones dann vom chinesischen Staat auf belastendes Material gescannt werden können, weil Apple das in den iOS Code eingebaut hat und vor Chinas Begehren eingeknickt ist. Tangiert uns ja nicht.
Deine Standpunkte sind halt nicht mit stichhaltigen Argumenten hinterlegt. Wenn Du damit mal anfangen würdest, wäre ich auch nicht so drastisch.
@Robert: Ich schätze, meine Argumente zählen für Dich nicht, aber dennoch; ch denke, wenn auch nur einem Kriminellen dadurch das Leben erschwert wird, ist es das wert. Und das ist schon erreicht, wenn das Smartphone nicht mehr wie bisher dazu genutzt werden kann. Natürlich hindert das den Täter nicht an der Tat an sich oder an der Verbreitung, aber es wird deutlich unbequemer – und damit ist schon was gewonnen, finde ich jedenfalls. Und ich finde auch, das sollte es uns wert sein. Ich habe ganz grundsätzlich ein Problem damit, dass der Datenschutz immer wieder die Strafverfolgung behindert, nicht nur in diesem Bereich. Und da denke ich einfach, dass das nicht sein darf.
Chris, wenn Dein Argument ernsthaft ist „wir machen es Kriminellen ein klein bisschen unkomfortabler, ohne sie ernsthaft dadurch abhalten zu können. Dafür installieren wir eine Backdoor-Überwachungsinfrastuktur auf allen smarten Konsumergeräten, mit allen Konsequenzen“ – dann kann ich das wirklich nicht akzeptieren. Und nein, mir ist es das nicht wert.
Ich will keine Täter schützen. Aber ich habe ein Recht auf Privatsphäre und informationelle Selbstbestimmung. Sieht auch unsere Verfassung so.
Wir werden da nicht auf einen Nenner kommen, es tut mir leid. Aber ist doch okay, man kann ja durchaus unterschiedlicher Meinung sein. Ich bin da eben anders drauf… Und ich glaube dir auch, dass du keine Täter schützen möchtest. Aber genau das ist die Konsequenz, auch wenn du das vielleicht gar nicht möchtest.
Mit dem Argument kannst du auch sagen das es scheisse ist das das Rechtssystem die Verfolgung von Straftätern verhindert. Wieso nicht die Rechte auf Verteidigung abschaffen? Oder die beweispflicht. Wenn man von jemanden weiß, er war es, einfach ab in den Knast. Viel einfacher. Ich hoffe übrigens du bist bereit jederzeit deinen Haustürschlüssel her zu geben. Da du ja nichts zu verbergen hast ist es ja auch kein Problem wenn alle paar Tage mal jemand dein Haus durchsucht, deine Post liest und deine Unterwäsche checkt. Wenn wir das einfach bei allen Bürgern Regelmäßig machen würden, wäre das doch ok, so lang es dazu führt das zumindest einer es sich zwei mal überlegt und dadurch keine Straftat begeht. Eventuell noch nen Check aller Körperöffnungen. Aber erst im zweiten Schritt, nachdem es eingeführt wurde.
Man kann es natürlich auch sehr grob zusammenfassen, wenn man das möchte…
Einfache Maßnahme für Kriminelle: keine iCloud nutzen oder System wechseln. Zack, fertig.
Vor allem gibt es Nutzer für die nackt sein normal ist. Es gibt auch Menschen, die nackt zuhause rumlaufen. Andere fotografieren ihr Baby beim ersten Baden oder ihr Kleinkind beim nackigen rumlaufen im Garten im Sommer. Geht deswegen irgendwo ein rotes Licht an und man kommt auf eine schwarze Liste? Und wenn nur nach bekannten hashes gesucht wird hat das doch null Mehrwert.
Die Deutschen haben das Thema mit der Stasi schon durch, sollte man meinen. Die Amis brauchen diesen Geschichtseintrag scheinbar noch. Blöd nur, dass sie damit alle User mit rein ziehen.
Ich glaube du hast das Prinzip nicht ganz verstanden. Die Fotos werden nicht nach dem Inhalt gescannt (z.B. nacktes Baby / Kind in der Badewanne) sondern es werden die Hashes der Bilder mit Datenbanken von bestätigten Misbrauchsbildern abgeglichen. Erst wenn es Matches mit mehreren Datenbanken aus verschiedenen Ländern gibt, geht das rote Licht an.
Ähm ja und nein. Es wird schon der Inhalt des Bildes unter Nutzung der NeuralHash technology eindeutig gescanned und dann darauf basierend ein abzugleichender Hash erzeugt.
Das Problem an der Sache ist eher eine Crashkollision, die ja auch bereits auf Proof-of-Concept auf GitHub bewiesen wurde.
Der „Beweis“ auf Github basiert auf einer Hobby-Implementierung eines sich in der Entwicklung befindenden Algorithmus.
Wenn eine Hobby-Implementierung schon funktioniert, was können dann Profis?
Die Intention hinter dem Ganzen ist gut und richtig. Jedoch dürfen wir nicht unsere gesamten Freiheitsrechte opfern, um diese Verbrecher zu schnappen. Die werden einen anderen Weg finden, um dieses widerliche Material zu verbreiten. Per Gesetz kann man keine Verschlüsselung verbieten, weil die Gesetze der Mathematik über den Gesetzen jedes Staates stehen.
Zu glauben, dass eine solche Technologie nicht von oppressiven Regimen verwendet werden würden – wäre einfach nur naiv.
Mal davon abgesehen, dass es dafür sorgen kann, dass Apple mehr oder weniger alles scannen könnte, in weiter Zukunft, bin ich kein Fan von solchen Sachen.
Was, wenn ich durch Babyfotos meiner Kinder oder meiner nackten Freundin in solchen Scans lande. Wenn das Babyfoto vielleicht bei einem Hack geklaut wurde (wo auch immer), könnte es zudem in so einer Datenbank stehen, ohne mein Mitwissen.
Bei einem False Positive muss das jemand kontrollieren. Also sieht spätestens dort ein Mensch meine Bilder, die eventuell eben gar nicht problematisch sind. Plötzlich hat aber jemand meine Frau, Freundin und Kinder nackt gesehen, nur weil Apple dachte das wäre okay so. Und wer sagt mir, dass der Typ koscher ist? Die Leute, die bei Facebook Kontrollen machen, sind ja auch nicht unbedingt die Elite der Gesellschaft. In Schlachthäusern arbeiten ja auch keine „guten“ Menschen.
Da spricht soooo viel dagegen. Und dann erwähne ich immer wieder den Faktor Mensch bei einem positiv. Bei einer Suchmaschine gab es mal einen Fall (manch einer erinnert sich), wo ein Admin Zugriff auf Standortdaten hatte und das nutzte, um Schulmädchen zu stalken.
Ich weiß nicht. Ich möchte sowas in der Regel nicht und glaube auch nicht, dass es Kriminelle daran hindert.
Einfach mal die Doku: Made to Measure: eine digitale Spurensuche ansehen. Da wird nur ein Bruchteil gezeigt was möglich ist und gemacht wird und nein ich bin nicht paranoid 😉
Ein Unding, dass ein Unternehmen sich anmaßt hier eingreifen zu müssen und den Nutzer entmündigt. Verantwortliche sind die Eltern. Egal wie wenig interessiert sie sind. Eltern haben die Fürsorgepflicht zu wahren und damit die Anzeige zu erstatten, das Unternehmen folgt dann den rechtlichen Anweisung. Unerheblich wer hier jetzt denkt „Ja aber die Eltern können nicht immer wissen wer wo was wie wann mit wem macht am Handy“ Das haben sie zu wissen. Sie müssen den Umgang mit neuen Medien lehren. Ich verstehe nicht wie es Menschen gibt, die einen gerechtfertigt sehen
Und was ist wenn die Eltern die Straftäter sind?
Hier geht es übrigens nicht um Selfies oder Ähnliches, diese Bilder sollten der Basis-Datenbank nicht bekannt sein. Es ist vergleichbar mit PhotoDNA, damit bekannte Bilder nicht durch Änderung der Helligkeit oder eines Pixels aus dem Hash fallen.