Apple: Informationen zu CSAM-Scanning entfernt

Wir haben darüber berichtet: Apple plante, auf den Geräten der Nutzer lokal nach CSAM-Inhalten (Child Sexual Abuse Material) zu scannen, der für den iCloud-Upload vorgesehen ist. Zahlreiche Bürgerrechtsgruppen protestierten, Nutzer im Netz ebenso – und so verschob das US-Unternehmen seine Pläne auf unbestimmte Zeit. Das US-Medium MacRumors hat festgestellt, dass die entsprechenden Seiten von Apple zum Thema entfernt, bzw. bestehende zur Kindersicherheit angepasst wurden, stattdessen gibt’s nur noch die in den USA eingeführte und standardmäßig deaktivierte Funktion, die in iOS 15.2 hinzugekommen ist – da können Fotos, die Nacktheit enthalten, in Familiengruppen vor Kindern mit eigener iMessage-ID verborgen werden.

Ob Apple seine Pläne nun komplett über den Haufen geworfen hat, ist nicht bekannt – die letzten Informationen zum Thema lauteten: „Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern freigeben.“

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

14 Kommentare

  1. Sollen sie es halt wie die anderen machen und die Cloud scannen. Wenn sie nicht so eine wildgewordenen KI wie Microsoft haben die dann den ganzen Account sperren..

    Gut auf E2E Verschlüsselung muss man halt verzichten aber Hauptsache mal gemeckert…

    • Hat Apple nicht eh die Cloud-Codes, weil die eben NICHT beim Nutzer auf dem Gerät liegen, sodass sie jeden iCloud Account scannen könnten, wenn sie wollten. War da nicht was?

  2. Gescannt wird trotzdem, nur an einem anderen Endpunkt, auf iCloud-Servern. Resultate sind unter anderem, dass Kinderpornos auf iCloud landen und von dort für eine unbestimmte Zeit verbreitet werden können. Und dass beim Scannen noch mehr unnötige Daten anfallen, die auf Servern liegen, statt lokal. Saubere Leistung der „Kritiker.“

  3. Tatsächlich der Grund, warum in unserem Unternehmen keine 14er MacBooks angeschafft werden.

    • Wie engstirnig kann man sein…

    • Weil CSAM kommen sollte oder weil es nicht kommt?

      • Und selbst wenn es kommt man kann es wie bei den anderen auch ausmachen.

        • Nicht wenn du die Cloud nutzt. Mal davon abgesehen… was drin ist, ist drin. Würde mich nie darauf verlassen, dass das wirklich aus ist.

      • Weil der Code prinzipiell im OS ist. Das hat nix mit engstirnig zu tun, sondern damit, dass Apple potenziell dazu bereit ist, Schadcode/Angriffsvektoren/Zensurinfrastruktur im eigenen System unterzubringen. Das passt mit sensiblen Daten einfach nicht zusammen. Ich wüsste auch nicht, dass in den USA e2e-Verschlüsselung verboten wäre, auch wenn das das FBI nicht so toll findet. Ich gehe eher davon aus, dass diverse Staaten für CSAM lobbyiert haben.
        Echt schade, ich glaube gerade das MBP14 wäre ne sau coole Kiste zum entwickeln.

  4. Achja, der Datenschutz. Ein schwieriges Thema. Kenne auch einige die sich über den Schritt den Apple da gehen wollte aufregten, sowohl Privatpersonen als auch Firmen (kleine) aber trotz alle dem wir fleisig auf Microsoft Produkte vorallem Office und Skype gesetzt, ist jetzt auch nicht besser und Alternativen gibt es. Bei den Privatepersonen wird fleissig weiter via Whatsapp geschrieben, der FB status täglich aktualisiert und Storys über Instagramm gemacht, Google ist immer noch die Standart Suchmaschine und Chrome wird auch täglich verwendet. Ich habe das Gefühl das gerade bei dem Thema viel bullsh… geschrieben wird, aber selbst auf Datenschutzfreundliche Alternativen wird nicht umgestellt, da dann doch meist die Bequemlichkeit siegt.

    • Das ist doch „Whataboutism“.
      Alles andere ist auch schlimm, also ist Apples CSAM gar nicht so schlimm?!?

      Ich persönlich halte es auch für einen Dammbruch, direkt auf Geräten zu scannen. Das ist die ultimative Entmündigung der User und WIRD durch diverse Staaten ausgenutzt werden, wenn es erst mal da ist.
      Dieses „nur für Kindesmissbrauch“ wird Apple unter Druck von staatlichen Stellen nie und nimmer durchhalten können, zumal sie z.B. in China schon mehrfach gezeigt haben, das ihnen Profit wichtiger ist als ihre angeblichen Ideale des Schutzes ihrer User.
      Jedem, der sagt „aber man kann es doch abstellen“ und „benutze doch iCloud nicht, dann wird nicht gescannt“ kann ich nur zurückgeben: Das ist naiv. Wenn der Mechanismus erst mal da ist, wird politisch extrem viel Druck entstehen, ihn auch gegen Verdächtige aller Art einzusetzen, selbst wenn diese es „deaktiviert“ haben.
      Und ja, es ist ein absolut substanzieller Unterschied zum Scannen in der Cloud NACH dem Upload, in meinen Augen.

      Für mich war das übrigens der finale Tropfen, der mein Fass zum Überlaufen brachte und mich mein iPhone 8 verkaufen ließ (gab aber noch andere Gründe).

      P.S.: Ich nutze kein Whatsapp, kein Facebook, kein Instagram (alles auch noch nie genutzt), kein Chrome, vermeide Google Services soweit es geht und privat habe ich Linux auf dem Laptop laufen.
      Aber selbst wenn, wäre die Kritik an Apple trotzdem gerechtfertigt.

  5. „Fool me once, shame on you, fool me twice, shame on me!“
    Apple hat seine Schafe bei Leibe schon mehr als einmal veräppelt. Lässt sich mit Closed Source ja auch besonders gut machen…

  6. Nachdem kürzlich bekannt wurde, dass Apple mit der Chinesischen Regierung relativ klare Absprachen hat… denke ich mal, das wird definitiv kommen, alleine weil die da scannen wollen.

    Die Idee ist gut. Ich halte das aber dennoch für bedenklich. Ist Überwachungstechnik da, wird sie mehr und mehr genutzt und false positives wird es sicherlich auch geben, wenn meine Freundin mir mal Nacktfotos schickt. Irgendwer sieht sie ja dann, zum prüfen und auch da hatten wir es schon mehr als einmal, dass solche Daten „missbraucht“ wurden oder andertwo auftauchten.

    Gab ja auch mal einen Mitarbeiter bei einer Suchmaschine, der seinen hochrangingen Account nutze, um Teenies auszuspionieren und zu verfolgen, weil deren Standortdaten etc. alle für ihn sichtbar waren. Irgendwo ist immer der Faktor Mensch und der ist ebenso gefährlich wie die, die die Bilder in der Cloud haben.

    Ich weiß es nicht. Heikles Thema. Im Kern gut, aber ich glaub nicht dran, dass das funktioniert.

  7. Bei der Quelle gab es ein Update das CSAM Scan weiterhin kommen wird.

    Update: Apple spokesperson Shane Bauer told The Verge that though the CSAM detection feature is no longer mentioned on its website, plans for CSAM detection have not changed since September, which means CSAM detection is still coming in the future.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.