Neue Initiative für Kindersicherheit: Google, OpenAI & Co. gründen ROOST
Wenn es um die Sicherheit von Kindern im Internet geht, kann man nie genug tun. Das haben sich auch Google, OpenAI, Roblox und Discord gedacht und die „Robust Open Online Safety Tools“-Initiative (ROOST) ins Leben gerufen. Das Ziel: kostenlose, quelloffene KI-Tools zur Verfügung stellen, die bei der Erkennung und Bekämpfung von Kindesmissbrauch im Netz helfen sollen.
Die Initiative kommt nicht von ungefähr, denn laut dem National Center for Missing and Exploited Children (NCMEC) stiegen die Verdachtsfälle von Kindesmissbrauch zwischen 2022 und 2023 um satte 12 Prozent. Vor allem Plattformen wie Roblox und Discord standen in der Vergangenheit häufiger in der Kritik, wenn es um den Schutz von Minderjährigen ging.
ROOST startet mit einem Budget von 27 Millionen Dollar für die ersten vier Jahre. Die Gelder kommen von verschiedenen Stiftungen wie der McGovern Foundation und dem Knight Foundation. Die Initiative will bestehende Sicherheitstechnologien vereinheitlichen und durch KI-gestützte Werkzeuge erweitern. Diese sollen dann per API anderen Unternehmen zur Verfügung gestellt werden.
Discord hat parallel dazu eine neue „Ignore“-Funktion eingeführt, mit der Nutzer unerwünschte Nachrichten ausblenden können, ohne dass der Absender davon erfährt. Roblox plant, sein KI-Modell zur Erkennung von problematischen Inhalten wie Mobbing oder Rassismus noch in diesem Jahr als Open Source freizugeben. Ob die Initiative erfolgreich sein wird, muss sich noch zeigen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Man darf nicht unterschätzen, dass hinter dieser Initiative knallharte ökonomische Interessen stehen. Im Zweifel geht es nämlich darum, dass Nutzer:innen der Plattformen diese weiterhin nutzen. In der aktuellen Diskussion ist das Risiko sehr hoch, dass Eltern ihren Kindern die Nutzung nicht mehr ermöglichen oder – noch gravierender für die Unternehmen – die jungen Nutzer:innen rechtlich ausgeschlossen werden. Wir haben mit dem social media Gesetz in Australien ja eben erst gesehen, dass das möglich ist.
Effektiver als KI Maßnahmen wären Fachkräfte (z.B. Sozialpädagog:innen), die in den Angeboten aktiv und ansprechbar sind sowie Angebote außerhalb digitaler Dienste (z.B. Jugendzentren, die gut ausgestattet sind) und in denen mit jungen Menschen an den Herausforderungen und Problemen in und auf Plattformen wie Roblox und Discord ehrlich und angemessen gearbeitet werden kann.
Effektiv ist nicht profitabel. Also kannst du dir ausrechnen was gefördert wird.
Fachkräfte und Pädagogen sind keine politisch werbewirksamen Maßnahmen.