KI-Unternehmen äußern sich zur Sicherheit von Kindern
Einige Unternehmen, die man derzeit so nennen würde, wenn man von KI spricht, haben sich heute zu Wort gemeldet. Konkret geht es, kurz gesagt, darum, dass die Unternehmen Anstrengungen unternehmen, dass Nutzer bestimmte Inhalte nicht erstellen können.
OpenAI, Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI und Stability AI und andere haben sich verpflichtet, robuste Kindersicherheitsmaßnahmen bei der Entwicklung, Bereitstellung und Wartung generativer KI-Technologien gemäß den im Safety by Design-Prinzip dargelegten Grundsätzen umzusetzen.
Diese Initiative, geleitet von Thorn, einer gemeinnützigen Organisation, die sich dem Schutz von Kindern vor sexuellem Missbrauch verschrieben hat, und All Tech Is Human, einer Organisation, die sich der Bewältigung der komplexen Probleme von Technologie und Gesellschaft widmet, zielt darauf ab, die Risiken zu minimieren, die generative KI für Kinder darstellt.
Durch die Annahme umfassender Safety-by-Design-Prinzipien stellen die Unternehmen sicher, dass die Sicherheit von Kindern in jeder Entwicklungsphase von KI priorisiert wird.
In den Produkten erkenne und entferne man proaktiv CSAE-Material durch eine Kombination aus Hash-Matching-Technologie, künstlichen Intelligenzklassifikatoren und menschlichen Überprüfungen. Die Richtlinien und Schutzmaßnahmen bei Google sind beispielsweise darauf ausgelegt, alle Arten von CSAE zu erkennen, einschließlich KI-generiertem CSAM. Wenn man ausbeuterische Inhalte identifiziere, entferne man sie und ergreife die entsprechenden Maßnahmen, die auch die Meldung an das NCMEC umfassen können.
Bis heute habe man Anstrengungen unternommen, um das Potenzial der Modelle zur Erzeugung von Inhalten, die Kindern schaden könnten, zu minimieren. OpenAI hat z. B. auch Altersbeschränkungen für ChatGPT festgelegt und aktiv mit dem Nationalen Zentrum für vermisste und ausgebeutete Kinder (NCMEC), der Tech Coalition und anderen Regierungs- und Branchenbeteiligten an Fragen des Kinderschutzes und der Verbesserung der Meldemechanismen zusammengearbeitet.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich glaube ich stehe gerade etwas auf dem Schlauch, was sind die genannten Inhalte die Kindern Schaden zufügen können? Verstörende Bilder, also sowas wie das Rating oder die Altersfreigabe für Filme? Gibt es dann z.B. eine Altersüberprüfung wenn ich Dall-E sage „generiere mir ein relistisches Bild von einer niedlichen vom Auto zu Matsch gefahrenen kleinen Katze?“
Internet, Smartphones etc. sollten wie Führerschein erst ab 18 zugänglich sein. Fertig. Zahnpasta zurück in die Tube.
Den Eiertanz, den wir aufführen, nur um diese zarten unterentwickelten Wesen vor der Erwachsenenwelt zu schützen und uns dabei selbst im Weg stehen, ist untragbar. Meine Meinung (und nur halb ironisch)
der schutz um den es geht, ist der vor sexueller gewalt und ausbeutung. das ist auch halbironisch nicht annäherend witzig. das ai material produzieren kann, welches sexuelle gewalt und sexuelle ausbeutung von kindern zum gegenstand hat, ist ein problem.