Noyb: Datenschutzbeschwerde in Österreich gegen OpenAI
OpenAIs LLM ChatGPT steht erneut wegen des Datenschutzes in der Kritik. Die Organisation „noyb“ setzt sich für Datenschutz in der EU ein und wurde von Max Schrems gegründet. Sie hat jetzt eine Beschwerde gegen OpenAI in Österreich eingereicht. Der Kern des Vorwurfs: ChatGPT verletzt die Datenschutzgrundverordnung (DSGVO) der EU, da falsche Informationen über Personen generiert und verbreitet werden.
Wie alle LLMs kann GPT-4(ChatGPT) „halluzinieren“, das Modell erfindet Informationen, die schlichtweg falsch sind. In der aktuellen Beschwerde geht es um eine Person des öffentlichen Lebens, deren Geburtstag wiederholt falsch angegeben wurde. Korrekturanfragen oder gar die Löschung der Daten lehnte OpenAI ab. Überdies konnte OpenAI nicht offenlegen, woher die Daten stammen und wie sie verarbeitet werden. Hier frage ich mich aber auch was noyb erwartet? Das OpenAI die Trainingsdaten preisgibt, wird wahrscheinlich nicht passieren, aber besonders das Löschen von Daten im Nachhinein ist einfach nicht möglich. Nur eine Output-Filterung wäre hier möglich.
Maartje de Graaf von noyb: „Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen. Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Erstellung von Personendaten verwendet werden. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt.“ Die Organisation fordert die österreichische Datenschutzbehörde dazu auf, OpenAI genauer zu untersuchen. Das Unternehmen soll die Datenverarbeitung an die DSGVO anpassen, dem Auskunftsersuchen des Beschwerdeführers nachkommen und möglicherweise ein Bußgeld zahlen.
Auch wenn ich noyb nicht grundsätzlich widerspreche, so ist es doch eine Utopie anzunehmen, dass die Technik immer den Gesetzen folgt. Dafür ist das Gesetz einfach zu langsam. Realistischerweise kann hier OpenAI nur verlieren und es muss auf dem Weg zu einem Verbot solcher LLMs in Europa kommen. Aber ist das auch wirklich die richtige Lösung? Mistral, ein französisches KI-Unternehmen, kämpft auch mit Halluzinationen. Es bietet zumindest auch offene LLMs an, z. B. das neue Mixtral 8x22B. Das Problem ist definitiv keine USA vs. EU, sondern die zugrundeliegende Technologie. Mein Vorschlag ist die Veröffentlichung der Trainingsdaten und klare Hinweise bei der Nutzung, dass die Informationen keine Richtigkeit erfüllen müssen. Was meint ihr?
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich bin vollumfänglich der Meinung, dass Technik Gesetzen zu folgen hat und nicht umgekehrt. Wenn das nicht möglich ist, gehört sie verboten/deaktiviert. Ist das die richtige Lösung? Für mich ganz klar ja.
Es darf doch keine Utopie sein, dass Technik ausschließlich rechtskonform eingesetzt wird. Gesetze basieren auf gesellschaftlichen Konsens und ich möchte darauf vertrauen, dass die Halbwertszeit eines Gesetzs nicht vom nächsten Release einer Technologie abhängig ist.
Die KI erfindet Fakten über Personen, also ändern wir das Gesetz, dass sie das darf, anstatt dafür zu sorgen, dass das zukünftig nicht passiert? Kann ja wohl nicht der richtige Weg sein. Du kannst Deiner KI das Erfinden von Fakten über Personen nicht verbieten? Dann schalte das System bitte ab.
Natürlich sollte Technik rechtskonform eingesetzt werden, allerdings ist das Gesetz am Ende des Tages für die Menschen da und nicht die Menschen für das Gesetz.
Wenn sich das Leben der Menschen ändert („Ich will ChatGPT nutzen“), muss sich das Gesetz anpassen. Durch die immer schnellere Weiterentwicklung der Technologie muss dies dann eben auch immer schneller passieren. Dass ChatGPT halluziniert, hat nun wohl auch fast jeder verstanden.
Dass, wenn ich beim Auto das Gaspedal drücke, das Auto vorwärts fährt und ich damit jemanden verletzten kann weiß jeder. Es gibt es Gesetze zu Autos, aber das Auto wurde nicht verboten.
Ich bin ein Fan von Noyb, aber in letzter Zeit finde ich es etwas übertrieben…
Naja, das Problem ist nicht das, einem das Gesetze starr sind und Evtl Techniken nicht bedacht wurden vorab. Das Beispiel hier mit dem Geburtstag ist ein gutes. Das ist in dem Gesetz nur ein Problem weil man solche Generatoren gar nicht beachtet hat. Eine Regelung ala: Cookie Banner nur für Daten Korrektheit wäre auch denkbar gewesen und ok.
Die DSGVO sagt, wenn ChatGPT zu meiner Person falsche Daten ausspuckt, habe ich das Recht diese korrigieren zu lassen, was vermutlich jeder begrüßen würde, oder?
Also haben die Generatoren das Gesetz zu beachten und OpenAI kann sich nicht damit herausreden, dass sie nicht wüssten, wie ChatGPT an die falschen Daten kommt. Hier hat es vielleicht keine große Tragweite, aber was ist, wenn ChatGPT z. B. den Holocaust leugnet, oder andere strafbare Dinge tut?
Schwieriges Thema. Das Problem ist, dass beim Halluzinieren diese Systeme, dass Ganze so überzeugend darstellen, dass beim User eigentlich keine Zweifel an der Echtheit der dargelegten angeblichen Fakten aufkommt. Daher bin ich auch dafür, dass derartige Systeme entsprechenden Gesetzen unterliegen müssen, denn ansonsten wird das, was derartige Systeme auswerfen plötzlich zur Richtigkeit erklärt: „Sie dürfen das Land nicht verlassen, denn das System sagt, dass Ihr Ausweis bereits abgelaufen ist“.
Viele der Diskussionen um LLMs zeigen das eben eine Bildungslücke gibt. Alles was in ein solches LLM eingefüttert wird, wird zu Trainingsdaten. Steht so oder ähnlich bei allen KIs oder LLMs in den Terms. Also ein Nutzer der seinen Namen und sein Geburtstag in das LLM reinschreibt hat damit akzeptiert dass das LLM die Daten für Trainingszwecke verwenden darf und wird dies auch im Output verwenden. Jetzt gibt es aber Namenskombinationen eben nicht nur einmal… Wir erklären den jungen Menschen eben auch nicht mehr was wie funktioniert sonst würden die eben mehr aufpassen was sie machen.
Über alle ist ein verbieten ein typisch deutscher oder in diesem Fall „Schrems“ Reflex. Wenn nur unsere Daten sicher sind wird alles gut 😀 … dazu braucht es keinen Schrems sondern Verstand !!
Können wir das Gesetz auch auf die Menschen anwenden? Der bedauerliche Ausmaß der intellektuellen Trivialität, die von der Plage der Falschinformationen und der selbstgefälligen Ignoranz glänzt, ist in breiter Maße stark ausgeprägt.