Google Gemini: Unternehmen erklärt Bild-Patzer

Wir berichteten darüber: Googles KI Gemini erlaubt in manchen Ländern das Erstellen von Bildern. Nutzer haben Anfragen an Gemini gestellt in Bezug auf die Generierung von Bildern – und die KI hat wirklich oft versucht, weiße Menschen zu vermeiden, selbst im Rahmen eines korrekten geschichtlichen Kontexts. So kam es zu indigenen Gründungsvätern der USA oder auch schwarzen Wehrmachtssoldaten. Google hat nach diesen Ergebnissen die Bildgenerierung gestoppt und sich nun erklärt.

Erstens hat die Abstimmung, um sicherzustellen, dass Gemini eine Auswahl von Personen zeigt, versagt, um Fälle zu berücksichtigen, die eindeutig keine Auswahl zeigen sollten. Zweitens wurde das Modell im Laufe der Zeit viel vorsichtiger als beabsichtigt und hat bestimmte Aufforderungen vollständig abgelehnt – was einige sehr harmlose Aufforderungen fälschlicherweise als sensibel interpretierte. Diese beiden Dinge führten dazu, dass das Modell in einigen Fällen „überkompensierte und in anderen überkonservativ war, was zu Bildern führte, die falsch waren„.

Dies war nicht das, was die Entwickler beabsichtigt hatten. Man wollte nicht, dass Gemini sich weigert, Bilder einer bestimmten Gruppe zu erstellen. Ebenso wollte man nicht, dass es ungenaue historische oder andere Bilder erstellt. Daher habe man die Bildgenerierung von Menschen ausgeschaltet und werde daran arbeiten, sie deutlich zu verbessern.

Etwas, das man im Hinterkopf behalten sollte: Gemini ist als Kreativitäts- und Produktivitätswerkzeug konzipiert und kann möglicherweise nicht immer zuverlässig sein, insbesondere wenn es um die Erzeugung von Bildern oder Texten zu aktuellen Ereignissen, sich entwickelnden Nachrichten oder kontroversen Themen geht.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

12 Kommentare

  1. Ein Patzer? So so… Wers glaubt.

    • https://thezvi.wordpress.com/2024/02/22/gemini-has-a-problem/

      „Andrew Torba: When you submit an image prompt to Gemini Google is taking your prompt and running it through their language model on the backend before it is submitted to the image model. The language model has a set of rules where it is specifically told to edit the prompt you provide to include diversity and various other things that Google wants injected in your prompt.“

      Es kommt wohl darauf an wie man Patzer interpretiert. Die Bilderstellung funktioniert genau so wie man es von Seiten Googles vorgegeben hat. Das die erzwungene Diversität so nach hinten losgeht, hat wohl keiner bedacht.
      So oder so steht man als Anbieter einer solchen Engine immer als Verlierer da.
      Lässt man eine AI unkontrolliert los, wird sie schnell rassistisch. Oder sie macht das Gegenteil wenn man rassistisches unbedingt vermeiden will.
      Das grundlegende Problem ist halt das die Trainingsdaten von uns Menschen stammen und die Menschheit eben Rassismus und Vorurteile mit sich herumschleppt. So wie die Konzerne sich eben dem Zeitgeist entsprechend präsentieren wollen, war die Menschheit nie gewesen.
      Und wenn der Wunsch auf die Realität trifft, knallt es eben. Egal in welcher Richtung auch immer.

  2. Gebt doch einfach mal in der google Bildersuche black people ein und danach white people das Problem liegt nicht nur bei gemini, oder 2 white people genau das Gleiche. Hatte Gemini gefragt, warum bei 2 white people mir fast nur Menschen angezeigt werden mit schwarzer Hautfarbe, da schrieb mit gemini, ich solle es doch einfach präzisieren und schlug mir vor 2 hellhäutige Menschen auszuprobieren, aber auch das ging nach hinten los. Ist aber nicht nur bei google so, bei der Bing Bildersuche genau das Gleiche, welche Schlüsse jeder daraus zieht, muss jeder für sich selber ausmachen.

    • Das Problem liegt woanders. Google Suchergebnisse sind personalisiert. Über Startpage z.B. sind es ganz andere Ergebnisse.

    • Also ich sehe unter „white People“ ca 60% weiße.

    • Folgender Schluss: Trainingsdaten waren mit Bildern überwiegend hellhäutiger Menschen. Rechnerisch sind Menschen für den Algo nun weiß. Dann sagt man diesem, stimmt so nicht, X Prozent haben eine andere Hautfarbe. Dann sagt man zeig mir 20 Menschen. Dann werden eben X Prozent davon so dargestellt. Dann sagt man dem Algo das wäre jetzt aber wieder nicht richtig, die Gründer waren alle weiß. Und so vergnaddelt man eine Berechnung und muss mehr und mehr Verknüpfungen zufügen, in der Hoffnung den Fehler zu minimieren, da das dass einzige ist was man tun kann, weil die KI eben nur berechnet und nicht versteht.

  3. das beste beispiel was ich gesehen hab war „leute aus detroit“ wo dunkelhäutige menschen gezeigt wurden und dann „leute die in detroit verhaftet werden“ wo es dann dunkelhäutige polizisten und hellhäutige verbrecher waren. jaja aus versehen glaubt nicht meine senile oma.

    • Das kommt aus der Vorgabe das Stereotypen unbedingt zu vermeiden sind.
      Ein Test war die Generierung einer Familie die frittiertes Hühnchen isst (schwarze Stereotype) und die Familie war komplett weiß.
      Würde die AI das jetzt nicht machen, würde Google rasch Rassismus vorgeworfen werden.
      Wie Ragnar schon schrieb, die AI kann nur berechnen, hat aber keinerlei Verständnis von Kontext, Wunschdenken und Realität.
      Also flickt man Regelwerke hinein und wundert sich.
      Eine Lösung für das Problem sehe ich nicht. Eine AI hat, trotz ihres Namens, nichts mit Intelligenz zu tun und die Realität der Menschheit deckt sich nicht mit den Wunschvorstellungen irgendeiner Bewegung.
      Irgendeine Seite wird sich immer angepisst fühlen, da keine Seite bereit ist den Tatsachen ins Auge zu blicken das die Menschen nunmal so sind wie sie sind.

  4. Die können doch einfach so eine Farbauswahl wie bei den Emojis einbauen. Gern geschehen.

  5. Es gehört schlicht verboten, das Gatekeeper Resultate manipulieren. Wenn ich einen Witz über einen schwulen Schwarzen mit einer Blondine im Rollstuhl verlange, dann hat da ungefiltert rauszukommen, was halt rauskommt.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.