Google Gemini generiert derzeit keine Personen

Für uns in Deutschland derzeit eh nicht ohne Umwege nutzbar, doch es sei einmal erwähnt: Google hat bekannt gegeben, dass man die Generierung von Bildern, die Personen darstellen, pausiert. „Wir arbeiten daran, diese Art von Darstellungen sofort zu verbessern. Geminis Al-Bildgenerierung erzeugt eine breite Palette von Menschen. Und das ist im Allgemeinen eine gute Sache, da Menschen auf der ganzen Welt es nutzen.“ Was war passiert? Nun ja, bei der Anfrage zur Bilderstellung von Personen aus diversen Epochen wurden Bilder generiert, die nur schwer nachvollziehbar oder eklatant falsch waren. So wurden die Gründerväter der USA oder sogar deutsche Soldaten so dargestellt, wie sie nicht ausgesehen haben. Es wurden Hautfarben und Nationalitäten gewählt, die definitiv nicht zur Anfrage passten. Im Netz machten sich daraufhin schnell Theorien breit, dass Google so versuchen würde, die Darstellung der Geschichte umzudeuten, bzw. weißem Menschen zu vermeiden. Einen Thread dazu findet man u. a. hier.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

7 Kommentare

  1. Daran sieht man, dass „die KI“ nur der Spiegel des Internets ist. Da kamen so Sachen wie schwarze englische Könige des Mittelalters raus. Oder weibliche Wehrmachtssoldaten. Könnte man auch als Filmposter für eine Netflix-Produktion sehen.

    • https://www.foxbusiness.com/media/google-apologizes-new-gemini-ai-refuses-show-pictures-achievements-white-people
      So was ist kein Zufall, KI’s werden gefüttert mit den Daten die man ihnen gibt oder eben nicht. Einige KI Entwickler aus dem Umfeld hatten das bereits bestätigt, ob es stimmt kann ich nicht beurteilen, ich sehe nur die Ergebnisse oder halt solche Artikel die das zu bestätigen scheinen.

      • Natürlich ist das Zufall. Es versteht keiner was die KI macht deswegen kann man auch kaum was ändern, nur mittels ellenlangen Filterlisten versuchen Antworten rauszufiltern. Ansonsten muss man neu trainieren mit neuem Modell. Selbst ChatGPT hat hatte eine Änderung an den Berechnungen und es kam nur random Bullshit raus die letzten Tage.
        KI ist nicht intelligent. Es wird nur was halluziniert, was für Menschen plausibel klingt. Sieht man an der Video KI: Physik und natürliche Bewegungen sind völlig latte.

        • Wenn sich eine KI weigert Bilder von weißen zu erstellen, hat das nicht nur mit dem Material, mit dem die KI gefüttert wurde, zu tun, sondern auch mit einem grundlegenden Verhaltenskodex, den man der KI vorgibt. Der Basepromt, zur Vermeidung von Rassismus, oder anderen gefährlichen Ideologien, wird immer länger. Und hier hat man es einfach so weit getrieben, dass alles „weiße“ automatisch irgendwo in die Anti-Inklusions-Schublade fällt. Mit Sicherheit nicht absichtlich, aber kein Zufall.

          • Gruss von Fefe!
            „es gibt auch einen Weg, wie man ein Foto nur mit Weißen kriegen kann: Wenn man die „KI“ bittet, Leute beim Essen von frittiertem Hühnchen (einem Klischee über Schwarze) zu zeigen. Die sind dann (ebenfalls aus Diversity-Gründen vermutlich) alle weiß :-)“

        • Natürlich ist das kein Zufall. KI funktioniert technisch neutral, und in diesem Mechanismus hat man „mit klassischer Technik“ reingegrätscht, um ein bestimmtes Klientel zu bedienen. Deswegen erzählt KI Witze über Männer, aber nicht über Frauen. Über Christen, aber nicht über Moslems. Und so weiter… selbst ausprobiert, ist so. Beispiele sind im Netz zuhauf vorhanden.

          Und jetzt ist das halt schief gegangen. Sicherlich _wollte_ niemand, dass nur schwarze Päpste und Ritter generiert werden — aber das kommt dabei heraus, wenn man über ML sein
          If($joke && ($women || $black)) then: not()
          drüber bügelt.

          Es wird „den üblichen Verdächtigen“ nicht passen, aber ich bin der Meinung, wenn man KI „erlaubt“, dann soll man KI auch machen lassen. Ich kann ja nach Blondinenwitzen googlen, warum soll die KI keine liefern?

  2. Das sind wirklich Clowns. … natürlich kann man jede Art von Bild generieren. Und das wird sich auch nicht aufhalten lassen.

    Sie haben nur Angst davor, dass die eigene Marke für diese Kollektive Einsicht hinhalten muss. 😀

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.