Anzeige

Google Fotos: Menschen werden als Gorillas erkannt

fotos

Ja ja, die Gesichts- und Objekterkennung von Maschinen ist wahrlich noch nicht perfekt. Nachdem neulich Flickr in das Fettnäppfchen getreten ist (Menschen wurden als Tiere erkannt, Auschwitz und Dachau als Sportarena oder Klettergerüst), trifft es nun auch Google Fotos. Google Fotos erkennt bekanntlich Gesichter (muss man in Deutschland freischalten) und Objekte. So soll es dem Nutzer einfacher gemacht werden, Inhalte auf Bildern zu finden. So lassen sich schnell Bilder auffinden, die ein Stadion zeigen – oder solche, auf denen Hunde zu sehen sind.

Dumm nur, wenn die automatische Erkennung eben nicht zwei Gesichter von Menschen findet – sondern denkt, dass es sich um Gorillas handelt. Mag so mancher drüber schmunzeln, ein extrem peinlicher Fehler ist es dennoch, wie auch Google-Mitarbeiter Yonatan Zunger via Twitter mitteilt. Diese Art der Fehler stehe ganz oben auf seiner Bug-Liste. Bis Maschinen Inhalte wirklich genau erkennen, wird sicherlich noch etwas Zeit vergehen – und gerade bei Objekten, die sich optisch ähnlich sind, wird sicherlich noch das eine oder andere Mal eine Verwechselung vorkommen – ich meine – auf manchen Fotos erwirke ich auch den Anschein, als sei ich der graue Silberrücken, der irgendwo auf seinem Felsen hockt 😉

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

caschy

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Seit 2008 ist es Beruf(ung). Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei LinkedIn, Twitter, Facebook, Instagram und YouTube. PayPal-Kaffeespende. Mail: carsten@caschys.blog

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

30 Kommentare

  1. Peinlich!

  2. @Andre: hier dürfen doch nur politisch korrekte Kommentare rein

  3. Wow, wie verletzend ist das dann? Menschen die oft mit Rassismus konfrontiert werden, laden Bilder hoch und werden auch noch als Gorrilas klassifiziert von einer Software..

  4. Man mag anfangs darüber schmunzeln.
    Wenn ich mir aber vorstelle, welch perfekte Munition das für die kruden Abstammungs-Verwirrungen zahlloser hirntoter Möchtegern-Arier ist, wird mir kotzübel.
    Ich kann mir lebhaft vorstellen, was auf Bild.de in den Kommentaren darüber geschrieben würde. Das ist mein persönliches Vorurteil 😉

  5. @caschy

    Daumen hoch für deinen Kommentar! 🙂

  6. +caschy du bist doch selber rassist wenn du andere kommentare löscht… ihr seid schon eine kranke gesellschaft die auf uniformität getrimmt ist, jeder der anderer meinung ist fällt raus. Aber gut einfaches gemüt, guter arbeiter… ich könnte fragen ‚Wie viele Finger halte ich hoch, Winston?‘

    Übrigens ist das nicht peinlich, was soll daran peinlich sein? Die formel ist nunmal so – mathematik, mustererkennung und farbenerkennung… gleiche pigmentierung, ist ja klar waren auch die gleichen lebensariale… das peinliche daran ist eher was für bilder in euren köpfen entstehen.

    Ali Utlu das einzig verletzende hier ist dein intellekt.

  7. Sepp Maier says:

    @Prana: Nein ist er nicht. Und Meinungen sind wie Arschlöcher: Jeder hat eins.
    Manche Rassistenarschlöcher haben leider eine menschenverachtende Meinung.
    Die muss man nicht akzeptieren.
    Wenn du das krank findest, geh zum Psychiater

  8. Computer sind doch nur so „gut“ wie die Menschen die ihn programmieren.

    Da gibts doch auch z.B. diese Bilder von einer koreanischen Schulklasse bei der gefragt wird wieviele davon weiblich und männlich sind. Und für einen durchschnittlichen Europäer sehen alle gleich aus.
    Will sagen: man muss die Unterschiede und Unterscheidungsmerkmale aktiv reinprogrammieren damit es der Computer versteht. Bei dem Beispiel der Koreaner (Kinder, nicht Erwachsene) wäre ich z.B. dazu gar nicht nicht in der Lage dem Computer männlich/weiblich zu erklären. Bei dem Beispiel mit Dunkelhäutigen / Gorillas erkenn ich selbst den Unterschied, die Frage ist nur wie dem Computer beibringen.

    Ich find solche Fehler ehrlich gesagt gut. Man merkt dadurch dass die Computer eben doch noch nicht alles können. Also doch nicht so wie es einem die Werbung immer suggerieren möchte.

  9. @Prane Cale
    Seit wann ist man Rassist wenn man gegen Rassismus vorgeht?
    DAS musst du jetzt mal erklären. Wenn du kannst.

    Peinlich ist das dieser Fehler unterläuft,
    man fühlt sich beleidigt und das ist nichts was man haben muss.

  10. Ganz ruhig Leute! 😀 Es ist nur eine Software die noch verbessert werden muss. Eine Verwechslungsgefahr besteht am Anfang immer und ist in diesem Fall nicht mal verwunderlich. Das bekommen die Entwickler bei Google schon in den Griff.

  11. Diese Menschen können sich freuen. In nicht zu ferner Zukunft haben sie wohl noch die besten Chance, nicht automatisiert von einer Drohne vorsorglich zerfetzt zu werden. Nichts anderes machen die Amis ja schon in diversen Staaten von Afrika und im Nahen Osten – da werden auch die Kinder von irgendwelchen Warlords prophylaktisch von Drohnen ermordet weil sie so werden könnten wie ihre Väter. Dieser Post kann Sarkasmus enthalten.
    Aber wir alle bekommen Ausweise mit biometrischen Fotos (außer ihr seid so schlau und habt das Passfoto gephotoshoppt!), an den ersten deutschen Flughäfen wird eine Gesichtserkennung eingesetzt. Die ersten Polizisten in Deutschland werden mit Bodycams ausgestattet, die natürlich in der 2. oder 3. Generation aufnehmen und online sein könnten – ununterbrochene Gesichtserkennung und Datenabgleich naht wenn die gesetzlichen Hürden abgeschafft wurden.
    Insofern begrüße ich alle Fehler, die bei so einer Software – und Google wird hier eine der besten Codes haben – noch passieren.
    Und lasst mal die Amis wieder einen Bush wählen, lasst den Bush wieder durchdrehen und die NSA, CIA und FBI noch weiter aufstocken oder Google teilverstaatlichen, die Serverfarmen beschlagnahmen. Welcome to the Internetz und die falschen Leute haben alle eure Daten, Metadaten und Gesichter wie auch neuerdings bei Facebook die Möglichkeit, Personen ohne Gesichter zu identifizieren. Gibt es übrigens schon bei Videoüberwachung, dass man aufgrund des Ganges abnormales Verhalten ausfindig machen kann.

  12. Rassismus ist und bleibt keine Meinung. Punkt.

  13. Eine Software ist halt total objektiv und kennt keinen Rassismus, sondern nur Fakten. Der Fehler ist nicht peinlich, sondern einfach der großen optischen Nähe geschuldet. Dass die Hautfarbe von Gorillas und Afrikanern/Afroamerikanern ähnlich ist, ist ein Fakt. Daraus lassen sich aber keinerlei Urteile über die Persönlichkeit ableiten.

    Da gabs doch vor einer Weile auch mal das Bild von der Samsung Gesichtserkennung, die den einzigen Schwarzen auf dem Bild nicht erkannt hat. Das liegt halt einfach an der dunklen Hautfarbe, da erkennt man Schatten nicht so gut und der Kontrast zu Augen und Mund nicht groß genug.

    Die Hautfarbe ist genau so ein körperliches Merkmal wie das Geschlecht, die Haarfarbe oder die Augenfarbe. Das ist nun mal da und sollte nicht wegignoriert werden. Was jedoch aufhören muss, sind die Vorurteile gegen Leute mit bestimmten körperlichen Merkmalen.

  14. Nur soviel:

    Wer die Freiheit aufgibt, um Sicherheit zu gewinnen, der wird am Ende beides verlieren. (Benjamin Franklin)

  15. Frank Knarf says:

    Ein Arschlochkommentar ist für mich einer, in dem das Wort Arschloch / Arschlochkommentar / Rassistenarschloch vor kommt. Die vermeintlichen Antirassisten sind mitunter die größten Selektierer …

  16. Bin ganz deiner Meinung, Frank! Im Zweifel geht das schon bei der Selektion der Kommentare los. Wie immer gilt: Wer überwacht denn die „Überwacher“? Auch wenn das alles Gutmenschen sind.

  17. Lieber ein Gutmensch, als ein Schlechtmensch.
    Sagt übrigens schon einiges über diese Gesellschaft aus, wenn das Prädikat „Gut“ mittlerweile für etwas Schlechtes herhalten soll.

  18. FibiMalena says:

    Das Problem ist ja, dass sich die Gutmenschen stets selbst, meist ungefragt, zu solchen erklären und sich durch Zensur von „den anderen“ abgrenzen, wobei sie den Anspruch verteidigen, dass die Definition von „anders“ oder anderer Meinung ihrer gutmenschlichen Deutungshohheit obliegt.

  19. Was lesen denn hier für wirre Leute mit?

Bevor du deinen Kommentar abschickst:
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren. Alternativ könnt ihr euch via E-Mail über alle neuen Beiträge hier im Blog informieren lassen. Einfach eure E-Mail-Adresse hier eingeben, dann bekommt ihr 1x täglich morgens eine Zusammenstellung. Mit dem Absenden willigst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.