Alexa: Amazon soll Schwierigkeiten bei der Entwicklung der eigenen KI haben

Im letzten Jahr hatte Amazon schon eine Vorschau auf eine smartere Alexa gegeben. Seitdem ist es ruhig geworden. Entwickelt das Unternehmen so emsig im Hintergrund?

Laut Aussagen von über einem Dutzend ehemaligen Angestellten, die an der Entwicklung von Alexas KI mitgewirkt haben, leidet das Unternehmen unter strukturellen Dysfunktionen und technischen Schwierigkeiten, welche wiederholt zu Verzögerungen bei der Einführung der neuen, auf generativer KI basierenden Alexa geführt haben.

Diese ehemaligen Mitarbeiter beschreiben ein Unternehmen, das im Bereich der Entwicklung von KI-Chatbots und -Agenten deutlich hinter seinen großen Technologie-Konkurrenten wie Google, Microsoft und Meta zurückbleibt und Schwierigkeiten hat, in diesem Wettlauf aufzuholen.

Laut der ehemaligen Mitarbeiter ist das Alexa Large Language Model (LLM), welches den Kern der neuen Alexa bildet und von Amazon als Antwort auf OpenAIs ChatGPT vorgestellt wurde, technisch nicht auf der Höhe.

Forscher, die an diesem LLM mitgearbeitet haben, berichten, dass es Amazon an den notwendigen Daten und dem Zugriff auf spezialisierte Computerchips fehlt, die für den Betrieb solcher Modelle erforderlich sind, um mit ähnlichen Entwicklungen von Firmen wie OpenAI mithalten zu können. Die Investitionen in Anthropics Claude-Modell fruchten wohl auch nicht, Datenschutzbedenken hielten das Alexa-Team angeblich davon ab, es zu verwenden.

Amazon reagierte auf die Vorwürfe, teilte mit, dass die Infos veraltet seien. Die Aussagen würden nicht den aktuellen Stand widerspiegeln. Man bestritt auch die Vorstellung, dass Alexa herabgestuft wurde oder dass Anthropics Claude aus Datenschutzgründen tabu sei.

Eine Sprecherin betonte, dass die Implementierung von generativer KI eine große Verantwortung mit sich bringt. Die Details sind von entscheidender Bedeutung, insbesondere bei einer technischen Umsetzung dieses Ausmaßes auf einem Gerät, das Millionen von Kunden zu Hause nutzen. Obwohl die Alexa LLM-Funktion „Let’s chat“ noch nicht öffentlich verfügbar ist, wird sie kontinuierlich in kleinen Testgruppen getestet.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

3 Kommentare

  1. Die KI-Ernüchterung wird eh noch kommen. Wir haben bei uns im Unternehmen die letzten 3 Monate KI intensiv in verschiedensten Bereichen (von der Software-Entwicklung, über Meeting-Protokolle, Vertragsgestaltung/-kontrolle bis hin zum Bereich Grafik/Text) getestet. Ja, wir werden weiterhin ChatGPT & Co. einsetzen, aber in eher homöopatischen Dosen, da die KI schlicht zu schlecht ist, so dass die Zeit für die Nutzung der KI zzgl. der eigentlich immer notwendigen Nacharbeitung und Prüfung in Summe dann bei ca. 90% der getesteten Anwendungsfälle eben doch keinen Aufwand spart.
    Manche Anwendungsformen wie bspw. automatische Meetinprotokollierung auf Basis von Voice-Input mit anschließender Zusammenfassung sind schlicht nicht nutzbar, da Stimmen falschen Personen zugeordnet werden und teilweise stark halluziniert wird.
    Die Fehlerquote liegt heute bei irgendwo im Schnitt 30-40%. Von „darauf verlassen“ sind wir Lichtjahre entfernt. Ob wir in absehbarer Zeit in Regionen von >95% vorstoßen wage ich ehrlich gesagt zu bezweifeln und da stellt sich die Frage, ob bzw. in welcher Form, Google, Microsoft, OpenAI & Co. auf Basis der exorbitanten Kosten das Ganze wirklich solange aufrecht erhalten. Microsoft hat ja anscheinend mit der Einstellung der Custom-GPT einen ersten Schritt in Richtung Reduzierung eingeleitet.
    Warten wir es ab!

  2. Eigentlich brauche ich keine ausgefuchste AI in Alexa. Ich wäre bereits zufrieden, wenn es mir nach der Frage, wann die Sommerferien sind, nicht als Antwort die Herbstferien des letzten Jahres nennen würde.

  3. Ohje die armen, da kriegt man ja direkt Mitleid…

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.