Alexa: Amazon soll Schwierigkeiten bei der Entwicklung der eigenen KI haben
Im letzten Jahr hatte Amazon schon eine Vorschau auf eine smartere Alexa gegeben. Seitdem ist es ruhig geworden. Entwickelt das Unternehmen so emsig im Hintergrund?
Laut Aussagen von über einem Dutzend ehemaligen Angestellten, die an der Entwicklung von Alexas KI mitgewirkt haben, leidet das Unternehmen unter strukturellen Dysfunktionen und technischen Schwierigkeiten, welche wiederholt zu Verzögerungen bei der Einführung der neuen, auf generativer KI basierenden Alexa geführt haben.
Diese ehemaligen Mitarbeiter beschreiben ein Unternehmen, das im Bereich der Entwicklung von KI-Chatbots und -Agenten deutlich hinter seinen großen Technologie-Konkurrenten wie Google, Microsoft und Meta zurückbleibt und Schwierigkeiten hat, in diesem Wettlauf aufzuholen.
Laut der ehemaligen Mitarbeiter ist das Alexa Large Language Model (LLM), welches den Kern der neuen Alexa bildet und von Amazon als Antwort auf OpenAIs ChatGPT vorgestellt wurde, technisch nicht auf der Höhe.
Forscher, die an diesem LLM mitgearbeitet haben, berichten, dass es Amazon an den notwendigen Daten und dem Zugriff auf spezialisierte Computerchips fehlt, die für den Betrieb solcher Modelle erforderlich sind, um mit ähnlichen Entwicklungen von Firmen wie OpenAI mithalten zu können. Die Investitionen in Anthropics Claude-Modell fruchten wohl auch nicht, Datenschutzbedenken hielten das Alexa-Team angeblich davon ab, es zu verwenden.
Amazon reagierte auf die Vorwürfe, teilte mit, dass die Infos veraltet seien. Die Aussagen würden nicht den aktuellen Stand widerspiegeln. Man bestritt auch die Vorstellung, dass Alexa herabgestuft wurde oder dass Anthropics Claude aus Datenschutzgründen tabu sei.
Eine Sprecherin betonte, dass die Implementierung von generativer KI eine große Verantwortung mit sich bringt. Die Details sind von entscheidender Bedeutung, insbesondere bei einer technischen Umsetzung dieses Ausmaßes auf einem Gerät, das Millionen von Kunden zu Hause nutzen. Obwohl die Alexa LLM-Funktion „Let’s chat“ noch nicht öffentlich verfügbar ist, wird sie kontinuierlich in kleinen Testgruppen getestet.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Die KI-Ernüchterung wird eh noch kommen. Wir haben bei uns im Unternehmen die letzten 3 Monate KI intensiv in verschiedensten Bereichen (von der Software-Entwicklung, über Meeting-Protokolle, Vertragsgestaltung/-kontrolle bis hin zum Bereich Grafik/Text) getestet. Ja, wir werden weiterhin ChatGPT & Co. einsetzen, aber in eher homöopatischen Dosen, da die KI schlicht zu schlecht ist, so dass die Zeit für die Nutzung der KI zzgl. der eigentlich immer notwendigen Nacharbeitung und Prüfung in Summe dann bei ca. 90% der getesteten Anwendungsfälle eben doch keinen Aufwand spart.
Manche Anwendungsformen wie bspw. automatische Meetinprotokollierung auf Basis von Voice-Input mit anschließender Zusammenfassung sind schlicht nicht nutzbar, da Stimmen falschen Personen zugeordnet werden und teilweise stark halluziniert wird.
Die Fehlerquote liegt heute bei irgendwo im Schnitt 30-40%. Von „darauf verlassen“ sind wir Lichtjahre entfernt. Ob wir in absehbarer Zeit in Regionen von >95% vorstoßen wage ich ehrlich gesagt zu bezweifeln und da stellt sich die Frage, ob bzw. in welcher Form, Google, Microsoft, OpenAI & Co. auf Basis der exorbitanten Kosten das Ganze wirklich solange aufrecht erhalten. Microsoft hat ja anscheinend mit der Einstellung der Custom-GPT einen ersten Schritt in Richtung Reduzierung eingeleitet.
Warten wir es ab!
Eigentlich brauche ich keine ausgefuchste AI in Alexa. Ich wäre bereits zufrieden, wenn es mir nach der Frage, wann die Sommerferien sind, nicht als Antwort die Herbstferien des letzten Jahres nennen würde.
Ohje die armen, da kriegt man ja direkt Mitleid…