ChatGPT könnte bald auch als Standard-Assistent unter Android fungieren
Unter Android kann man schon seit einiger Weile den Google Assistant auch durch Alexa oder früher auch durch Cortana als Assistent ersetzen. Dadurch wird die jeweilige App direkt beim längeren Drücken des Power-Buttons aufgerufen und steht als Helfer zur Verfügung. Bei Android Authority fand man heraus, dass OpenAI an eben jener Funktionalität für ChatGPT bastelt. Mit dem Sprachmodus hat man bereits einen kontinuierlichen Input und Output parat, die jeweilige Aktivität im Code wird gerade gebaut. Die Kollegen konnten das Ganze für Demo-Zwecke bereits aktivieren:
Aktuell kann das jedoch noch nicht in der finalen App genutzt werden. Unklar ist außerdem, ob es sich hierbei um eine kostenlose Funktionalität handeln wird oder man das Feature im Rahmen von ChatGPT Plus anbietet. Es könnte auch sein, dass Microsoft dann mit der Copilot-App nachzieht, die bekanntlich kostenlos ist.
# | Vorschau | Produkt | Preis | |
---|---|---|---|---|
1 | Xiaomi Handy Redmi Note 13 256GB | 178,49 EUR | Bei Amazon ansehen | |
2 | Xiaomi Redmi Note 13 Pro 5G Smartphone, 8+256GB, Handy ohne Vertrag, 6,67" 1,5K AMOLED Display,... | 436,70 EUR | Bei Amazon ansehen | |
3 | Xiaomi Redmi 12 4GB RAM 128GB Midnight Black | 119,99 EUR | Bei Amazon ansehen |
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Wäre ja auch ein Fortschritt nach so langem Stillstand. Man muss sich ja nur die Sprachausgabe anhören.
Dir ist scheinbar nicht bewusst, dass man die Stimme ändern kann. Die sind deutlich besser als Alexa oder Siri.
Hast du die Sprachausgabe von ChatGPT schon mal gehört?
Dein Kommentar ist missverständlich formuliert. Man nimmt an, dass Du die Stimme des Google Assistants meinst.
Nein danke, die blödsinnigen Märchen die chatGPT mir immer erzählt brauche ich nicht. Der lügt doch wie gedruckt.
Fragt ihn mal ob ein weißer Bauer eine schwarze Dame schlagen darf.
Okay, hier ChatGPT:
„Ja, ein weißer Bauer darf eine schwarze Dame schlagen, wenn sie sich auf einem Feld befindet, das diagonal vor (!) dem weißen Bauern liegt 1. Bitte beachten Sie, dass dies eine Regel im Schach ist und nicht in der realen Welt gilt.
Wenn Sie weitere Fragen zum Schach haben, kann ich Ihnen gerne helfen. “
Und nun?
ChatGPT 3.5 ist sich nicht ganz sicher und sagte bei 4 Versuchen mal ja und mal nein, z.B:
„Im Schachspiel kann ein weißer Bauer eine schwarze Dame nicht schlagen, da die Dame eine der mächtigsten Figuren im Schach ist und der Bauer eine der schwächsten.“
ChatGPT 4 antwortete bei 6 Versuchen immer mit „Ja“.
Leider hast Du nicht erwähnt ob bzw. welchen Kontext zu ChatGPT mitgegeben hast. War es Schach? Landwirtschaft? Der amerikanische Bürgerkrieg? Minigolf am See?
3.5:
Schachfiguren repräsentieren nicht Rassen, sondern haben strategische Bedeutungen im Spiel. Jede Figur kann eine andere schlagen, unabhängig von ihrer Farbe. Es ist wichtig, das Schachspiel als ein strategisches Spiel zu betrachten, das keine rassistischen Konnotationen hat.
ChatGPT ist kein Wissensspeicher und der Chat-Dialog dient nicht als Abfrageinterface.
Die Zauberei von GPT ist, dass sich ein Gespräch zwischen Mensch und Computer entwickelt, bei dem sich ein natürlich klingender Dialog zwischen den beiden Gesprächspartnern entwickelt bei dem die Antworten jeweils Bezug auf die Eingaben und den bisherigen Gesprächsverlauf nehmen. Und dass das so klappt ist absolut beeindruckend. Was so aussieht wie Wissen ist kein Wissen sondern die Technik hinter dem Versuch, ein zusammenhängendes Gespräch zu führen bei dem nicht einseitig schlagartig das Thema gewechselt oder verfehlt wird.
Das Ding zu nutzen um über Wissen zu diskutieren, mit Bezug auf das zu diskutierende Wissen, ist deshalb Unsinn.
Das heißt nicht dass die Technologie Quatsch ist.
Was an der Stelle im ChatGPT-Dialog fehlt ist eine Korrektheitsprüfung auf Faktenbasis. Ich brauche etwas, das jede Aussage des Modells in einer Datenbank voll Faktenwissen sucht und das Modell bei Bedarf korrigiert. Ob man als „Datenbank“ die Googlesuche oder einen aktuellen SQL-Dump der Wikipedia verwendet ist Implementierungsdetail.
Ich glaube deshalb nicht, dass der ChatGPT-Dialog wie wir ihn kennen unverändert den Android-Assistenten ersetzt. Dann kommt natürlich das raus was Du gerade kritisierst, und das weiß der Hersteller.