Google Bard: Umstieg auf ein leistungsstärkeres Sprachmodell bestätigt
Textgenerierende KI-Tools sind derzeit in aller Munde. OpenAI hat mit ChatGPT vorgelegt und Google will das Ganze nun mit Bard kontern. Erst Anfang Februar hatte Google den Konkurrenten vorgestellt, seit kurzem ist dieser auch in einigen Regionen gestartet. Im direkten Vergleich hat Bard da wohl allerdings noch etwas Aufholbedarf. Derzeit befindet sich das Tool aus dem Hause Google aber auch noch in einem experimentellen Stadium.
Bard basiert derzeit auf einem LaMDA-basierten Sprachmodell. Man werde jedoch, so CEO Sundar Pichai gegenüber der New York Times, bereits in Kürze auf einen größeren PaLM-Datensatz umsteigen. Während LaMDA mit 137 Milliarden Parametern trainiert wurde, sind es bei PaLM 540 Milliarden, weshalb dieser Datensatz vielfältigere Antworten liefern dürfte.
Möglich, dass dies schon passend zum offiziellen und breiteren Start von Bard erfolgen könnte.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Wenn man was für von langer Hand geplanten Produkte Google regelmäßig in den Sand setzt sollte man da wohl keine großen Hoffnungen reinsetzen.
Ich habe da auch noch so meine Zweifel, zumal Google dieses Produkt in blanker Panik überstürzt aus dem Hut gezaubert hat.
Aber bei Google arbeiten eine Menge kluger Köpfe von daher sollte man das Unternehmen nicht unterschätzen.
Leider ist chatGPT nicht sonderlich intellgent. chatGPT ist eine Sprach-KI, du wunderbar Sprache kann. Aber Inhalte kann sie nicht. chatGPT googelt sich irgendwas zusammen, vermischt es und gibt das dann wieder. Sehr oft haarstäubender Unsinn. Ich finde es sehr schade, dass chaGPT keine eigenen Zusammenhänge in der Welt erkennen kann. Er ist also alles andere als intelligent. Er ist bestenfalls belesen.
Ich fand das Computerphile-Video mit Robert Miles vom 7.3. sehr erhellend.
Nutzer übergeben eine Zeichenkette. Diese Systeme prognostizieren dann mit Hilfe eines vorher erlernten Inhaltsschatzes, wie diese Zeichenkette weiter gehen könnte. Das ist dann de Antwort.
Der nicht offensichtliche Teil: Die Tokens auf denen solche Systeme operieren, haben nichts mit Wortschatz zu tun. Es sind keine Wörter, keine Silben, keine Phoneme, keine Buchstaben. Wenn ein Token eines davon ist, dann ist das „algorithmischer Zufall“. Das erkennt man schön daran, dass der Token „Leerzechen a“ ein anderer ist als „a“.
Du hast natürlich völlig Recht, diese Systeme sind nicht „schlau“. Neues Wissen werden sie nicht erzeugen, abgesehen vielleicht von dem das schon da ist aber das man noch nicht erkannt hat (Stichwort Data Mining).
Das muss aber überhaupt nicht sein. Wenn es „hey Google, der Thailänder 30km von hier bei dem ich vor vier Wochen war. Wie heißt der nochmal?“ versteht und nach erfolgreicher Nennung dann „jo, ruf da mal an damit ich einen Tisch reservieren kann und navigier mich da hin“ gleichzeitig die Navigation startet und die Telefonnummer wählt, dann ist dieses Werkzeug doch schon hundertmal wertvoller als die die wir bisher haben.