Google Gemini 1.5 vorgestellt
Google hat seine smarte KI namens Gemini auf die Version 1.5 gehievt. Das klingt natürlich überraschend schnell, nachdem man erst letzte Woche Gemini 1.0 Ultra zur Verfügung gestellt hatte. Das neue KI-Modell wurde entwickelt, um Gemini 1.0 Pro nahtlos zu ersetzen.
Es bietet gegenüber seinem Vorgänger entscheidende Verbesserungen, insbesondere in Bezug auf die Fähigkeit, größere Datenmengen zu verarbeiten. Mit der Fähigkeit, rund 700.000 Wörter oder rund 30.000 Code-Zeilen zu verarbeiten, kann Gemini 1.5 Pro 35-mal mehr Daten als Gemini 1.0 Pro handhaben.
Darüber hinaus ist dieses Modell multimodal und beschränkt sich nicht nur auf textbasierte Daten. Es kann bis zu 11 Stunden Audiodaten oder eine Stunde Videodaten in einer Vielzahl von Sprachen verarbeiten. Gemini 1.5 Pro wird standardmäßig mit einem Kontextfenster von 128.000 Token geliefert. Allerdings kann nicht jeder das Potenzial sofort ausschöpfen. Immerhin: Ab heute können eine begrenzte Gruppe von Entwicklern und Unternehmenskunden es mit einem Kontextfenster von bis zu 1 Million Token über AI Studio und Vertex AI in privater Vorschau ausprobieren. Entwickler schauen am besten einmal direkt bei Google vorbei und lesen sich alle Details durch.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Verstehe nicht wie ein 128000 Token LLM performant laufen kann.
Da muss doch das Modell irgendwie tricksen.
Ich habe zwar nur mal kurz mit verschiedenen KI-Modellen herumgespielt, aber ein generelles „Mehr Token mehr Performance“ oder „Mehr Token bessere Ergebnisse“ konnte ich so direkt nicht feststellen. Die Modelle haben noch andere Kriterien, an denen die Leistung hängt. Und das steht alles noch relativ weit am Anfang, also einfach mal abwarten bis es allgemeiner Verfügbar ist und schauen, was es wirklich kann.
Ne, mit Performance meinte ich nicht die Qualität der Antworten sondern die notwendige Rechenzeit. Selbst auf einer H100 von Nvidia braucht ChatGPT einiges and Rechenzeit und das hat deutlich weniger Token.
Google muss da irgendwie tricksen wenn man als User nicht ne Stunde auf seine Antwort warten möchte.
Google fürchtet vermutlich um seine cash cow, die klassische Suche und will diese Stellung auch in KI behalten. Die werden unbegrenzte Geldmengen auf das Problem werfen und sie haben die Rücklagen es zu meinen wenn sie sagen Geld spielt keine Rolle. Ich glaube, dass das letztlich ein massives Wettrüsten mit Hardware sein wird.
Das ist eine Frage, die man mal KI stellen kann 😉