Google Gemini 1.5 vorgestellt

Google hat seine smarte KI namens Gemini auf die Version 1.5 gehievt. Das klingt natürlich überraschend schnell, nachdem man erst letzte Woche Gemini 1.0 Ultra zur Verfügung gestellt hatte. Das neue KI-Modell wurde entwickelt, um Gemini 1.0 Pro nahtlos zu ersetzen.

Es bietet gegenüber seinem Vorgänger entscheidende Verbesserungen, insbesondere in Bezug auf die Fähigkeit, größere Datenmengen zu verarbeiten. Mit der Fähigkeit,  rund 700.000 Wörter oder rund 30.000 Code-Zeilen zu verarbeiten, kann Gemini 1.5 Pro 35-mal mehr Daten als Gemini 1.0 Pro handhaben.

Darüber hinaus ist dieses Modell multimodal und beschränkt sich nicht nur auf textbasierte Daten. Es kann bis zu 11 Stunden Audiodaten oder eine Stunde Videodaten in einer Vielzahl von Sprachen verarbeiten. Gemini 1.5 Pro wird standardmäßig mit einem Kontextfenster von 128.000 Token geliefert. Allerdings kann nicht jeder das Potenzial sofort ausschöpfen. Immerhin: Ab heute können eine begrenzte Gruppe von Entwicklern und Unternehmenskunden es mit einem Kontextfenster von bis zu 1 Million Token über AI Studio und Vertex AI in privater Vorschau ausprobieren. Entwickler schauen am besten einmal direkt bei Google vorbei und lesen sich alle Details durch.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

5 Kommentare

  1. Verstehe nicht wie ein 128000 Token LLM performant laufen kann.
    Da muss doch das Modell irgendwie tricksen.

    • Ich habe zwar nur mal kurz mit verschiedenen KI-Modellen herumgespielt, aber ein generelles „Mehr Token mehr Performance“ oder „Mehr Token bessere Ergebnisse“ konnte ich so direkt nicht feststellen. Die Modelle haben noch andere Kriterien, an denen die Leistung hängt. Und das steht alles noch relativ weit am Anfang, also einfach mal abwarten bis es allgemeiner Verfügbar ist und schauen, was es wirklich kann.

      • Ne, mit Performance meinte ich nicht die Qualität der Antworten sondern die notwendige Rechenzeit. Selbst auf einer H100 von Nvidia braucht ChatGPT einiges and Rechenzeit und das hat deutlich weniger Token.

        Google muss da irgendwie tricksen wenn man als User nicht ne Stunde auf seine Antwort warten möchte.

        • Google fürchtet vermutlich um seine cash cow, die klassische Suche und will diese Stellung auch in KI behalten. Die werden unbegrenzte Geldmengen auf das Problem werfen und sie haben die Rücklagen es zu meinen wenn sie sagen Geld spielt keine Rolle. Ich glaube, dass das letztlich ein massives Wettrüsten mit Hardware sein wird.

    • Das ist eine Frage, die man mal KI stellen kann 😉

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.