Ollama bringt neue Desktop-App für macOS und Windows

Die Entwickler von Ollama (haben wir bereits hier und hier vorgestellt) haben ihre KI-Plattform um eine neue grafische Benutzeroberfläche erweitert. Die neue Desktop-Anwendung steht ab sofort für macOS und Windows zum Download bereit und vereinfacht die Interaktion mit verschiedenen KI-Modellen. Die App ermöglicht das direkte Herunterladen und Nutzen von Sprachmodellen über eine übersichtliche Oberfläche. Nutzer können per Drag & Drop Dateien wie PDFs oder Textdokumente in die Anwendung ziehen. Die Verarbeitung erfolgt lokal auf dem eigenen Rechner.

Für umfangreiche Dokumente lässt sich die Kontextlänge in den Einstellungen anpassen. Dies erfordert allerdings mehr Arbeitsspeicher. Die neue Version unterstützt auch die Verarbeitung von Bildern mit kompatiblen Modellen wie Google DeepMinds Gemma 3. Entwickler profitieren laut der Macher von der verbesserten Code-Analyse-Funktion. Die App kann Programmierdateien einlesen und bei der Dokumentation unterstützen.

Wer auf eine grafische Oberfläche verzichten möchte, findet die CLI-Version weiterhin in den GitHub Releases. Die Desktop-Variante richtet sich vor allem an Nutzer, die einen einfachen Einstieg in die KI-gestützte Textverarbeitung suchen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

4 Kommentare

  1. Kennt sich jemand mit den Modellen aus und kann mir eins empfehlen, das pdfs oder ebooks schluckt und von english in deutsch übersetzt?

  2. Nimm Gemma3-27b (benötigt bei qat schon gegen 24gb VRAM). Das ist sehr gut bei Übersetzungen. Kommt halt aber auch auf deine GPU an. Ev. musst du ein kleineres Modell nehmen.

    https://ollama.com/library/gemma3/tags

    • Ja Gemma3 würde ich auch empfehlen. Und QWEN3. Jeweils in der größten Version die deine GPU kann. Ich habe 16Gb und Gemma3 27b läuft bissel langsam aber ok und QWEN3 30b läuft flott. Für lokal sind die richtig gut!

  3. Endlich!! Habs gerade heruntergeladen und konnte nach automatischen Download des Modells direkt den Prompt stellen. Lokales LLM für Normalos jetzt in unter einer Minute möglich. Kein einrichten, kein Terminal.
    Super!!!

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.