Ollama 0.9.5: Native macOS-App mit verbesserter Performance


Das Open-Source-Tool Ollama für die lokale Verwaltung von Large Language Models (LLM) liegt jetzt in Version 0.9.5 vor. Die Entwickler haben die Software laut eigener Aussagen grundlegend überarbeitet und bieten nun eine native macOS-Anwendung an, die sich durch schnellere Startzeiten und einen reduzierten Speicherbedarf auszeichnet. Der Umstieg von Electron auf eine native macOS-App macht sich direkt bemerkbar: Die Installationsgröße schrumpft um etwa 25 Prozent, während die Anwendung schneller startet.

Mit Version 0.9.5 führt Ollama auch neue Funktionen ein. Über ein neues Einstellungsfenster lassen sich die verwalteten Sprachmodelle im Netzwerk freigeben. Dies ermöglicht es, ressourcenintensive LLMs auf leistungsstarken Rechnern laufen zu lassen, während andere Geräte im Netzwerk darauf zugreifen können. Die Modelle müssen auch nicht mehr im vorgegebenen Standardverzeichnis gespeichert werden, Nutzer können jetzt auch externe Speichermedien oder alternative Verzeichnisse wählen. Übrigens: Ollama gibt es auch für Windows und Linux, wir hatten hier schon einmal das Thema zum Einstieg.

Angebot
Reolink Altas PT Ultra, Erste 4K Solar Überwachungskamera Aussen Akku mit Daueraufzeichnung, Auto-Tracking, 10s...
  • Sehen Sie, was passiert ist, BEVOR die Bewegung beginnt: Erfassen Sie bis zu 10 Sekunden, bevor eine...
Reolink 4K 8MP PTZ PoE Überwachungskamera Außen mit Dual-Objektiv, 6X Hybridzoom, 355°/90° Schwenkbar,...
  • Dual-Ansicht auf einem Screen: Sehen Sie genau, was in Ihrem Zuhause passiert – mit Dual-Ansicht auf...

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

8 Kommentare

  1. Gibt es mittlerweile vernünftige LLM für dt. Sprache? Bei den me

    • Habe sehr gute Erfahrungen mit Gemma3 27B und QWEN3 30B gemacht. Laufen allerdings nur so gerade noch brauchbar mit 16Gb VRAM, bei noch weniger VRAM eher schlecht. Ist es zumindest mir aber wert weil die beiden echt, für lokale kleine Modelle, sehr gut sind. Gemma3 kann sogar Bilder analysieren und somit fragen zu Bildinhalten beantworten.

  2. Eine Nutzung des KI Teils der M-Chips wäre klasse.

    • Gibt’s seit ca. 4 Monaten, nennt sich MLX. Die Modelle müssen dann aber statt im gguf Fomat im MLX Format herunterladen werden. Gibt’s nicht immer 1:1 und selber bauen bzw. konvertieren ist noch ein Krampf.

  3. Welches lokale LLM för die deutsche Sprache würdet ihr denn fürs Synology NAS empfehlen?

  4. Ohne MLX-Unterstützung bleibt Ollama wohl stets im performanten Nachteil.

    Schade, das wäre viel wichtiger, als ein kleineres Wirtsprogramm oder schnelleres Laden, was auf großen Macs ohnehin nicht ins Gewicht fällt.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.