Raycast: Lokale KI-Modelle dank Ollama-Integration

Raycast bringt mit dem aktuellen Update ein wirklich nützliches Feature für KI-Fans. Dank der Integration von Ollama lassen sich jetzt über 100 Open-Source-Modelle direkt lokal auf dem eigenen Rechner nutzen, von kleinen Modellen bis zu riesigen Modellen. Die Einrichtung ist einfach erklärt und auch genauso einfach umgesetzt. Ollama installieren, gewünschte Modelle direkt in den Raycast-Einstellungen > AI auswählen (Raycast Pro ist NICHT notwendig dafür) und loslegen.

Neu ist auch experimenteller Support für AI-Extensions mit lokalen Modellen. Noch läuft das Ganze nicht ganz so stabil wie mit Cloud-KIs, da Ollama aktuell keine Tool-Auswahl und kein Streaming für Tool-Aufrufe unterstützt. Wer Lust auf Experimente hat, kann die Funktion aber in den AI-Einstellungen aktivieren.

Außerdem gibt’s Verbesserungen bei Fehlerberichten, MCP-Server-Kompatibilität und ein paar Bugfixes rund um das Onboarding, den Export und die Verwaltung von MCP-Servern.

Das Update könnt ihr direkt über das „Check For Updates“-Kommando herunterladen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei X (Twitter), Threads, Instagram, XING und Linkedin, per Website oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

4 Kommentare

  1. Ist natürlich kein Muss, da jeder selber googlen und den Links im Artikel folgen kann.
    Aber eine kurze Einleitung was Raycast ist hätte mir sehr geholfen. Hab noch nie zuvor davon gehört.

  2. Nanu? Auf der Raycast Website steht bei den Details für die Free-Version „Max 50 messages“. Bei einem lokalen LLM sollte es ja wohl keine Begrenzung geben?
    Kann jemand mal erzählen, ob sich die free Version von Raycast lohnt und was er damit macht?
    Ein lokales LLM ist mit einem aktuellen Mac ja überhaupt kein Problem mehr.

    Allerdings unterstützt Ollama kein MLX Format für das LLM, oder? MLX Modelle laufen wesentlich schneller auf dem Mac …

  3. hey Siri – das ist eine ABO Falle wie so viele deiner Schwestern:Brüder.
    du wirst sicher mit deinem zunehmenden Alter und Intelligenz vielle abholen und einfangen.
    ich denke wir sollten noch 2-3 Monate warten und dann nochmal schauen.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.