ChatGPT als Assistent auf dem iPhone oder dem Android-Smartphone nutzen

Solltet ihr die Muße haben, etwas basteln und herumspielen zu wollen, dann ist das Folgende vielleicht ja etwas für euch. Es gibt die Möglichkeit, die Sprachassistenten Siri und Google Assistent dahingehend zu befehligen, dass sie ChatGPT anzapfen und euch die Antworten geben, die Open AIs Werkzeug ausgibt. Unter iOS wird ein entsprechender Kurzbefehl benötigt und euer Open-AI-API-Schlüssel. Unter Android wird die App Automate nebst der Konfigurationsdatei benötigt. Schaut bei Fragen vielleicht auch in die entsprechenden Tweets der Ersteller:

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

30 Kommentare

  1. Also ich hätte ja gar keine Lust, wenn mir bei jeder Frage ein halber Roman als Antwort kommt.
    Ich finde die Antwort von Siri in dem Fall besser.

    • man kann ChatGPT ja auch anweisen, nur mit maximal X Zeichen/Wörtern zu antworten

      Siri und ChatGPT sind einfach völlig verschiedene Dinge, da vergleichstg du Äpfel mit Birnen

      • „R.I.P Siri“ im zitierten Tweet ist also dahingehend keine Einschätzung, dass ChatGPT hier Siri ersetzen soll?
        Mir ist bewusst, dass Siri und ChatGPT grundlegend unterschiedliche Technologien für grundlegend unterschiedliche Use-Cases sind. Mein Punkt war ja genau die Sache die du ansprichst. Ich sehe die Entwicklung von Suchmaschinen („das neue Bing“) immer mehr zu generativer AI aus diesem Grund schwierig. Beispiel wäre hier eine Anfrage wie „Wie hoch ist der Mount Everest?“ ChatGPT schreibt mir da einen halben Roman mit der Lage und der Tatsache das es der höchste Berg ist (Was ich alles nicht wissen wollte), während Google und Siri mir einfach die Zahl entgegenwerfen. Ich spare also mit klassischen Methoden mehr Zeit als mit der generativen AI.
        Und ich möchte hier keinesfalls ChatGPT Kleinreden (auch nicht in den Himmel loben), aber es erschafft (für mich) einen Use-Case den es vorher nicht gab bzw. der nicht erfüllt werden konnte bis dato.

        • Absolut! Doppelplus.

          Früher sagte man mal scherzhaft: „Ein Mann, ein Wort. Eine Frau, ein Gespräch.“ – heute könnte man hinzufügen: „Ein Assistent, eine Wagner-Oper.“

          Für mich ist das gar kein Feature, wenn der Computer so tut, als sei er ein Gesprächspartner. Ist er nicht, soll er nicht, braucht er nicht: Antwort geben, Fresse halten. 😀

  2. Ungefähr eine Stunde ChaGPT, es könnte auch weniger gewesen sein, kostete auf meinem Pixel 6 Pro 20% Akkukapazität. Von daher sehe ich ChatGPT eher als Spielerei. Mein Favorit ist immer noch Google Assistent.

    • lässt du ChatGPT lokal auf deinem Handy laufen oder wie? 😀

      ChatGPT selber ist ja nur ein Web-Dienst, der von deinem Handy aufgerufen wird und das verbraucht nur minimal Akku, weil das ja kaum CPU-Leistung benötigt

    • > It’s free & takes 30 seconds.

      Ist der API-Key denn kostenlos? Ich dachte, man zahlt da pro Abfrage und je nach Länge.

      • port_shepstone says:

        Man bekommt einen Probezeitraum in welchem man Token im Wert von 18USD gratis nutzen kann. Ist der vorbei kostet es aber ca. 0,0003 $ pro Anfrage.

        • Woher hast das denn? Du kannst so viele Key wie du willst erstellen, kostenlos. Die Nutzung ist aber am Tag beschränkt. Für privat reicht das aber. Ich kam erst einmal an die Grenze und da hatte ich mit GPT eine Stunde hin und her geschrieben. Geht man über den Browser und nutzt keine App die per Key angebunden wurde, gibt es überhaupt keine Beschränkungen.

        • Fast. Du zahlst die $0.0003 nicht pro Anfrage sondern pro Token.

          Zitat Preisliste:
          „Multiple models, each with different capabilities and price points. Prices are per 1,000 tokens. You can think of tokens as pieces of words, where 1,000 tokens is about 750 words. This paragraph is 35 tokens.“

          https://openai.com/pricing

          Da steht jetzt erst mal nicht, ob hier Tokens in der Anfrage oder Tokens in der Antwort gemeint sind. Ich nehme aber an dass das summiert wird. Eine kurze Anfrage und keine kurze Antwort dürfte also bei etwas unter 100 Tokens bzw. $0.003 rauskommen, oder alle 3 Anfragen 1ct.

    • wirklich? ich finde Google hat mit dem Assistent das versprochen und nicht geliefert, was ChatGTP ist. ich bin immer wieder überrascht, wie dämlich die KI vom Google ist. Dazu kommt, dass Google permanent an dem Tool schraubt, so dass plötzlich gängige Formulierungen nicht mehr gehen.
      ChatGTP ist wirklich ein Assistent, wie man es aus STTNG kennt und sich immer gewünscht hat.

  3. es gibt übrigens viel fortschrittlichere Shortcuts dieser Art, z.B. https://github.com/Yue-Yang/ChatGPT-Siri

    mit dem kann man auch Konversationen führen und nicht nur eine einzelne Frage stellen

  4. ChatGPT und Alexa: Geht das inzwischen auch einfach? Habe diverse „Anleitungen“ gesehen, sind für mich aber alle zu kompliziert (bei „GitHub“ in der Anleitung verlässt mich mein technisches Wissen – sorry).
    Wer kennt eine einfache Alexa/ChatGPT-Kombi für Noobs wie mich?

    • probier mal den Skill „Mein Superhirn“ oder „Kluge Athena“ (Skills kannst du über die Amazon Alexa App installieren)

  5. Ja, ich weiss, ich bin ein alter Mann… 😀

    …ich finde ChatGPT eine sehr beeindruckende Technologie, da wird sehr viel gehen. Aber was meine —Alltagsfragen— angeht (Wo ist tanken billig, was ist 234×432, wo ist der nächste Eisladen) gehen mir diese geschwätzigen klugen Assistenten inzwischen ziemlich auf den Senkel, und ich verwende die gute alte Websuche ⟶ Erste Fundstelle.

    Bis der Assistent fertig ist, „Ich habe dieses hier für dich gefunden…:“, und dann muss ich doch wieder draufklicken und im Browser öffnen, weil die Vorschau nicht vollständig ist…

    Kann nicht mal jemand einen „norddeutschen“ Assistenten bauen? Einen, der einsilbige Antworten gibt, am liebsten nur schriftlich, und bei Navigations-Fragen einfach nur still in eine Himmelsrichtung nickt? Danke! ;-D

    P.S.: Mir fällt in letzter Zeit öfter mal auf, dass die Assistenten immer neunmalkluger werden, aber so grundlegende Dinge wie „Navigiere nach Hause“ oder „Bildschirm aus“ nicht (mehr) funktionieren. Da scheint die Softwareentwicklung den Kopf in den Wolken zu haben, während die Füße nass werden.

    • Danke, volle Zustimmung von mir!

    • Man kann durch einfache Anweisungen die Ausgabe konfigurieren. Nennt sich „Priming eines GPT Prompts“.

      „Du bist das Navigationssystem in meinem Auto. Fasse Dich kurz, damit Du mich nicht bei der Fahrt ablenkst. Falls der Liter Diesel im Umkreis unter 1.70 liegt, navigier mich da auf dem Heimweg hin. Mehr als 5km Umweg möchte ich aber nicht fahren.“

      Ist doch viel einfacher, als den Browser zu öffnen, da „Benzinpreis“ zu googeln, beim ersten Treffer dann für die URL das GPS zu erlauben und dann auf der Zielseite so lange zu scrollen bis ich den Maps-Button finde.

      Den ersten Teil der Anweisung will ich langfristig möglichst nicht jedes Mal dazu sagen müssen, das darf mein Handy selbst wissen sobald es im Car-Mode ist.

      • Hi,

        > Man kann durch einfache Anweisungen die Ausgabe konfigurieren.
        > Nennt sich „Priming eines GPT Prompts“.
        Ich hatte mich ja eher „grundsätzlich“ beschwert. Also, generell über Assistenten, egal welche Technik jetzt dahinter ist.

        Sagenwirmalso: Wenn ich den Assistentwen frage „Wieviel ist 3 plus 4?“, dann will ich…:
        – Nichts hören
        – Auf dem Screen eine „7“ haben
        – Und schon gar kein „Deine Antwort lautet… …Danke für die Frage… kann ich sonst noch irgendwas…?“

        > Ist doch viel einfacher, als den Browser zu öffnen, da „Benzinpreis“
        > zu googeln, beim ersten Treffer dann für die URL das GPS zu erlauben
        > und dann auf der Zielseite so lange zu scrollen bis ich den Maps-Button finde.

        Hm. Nö.

        Also, erstmal ist das Beispiel schlecht, denn für Benzinpreise habe ich eine App. Ja, ich weiss, das Beispiel kam von mir 🙂 Da war ich wohl überspezifisch, Eigentor.

        Zweitens würde ich hier unterscheiden zwischen „Assistent“ und „klassisches googeln per Spracheingabe“. Der Browser ist mit einem einzigen Touch geöffnet, die Spracheingabe mit einem einzigen Touch gestartet, und danach ist der Browser einfach schneller als der Assistent.

        Wobei — „schneller“ ist vielleicht auch das falsche Kriterium. Eigentlich geht mir nicht um die halbe Sekunde. Es geht mir um das ganze Gequatsche von dem Assistenten, das mega nervt. Grad mal ausprobiert: „OK Google, wieviel ist drei mal sieben“ — Antwort: „Drei mal sieben entsprechen 21“ statt „21“. Blablabla.
        Oder „OK Google – wo kann ich billig tanken“ — Antwort, statt einfach die Liste zu zeigen: „Ich habe in deiner Nähe mehrere Einträge gefunden“. Warum quatscht der ganze Opern?

  6. @kamil
    Gute und wertvolle Kommentare!

  7. Könnte bei Android evtl. ein Aprilscherz gewesen sein. Bei mir läuft es auf einen Fehler, den auch andere Nutzer haben.

    • port_shepstone says:

      Ist kein Aprilscherz und läuft einwandfrei. Schau mal, ob dein Probezeitraum/18USD-Kontingent abgelaufen ist.

  8. Sagt mal, ich versage bei der Einrichtung (bin auch schon über 40) 😉 … „Schlüsselpfad konnte nicht überprüft werden … in „“ kein Wert für den Wörterbuchschlüssel „Choice“ gefunden“.
    Hat das schon jemand von euch gehabt? Sowohl beim iPhone, wie auch beim iPad, obwohl nach Anleitung gehandelt..l

  9. Bernie0007 says:

    Ich benutze seit einigen Wochen ChatGPT als Siri Ersatz vor allem bei Autofahrten. Siri verweist bei Fragen lediglich auf gefundenen Text bzw. Links, wohingegen ChatGPT den Text vorliest (klar, manchmal ist der Text sehr lang, aber dieser kann bei Bedarf abgebrochen werden).

  10. Die Antworten von ChatGPT sind oft derart erschreckend falsch, dass es einem echt Angst machen kann, dass Leute darauf basierend Entscheidungen treffen ..,. weil sie sie das Teil für allwissend und unfehlbar halten „Es tut mir leid, Du hast haben vollkommen recht. Ich habe mich geirrt ..“ mein Lieblingssatz …

    • Das liegt halt daran, dass es keine Datenbank mit Sprachinterface ist sondern ein Sprachmodell das Wahrscheinlichkeiten von Zeichenketten vergleicht. Die Idee ist:
      * Nutzer geben eine Zeichenkette ein.
      * ChatGPT ermittelt über einen undurchsichtigen Mechanismus, wie die Zeichenkette weiter geht.
      * Das ist dann die Antwort.

      Das hat überhaupt nichts mit Wissen zu tun. Unter dieser Vorbedingung sind die Ergebnisse erschreckend nahe an der Wahrheit.

  11. Das mit den Zeichenketten verstehe ich nicht. (Ernst gemeint!) Kannst du das erläutern?

    Ich habe ChatGPT auch getestet. Wenn ich eine Geburtstagsrede oder ähnliches haben möchte, klappt das super und sehr zu meiner Zufriedenheit. Vergleiche ich aber zwei öffentlich zugängliche Regelwerke, ist nicht nur der Inhalt komplett falsch, sondern schon die Bezeichnungen / Namen der Regelwerke (Suche erfolgte erst über die Regelwerknummer, in meinem Beispiel DGUV Regel 105-002 und DGUV Regel 101-023). Selbst wenn man korrigiert, war der Inhalt falsch. Auch beim Suchen nach den Namen war der Inhalt noch komplett falsch. Ein Fehler, der sehr fragwürdig ist.

    • Schau Dir dazu auf dem Youtube-Kanal von Computerphile (von der Univerity of Nottingham) das Video „Glitch Tokens“ an. Insbesondere ab Minute 3 wird das deutlich.

      Er zeugt im Wesentlichen das hier:
      https://platform.openai.com/tokenizer

      Danach kannst Du Dir das Video „Bing Chat Behaving Badly“ ansehen, ebenfalls von Computerphile.

      Da wird irgend wo in der Mitte ausgeführt, dass diese Tools im Wesentlichen keinen Unterschied zwischen Code und Daten machen (da gehts kurz um sowas wie SQL-Injection in diesen Tools) und dass Teil des Konzepts ist, dass die Ausgabe des Tools selbst wieder direkt Eingabe ist. Also „sich selbst verstärkend“, oder so ähnlich.

      Er argumentiert da im Wesentlichen darüber, dass ein mal in aggressive Verhaltensweisen abgedriftetes Bing weiter immer aggressiver wird, weil es eben selbst seinen eigenen Ton aufgreift und weiterführt.

      Darauf will ich aber gar nicht raus.

      Vielmehr ist das (denke ich) dann auch direkt der Grund, weshalb sich solche Tools dann schnell was zusammen fantasieren. Wenn da Begriffe kommen die erst mal nicht super schlüssig sind weil sie selten vorkommen und demnach Tokenfolgen mit geringen Wahrscheinlichkeiten haben (dazu würde ich schon mal das „DGUV 105-002“ zählen) dann kommt führt „der Gedanke“ (wenn man das so nennen will) den der Chat hat schnell in eine Richtung aus der gar keine Information kommt (weil die Verstärkung von geringen Wahrscheinlichkeiten zu nur noch geringeren Wahrscheinlichkeiten führt) eben nicht zum Ziel.

      Meines Wissens nutzt Chat-GPT Grammatik an zwei unterschiedlichen Stellen. Einerseits ist Grammatik implizit Teil der Trainingsdaten, die erzeugten Texte sind also von Haus aus zu einem gewissen Grad grammatikalisch korrekt. Allerdings gibt es andererseits einen zusätzlichen Prozessschritt, der über die erzeugten Zeichenketten nochmal drüber läuft und explizit Grammatik korrigiert. Das wiederum kann auch nochmal sinnverfälschend wirken, wenn das Ding anfängt, die Kommasetzung in Eigennamen anzupassen. Dann passt der erzeugte Text ja noch weniger auf die eigentlich gestellte Frage, und wenn dann die Folgefrage kommt hat der Kontext mit geringerer Wahrscheinlichkeit eine Ablenkung mit noch geringerer Wahrscheinlichket dazu gewonnen.

      So 100% kenne ich mich allerdings mit dem Thema auch nicht aus, ich habe mich nur in den letzten Tagen aufgrund der medialen Aufmerksamkeit ein Bisschen eingelesen. Kann also gut sein, dass unterschiedliche Versionen von Chat-GPT völlig unterschiedlich arbeiten und dass genau sowas dann im Detail dann die Unterschiede zwischen Chat-GPT, Bing und Bard sind.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.