ChatGPT für macOS: Sprachmodus wird Mitte Januar eingestellt

Kurz für Nutzer von ChatGPT unter macOS notiert: OpenAI räumt in der Desktop-App auf und streicht den Sprachmodus. Ab dem 15. Januar 2026 lässt sich die Funktion nicht mehr direkt über die Mac-Anwendung nutzen. Das Unternehmen gibt an, sich künftig auf einheitlichere Spracherlebnisse konzentrieren zu wollen und nimmt das Feature deshalb dort raus. Wer weiterhin mit der KI sprechen möchte, muss auf andere Plattformen ausweichen. Die Voice-Funktion bleibt nämlich im Web unter chatgpt.com sowie in den Apps für iOS, Android und Windows erhalten. Abgesehen vom Wegfall der Sprachsteuerung bleiben alle anderen Features der macOS-Version unangetastet. Da muss man dann wohl oder übel den Browser öffnen oder zum Smartphone greifen, wenn es mal wieder mündlich gehen soll.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ist damit „nur“ der erweiterte Audiomodus gemeint? also das direkte kommunizieren mit Sprache (blauer wabernder Ball), oder die funktion Text einzusprechen, der anschließend Transkribiert wirds?
Läuft die Diktierfunktion nicht sowieso nativ über macos?
Eine Vereinheitlichung wäre es, wenn der Sprachmodus überall gestrichen würde. So ist wieder nur dummes Geschwätz und die KI hat beim erstellen der Pressemitteilung jämmerlich versagt.
Vielleicht hat Apple auch Pläne mit Siri und ChatGPT musste das Feature rausnehmen wegen der User Experience. Aber wegen DSA ist es natürlich besser, wenn ChatGPT ein ureigenes Interesse daran bekundet, dieses Feature zu streichen.
Ist das vielleicht nicht einfach ein Vorgriff, da diese Funktion dann über Siri abgedeckt wird?
Begründung und Konsequenz stehen im Widerspruch.
Wenn der Herausgeber dieser Software schlau ist, haben sie in Xcode eine Multi Platform App angelegt und entwickeln sowohl iOS App, als auch die für MacOS in demselben Projekt. Wenn sie also mit Plattform übergreifender Konsistenz argumentieren wollen, müsste das Feature in jeder auf der Apple Plattform bereitgestellten App verfügbar sein.
Schon komisch, die Mac OS App gab es früher als die für Windows und diese hat auch sehr früh Features bekommen und nun streicht man das Feature als erstes auf dieser Plattform und dann noch mit so einer komischen Begründung.
OpenAI lässt nach. Bin gerade zu Gemini gewandert, und Gemini hat mich bisher nicht enttäuscht. Einzig die Projektordner fehlen mir jetzt. Es ist völlig unverständlich, wie die Leute mit Gemini ohne Projektordner zurecht kommen.
Hat jemand einen Tipp außer die einzelnen Threads mit einem führenden Buchstaben zu Clustern?
kommt jetzt in Kürze auch in Gemini
Ich kann in Gemini immer nur meinen letzten prompt editieren, die davor nicht mehr, ist das bei euch auch so?
Moin,
ich tippe auf technische Probleme (Achtung: Glaskugel): seit ca. 1 Woche ist die akustische Konversation auf dem Mac schlichtweg unmöglich. Vale (professionell) antwortet abgehackt, wie wenn Wortteile einfach durch Pausen ersetzt werden.
Schade, Vale „zynisch“ hatte was… 🙂 , war auf Dauer aber ziemlich anstrengend.
Sehr originell sind auch „Selbstgespräche“ zw. Handy und Mac-App. Konversation anfangen und dann zurücklehnen und einfach nur zuhören, wie sich 2 KI volllabern… (Was beim Mac leider nicht mehr geht, s. oben).
Mal sehen, wohin die Reise uns noch hinführt…