Apple soll KI-Bemühungen vertieft haben
Vermutlich keine Überraschung: Apple arbeitet laut Bloomberg-Bericht an KI-Tools, die die von OpenAI, Google und anderen herausfordern könnten, aber das Unternehmen muss noch eine klare Strategie entwickeln, wie es diese Technologie den Verbrauchern zugänglich machen will.
Apple hat sein eigenes Framework entwickelt, um große Sprachmodelle zu erstellen – die KI-basierten Systeme, die das Herzstück neuer Dienste wie ChatGPT und Googles Bard bilden – so Personen, die mit den Arbeiten des Unternehmens vertraut sein sollen. Auf dieser Grundlage, die als „Ajax“ bekannt ist, hat auch Apple einen Chatbot-Dienst geschaffen, den einige Ingenieure „Apple GPT“ nennen, so der Bericht des US-Mediums.
Gleich mehrere Teams sollen an dem Projekt arbeiten. Die Arbeit umfasst auch den Versuch, potenzielle Bedenken hinsichtlich des Datenschutzes im Zusammenhang mit der Technologie auszuräumen.
Mal schauen, ob Apple da etwas hinbekommt – und ob man es sich erlaubt, so viel Zeit verstreichen zu lassen, wie bei der eigenen Karten-Lösung. Und – machen wir uns nichts vor – auch Siri könnte davon partizipieren, aber das Problem hat Google und Amazon ja auch mit den eigenen Sprachassistenten.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Sind aber schnell 😉
Aber dafür haben sie sich sehr bemüht!
Ach komm, das ist doch kein neues Muster bei Apple. Sie versuchen eben, ab und zu komplett neues zu „erfinden“ bzw. Maßstäbe zu setzen (Vision Pro zuletzt, da wird es auch klappen, meine Meinung). Aber ansonsten lassen sie sich nicht verrückt machen und bringen die Dinge dann raus, wenn es ihnen passt und sie glauben, es ist soweit entwickelt, dass es für den Nutzer auch ausgereift ist. Und damit fahren sie ja sehr erfolgreich.
Vielleicht wäre es ja ein „Apple-Like“ Modell, wenn wesentliche Teile der Verarbeitung lokal laufen, wie man das ja auf iOS und macOS schon für die Spracherkennung einstellen kann. Geht dann auch offline und vor allem datensparsam, weil Wesentliches auf dem lokalen Gerät verarbeitet wird. Z. B. bei serverbasierten Datenbankabfragen einfach eine „Anonymisierungsschicht“ dazwischenschalten, mit neuen „token“ für jede Folgeabfrage, so daß die Komponenten außerhalb des Phones nicht wissen, von wo die eine und dann die nächste Abfrage kam. So könnte man helfen Datenspuren zu vermeiden.
„auch Siri könnte davon partizipieren“ – bitte was?! 😉