Apple plant KI-gestütztes Websuchtool für Siri

Apples Siri war einst mit Vorreiter im Bereich der sprachgestützten Steuerung, bis man über die Jahre irgendwie verpasst hat, mit der Konkurrenz mitzuhalten. Heute funktioniert Siri mehr oder weniger gut und sollte längst überarbeitet worden sein. Apple hatte sich eingestanden, dass die Ambitionen der WWDC 2024 nicht gehalten werden konnten. So ist man immer noch dabei, die geplanten Funktionen umzusetzen.
Laut Bloombergs Mark Gurman will Apple Siri wohl im nächsten Jahr auch mit einer KI-betriebenen Websuche („World Knowledge Answers“) ausstatten. Damit wird Siri künftig nicht nur Antworten auf Standardfragen liefern, sondern ähnlich wie ChatGPT, Perplexity oder Google-KI-Überblicke auch Suchergebnisse aus dem Netz zusammenfassen, inklusive Texten, Bildern, Videos und lokalen Tipps.
Das Ganze basiert auf einer runderneuerten Siri-Plattform, die mit großen Sprachmodellen arbeitet. Apple testet dabei aktuell eigene Modelle, aber auch Lösungen von Anthropic und Google. Im Bereich der Ergebnis-Zusammenfassungen (z. B. bei langen Suchanfragen) ist wohl eine speziell angepasste Version von Google Gemini im Rennen. Das Tool soll zunächst Siri-exklusiv kommen, später aber auch in Spotlight und Safari einziehen.
Die neue Version soll ab März 2026 (iOS 26.4) bereitstehen. Bis Jahresende will Apple dann auch ein neues Siri-Design und einen KI-gestützten Gesundheitsassistenten für ein kostenpflichtiges Abo-Modell nachliefern.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Hmmm…
Also in Microsofts Copilot(und anderen KI) hat man die Websuche und Sprachkommunikation
ja eh schon lange, dort kann man mittlerweile aber auch wahlweise ein Bild generieren,
ein Bild hochladen, oder ein Bildschirmausschnitt/Screenhot übernehmen.Dieses
Bild dient dann als „Startbild“ und kann mit Prompts wie z.B.
„mach mal schönes Wetter“ oder „oder lasse ein Einhorn durchs Bild laufen“ oder
„verücke mal dieses oder jenes Ding nach oben/unten“ u.s.w.
manipuliert werden. Damit sind KI-Agenten(nicht nur Copilot) gerade dabei Bildbearbeitungsprogramme
überflüssig zu machen(auch wenn sie noch nicht alles können).
Da glaubt Apple ernsthaft mit einer ziemlich altbacken anmutenden KI-Websuche noch etwas reissen zu können…..echt jetzt?
Nur weil du gerne in KIs mit Bildern spielst ist doch die geplante Websuche der KI nicht minder wichtig. Gerade bei der Bild generierung macht ChatGPT gerne was es will und nicht was man erwartet. Wenn man bloß irgendein Bild für eine Kindergeschichte braucht und man keine Erwartungen hat klappt das aber wenn man etwas spezielles will legt man doch besser selbst Hand an.
Die Zeiten in denen man nicht steuern konnte was für ein Bild eine KI liefert sind längst vorbei.
Bsp.
Ein Fantasiebild in das ein echtes Bild eingefügt wird(ein Baum) und ein paar andere Manipulationen gemacht werden.Gemacht in Copilot…das(und noch viel mehr) geht mit anderen KI’s aber auch.
https://drive.google.com/file/d/1SSKLfx5-HQ-EefLrC8HC6kcqL5G1wqgU
Noch Fragen ?
Der Baum im KI Bild sieht aber komplett anders aus als der in deinem Prompt?
Du siehst aber schon das der Baum einfach komplett anders aussieht?:-)
Und wen juckt Bildbearbeitung bei Siri aktuell? Die müssen ja erstmal das Grundgerüst Überarbeiten , so wie sie es nun scheinbar machen , damit Siri aus auf HomePods etc deutlich besser wird. Da sind so Bild Spielereien erstmal uninteressant.
Aha. Da Siri gefühlt seit Einführung dumm ist und bei uns simpelste Dinge nicht hinbekommt oder immer wieder Zeit braucht, Fehler produziert oder mir was aufs iPhone schicken will, obwohl die Antwort 2 Sekunden dauert… glaub ich da dran, sobald Siri das alles kann.