Snapchat: Neue KI-Tools, mehr AR und Zukunftssicherheit
Snapchat bzw. der Mutterkonzern Snap hat heute im Rahmen seines Events Snap Lens Fest 2025 neue Funktionen vorgestellt. Zudem hat man auch etwas über die Zukunft seiner AR-Brille, der Spectacles, gesprochen. Klar, dass neben Augmented Reality mittlerweile auch künstliche Intelligenz (KI) eine Rolle gespielt hat.
Beispielsweise hat Snap verraten, dass alles, was Entwickler für die aktuelle Generation der Spectacles erstellen, auch vollständig zur nächsten Generation kompatibel sein wird. Das sichert den Entwicklern auch in Zukunft eine Zielgruppe und der nächsten AR-Brille wiederum direkt eine Software-Basis. Neu ist da z. B. ein Commerce Kit, das es Entwicklern jetzt erstmals erlaubt, digitale Produkte oder Premium-Features direkt in der Umgebung der Spectacles-Lenses verkaufen.
Zudem gibt es mit der Funktion EyeConnect die Option, gemeinsame Lenses sofort einzurichten, indem man einfach auf die Person neben sich blickt. Frisch dabei ist auch der Travel Mode für AR-Erlebnisse unterwegs ohne Tracking-Unterbrechungen. Die Snap Cloud powered by Supabase soll wiederum eine sichere Infrastruktur für AR- und KI-Projekte, einschließlich Games und standortbasiertem Entertainment, anbieten.
Neue Möglichkeiten für AR-Inhalte
Mit Realistic StyleGen lassen sich Kleidung, Texturen, Licht und Perspektive jetzt naturgetreuer in Lenses umsetzen. Snap bewirbt jedoch auch seine verbesserte FaceGen-Technologie mit mehr Details für Haar, Gesichtszüge und Texturen. Bald soll es zudem möglich sein, mithilfe von KI-Clips personalisierte Lenses aus Fotos und Videos zu generieren, die direkt geteilt werden können.
Ab sofort können Influencer zudem mit Lens+ Payouts direkt von der Nutzung ihrer Lenses durch Abonnenten profitieren. Das Camera Kit steht obendrein fortan kostenlos zur Verfügung und ermöglicht den Einsatz von AR in unterschiedlichsten Anwendungen, auch außerhalb von Snapchat. Lens Games werden direkt in den Chat integriert. Mit dem neuen Lens Studio AI Assistant können Entwickler schließlich per Texteingabe beschreiben, was sie umsetzen möchten und die KI übernimmt daraufhin das Coding, gibt Hilfestellung, schlägt Assets vor, generiert komplette Lenses und kann Fehler identifizieren und beheben.
Über das neue Blocks Framework stehen zusätzlich mehr als 50 AR-Bausteine – wie Skripte, Assets und Effekte – zur Verfügung, die kombiniert, angepasst und geteilt werden können. Lens Studio ist jetzt auch für Mobilgeräte und im Web verfügbar, sodass Lenses unterwegs erstellt, bearbeitet und veröffentlicht werden können – inklusive abermals eines Chat-Tools für die KI-gestützte Kreation. Muss man natürlich abwarten, ob das zu mehr spannenden Inhalten oder eher viel generischem AI Slop führen wird.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.
Du willst nichts verpassen?
Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.