Apple führt Aufnahme von räumlichen Videos mit dem iPhone 15 Pro ein
Mit iOS 17.2 können Anwender von iPhone 15 Pro und iPhone 15 Pro Max ab Anfang nächsten Jahres räumliche Videos aufnehmen — eine neue Funktion, mit der man Momente festhalten und diese Erinnerungen auf der Apple Vision Pro wieder erleben kann.
„Das iPhone 15 Pro und das iPhone 15 Pro Max verfügen über die leistungsstärksten Kamerasysteme, die wir je entwickelt haben, einschließlich der besten Videoqualität aller Smartphones“, sagt Greg Joswiak, Senior Vice President of Worldwide Marketing von Apple. „Und jetzt setzen wir eine neue Messlatte für das, was möglich ist: Anwender können besondere Momente exakt so aufnehmen, wie sie passiert sind. Räumliche Videos sind einfach magisch, und wir können es kaum erwarten, dass Nutzer: Anfang nächsten Jahres diese Momente auf der Apple Vision Pro erleben können.“
Sobald die Aufnahme von räumlichen Videos in den Einstellungen aktiviert ist, kann man die Kamerasysteme des iPhone 15 Pro und iPhone 15 Pro Max nutzen, um alle Momente in drei Dimensionen festzuhalten. Räumliche Videos werden in 1080p mit 30 Bildern pro Sekunde im Standard-Dynamikbereich aufgezeichnet, so Apple.
Auf einem iPhone und anderen Geräten werden räumliche Videos als normale, zweidimensionale Videos angezeigt und können wie jedes andere Video auch angeschaut oder mit Apps wie Nachrichten geteilt werden. Anwender können alle aufgenommenen räumlichen Videos in einem eigenen Album in der Fotos App finden und alle räumlichen Videos werden mit iCloud auf allen Geräten synchronisiert. Eine Minute räumliches Video ist etwa 130 MB groß.
Vorschau | Produkt | Preis | |
---|---|---|---|
Apple Watch Series 9 (GPS, 45 mm) Smartwatch mit Aluminiumgehäuse und Sport Loop Armband in... | 413,94 EUR | Bei Amazon ansehen | |
Apple iPhone 15 (128 GB) - Schwarz | 773,00 EUR | Bei Amazon ansehen | |
Apple iPhone 15 Pro (128 GB) - Titan Natur | 1.090,89 EUR | Bei Amazon ansehen |
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
hmm, erinnert mich an das HTC EVO 3D aus dem Jahre 2012. Bin gespannt ob sich das über Apple jetzt durchsetzt.
Ich behaupte ja, dass das ein Nieschenmarkt ist. Da gibt’s nie einen ROI für die Entwicklung.
Lieber mal Siri ein Sprachmodell beiseite stellen, das wäre besser investiertes Geld. Das ganze dann mit Karten und Home verknüpfen und neue Smarthome HW raushauen, dann skaliert das.
Aber da ist Apple zu groß und träge geworden
Während das HTC Evo 3D ein 3D Display hatte und die aufgenommenen Filme darauf darstellen konnte, ist die Idee beim iPhone, die vorhandenen Kameras für 3D Filme nutzen zu können. Ziel dürfte es sein, Conent für die Vision Pro zu erzeugen. Bei Apple steht immer das gesamte Ökosystem im Fokus. Wer iPhone und Vision Pro hat, braucht keine zusätzliche 3D Kamera mehr. Spannder finde ich ja eher, wie die Filme aussehen. Die Kameras des iPhone sind ja nicht für 3D optimiert, sondern es werden Objektive mit verschiedenen Brennweiten genutzt. Da muss sicherlich viel im Hintergrund umgerechnet werden, weshalb wohl nur die Pro-Varianten des iPhone 15 genutzt werden können.
Features die keine sind, oder wie hält man das Gespräch um die Vision Pro künstlich am Leben. Das wird erst interessant wenn der Preis selbst für Apple Verhältnisse sinkt und somit Momentum erreicht, sprich eine kritische Masse. Warum sollte sonst irgendwer eine Aufnahme darin erstellen? Kann man ja nicht mal der Verwandtschaft oder Freunden zeigen.
ach, da wirds bestimmt bald auch nen wandler für normale 3d-ausgabegeräte geben. da muss man nicht auf die vision warten und sie auch bestimmt nicht kaufen.
Ich bin mal sehr gespannt, wie dieses dreidimensionale Erlebnis so erzeugt werden kann, wenn die beiden Linsen so nah bei einander sind. Nicht ohne Grund haben unsere zwei Augen einen gewissen Abstand zu einander, denn sie betrachten das Objekt aus zwei völlig verschiedenen Perspektiven. Die Linsen des iPhones haben jedoch nicht ansatzweise einen solchen Abstand zu einander, was bedeutet, dass die Dreidimensionalität entweder geringer ausfällt oder nachträglich simuliert wird. Unabhängig davon können unsere menschlichen Augen Seiten von einem Objekt sehen, die bei einem solchen Linsenabstand verborgen bleiben würden.
Das kann keine Software korrigieren, denn das ist reine Physik.