YouTube: Google experimentiert mit Echtzeit-Video-Segmentierung für mobile Endgeräte
Heutzutage geht in vielen Filmen ja kaum noch etwas ohne den Einsatz eines Greenscreens. Die Personen im Vordergrund können dank seiner Hilfe in jeden x-beliebigen Hintergrund eingesetzt werden und müssen dafür nicht einmal den Raum verlassen. Eine Technik, die einst Hollywood und anderen Filmstudios vorbehalten war, hält immer mehr Einzug in die Aufnahmen von Privatpersonen. Mit Google könnte das Ganze bald noch einfacher geschehen.
Derzeit läuft bekanntlich ein Betatest für einige neue Creator-Features von YouTube. Darin enthalten sind auch die Reels, YouTubes eigene Umsetzung der Stories von Instagram und Co. Bei YouTube ist die Funktion derzeit allerdings noch den Creators vorbehalten und wird derzeit von Google mit einem weiteren Features ausgestattet. Denn mithilfe von neuronalen Netzwerken (hier: „Convolutional Neural Network„) will es Google schaffen, dass auf mobilen Geräten eine Echtzeit-Video-Segmentierung, sprich Trennung von Vorder- und Hintergrund, ermöglicht werden kann.
In den im Blogbeitrag gezeigten Videos klappt das bereits erstaunlich gut. Des Weiteren erklärt das Team von Google dort auch sehr umfangreich, wie die Technologie im Detail funktioniert – Interessierte sollten sich da also durchaus mal durcharbeiten. Wichtig ist an dieser Stelle die Information, dass das Feature zwar derzeit lediglich im YouTube-Betatest erprobt wird, später aber wohl in viele weitere AR-Dienste von Google integriert werden soll.
Our immediate goal is to use the limited rollout in YouTube stories to test our technology on this first set of effects. As we improve and expand our segmentation technology to more labels, we plan to integrate it into Google’s broader Augmented Reality services.
Bereits jetzt erzielt das Unternehmen sehr flotte Bildraten, obwohl die Tests noch einige Zeit in Anspruch nehmen werden. So erreicht ein iPhone 7 momentan über 100 Bilder pro Sekunde, bei Googles eigenem Gerät, dem Pixel 2, sind es zwar deutlich weniger, dafür aber immer noch über 40 Bilder pro Sekunde. In YouTube selbst kann ich mit der Technologie persönlich wenig anfangen. Eine Integration in die Kamera des Pixel 2 oder eben als freie Software, die Drittanbieter in ihre Apps einbauen können, wäre sicherlich etwas, was viele begrüßen würden.
Da setzt Google ein Ei in die Welt, dessen Folgen überhaupt nicht abzuschätzen sind. Millionen Fakevideos werden die Welt überschwemmen, keiner kann mehr irgendwas glauben.
Ein weiterer Beleg dafür, dass die inselbegabten Nerds aus Mountain View keinen blassen Schimmer und erst recht keinen Plan von dem haben, was sie in der Gesellschaft eigentlich an Schaden anrichten.
Naja, besser die „Nerds“ machen es, dann ist es bekannt und man kann sich darauf einstellen.
Wenn die es nicht probieren, macht es ein anderer und behält sein Wissen für sich.
Die meisten Dinge lassen sich in zwei Richtungen drehen. Der Computer wird sicher auch nicht nur von den „good guys“ benutzt. Es aber nicht zu machen, nur weil die bösen Jungs es dann auch haben, ist wie Verschlüsselung zu entwickeln & nutzen, deren Algorithmus geheim ist (security through obscurity) – und dann wären wir bei dem Argument von Peter.
Man kann an der Qualität durchaus erkennen, dass die Person mehr oder weniger ausgestanzt wurde. Die Technik hat sicherlich Probleme mit Haaren und an den Randbereichen, so dass man Fakes und dergleichen recht schnell ausmachen kann. Es ist halt keine richtige farbbasierte Freistellung.
@cismor man kann doch schon längst nicht mehr ungeprüft alles glauben, was man sieht. Ob nun Fotoretusche oder Videomanipulation, der Zug ist längst abgefahren.