Start-up Deep Render will die Videokompression mit KI revolutionieren

Das europäische Start-up Deep Render zählt zu den jungen Unternehmen, die den Mund sehr voll nehmen, aber erst einmal noch abliefern müssen. So behauptet man gar, die eigene Technik werde „das Internet retten“. So habe man mit KI-Unterstützung Technologien zur Videokompression entwickelt, die bei gleichbleibender Qualität bis zu fünfmal kleinere Dateien ermöglichen sollen, als derzeit üblich.

Langfristig will man gar bis zu fünfzigmal kleinere Dateien gewährleisten können. In beiden Fällen vergleicht man aber mit dem bereits veralteten Codec H.264, dessen Nachfolger H.265 ebenfalls schon effizienter ist. Zumal es auch noch effizientere Codecs wie AV1 gibt. Dass man sich mit denen verbal nicht messen mag, liegt wohl daran, dass die eigenen Aussagen dann schon etwas weniger beeindruckend klängen.

Gefördert wurde Deep Render (hier die Website des Start-ups) unter anderem durch Intels Programm Intel Ignite. Man erklärt, das hohe Aufkommen von Videostreams verursache hohe Kosten und belaste das Internet insgesamt. Ändern will man das, indem man die Videokompression per KI regelt. Diese soll Redundanzen besser erkennen und quasi Verschiebungen einzelner Pixel, neue Positionen der kleinsten Inhalte und geänderte Frames viel effizienter auswerten.

Deep Render konnte von Investoren im März 2023 rund 9 Mio. US-Dollar einsammeln und erhielt zudem vom Euoprean Innovation Council eine Förderung in der Höhe von 2,7 Mio. US-Dollar. Der Wert des Start-ups wird derzeit auf 30 Mio. US-Dollar geschätzt. Mit seinen Bestrebungen, die Videokompression durch KI zu verbessern, ist man aber keineswegs allein.

So verfolgen Google, Disney und Nvidia z. B. ganz ähnliche Strategien. Wer bzw. welche Techniken sich am Ende durchsetzen, steht noch in den Sternen. Das wirtschaftliche Potenzial ist natürlich enorm, denn da werden zahlreiche Streaming-Anbieter und auch soziale Netzwerke schon sehr genau hinsehen. Auch für Kunden haben effizientere Codecs Vorteile, denn sie können Videos in hoher Qualität bei geringeren Bandbreiten abrufen.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

12 Kommentare

  1. Das Potenzial ist auf jeden Fall da. Ich weiß nicht, welche Möglichkeiten bisher zur Verfügung stehen, aber etwa die Blockgröße ist beschränkt und die Möglichkeiten, Bewegungen zu erkennen und die besagten Verschiebungen auszunutzen. Und wenn man es schafft, ähnlich zu DLSS einfach bei Auflösung und Framerate zu sparen und künstlich aufzublasen, kann man sicherlich auch nochmal gut sparen.

    Aber die Frage ist eben nach dem Rechenaufwand zum komprimieren und dekomprimieren. Wenn das ganze in Rechenzentren von Netflix, YouTube und Co komprimiert werden muss, ist das eine Sache. Solange unterm Strich der Energieverbrauch sinkt, ist es trotzdem ein Vorteil. Wenn dann aber jeder ne 4000er RTX oder Vergleichbar braucht zum dekomprimieren – und eben potentiell dazudichten – hat man auch nichts gewonnen. Man müsste wahrscheinlich schon etwas bauen, dessen Ergebnis kompatibel zu etwas schon bestehendem ist oder zumindest der Aufwand ähnlich wäre, entsprechend effiziente Hardwarebeschleuniger zu bauen. Sonst kann es am Ende keiner nutzen und eine Dekomprimierung wäre in Software kaum realisierbar, erst recht nicht mindestens in Echtzeit.

    • Klingt alles ziemlich nach Generative AI und Latent Space. Das wird aber niemals in Echzeit funktionieren.

      • Es funktioniert bereits in Echtzeit, siehe DLSS. Aber eben nur in Videospielen, nicht bei beliebigen Videos.

        Davon abgesehen, wie gesagt, KI Bildanalyse kann durchaus das Potenzial haben, effektiver und/oder effizienter zu sein, als die ansonsten genutzten Algorithmen.

  2. Bei Videokompression muss man immer genau hin schauen, ob der Rechenaufwand die gesparte Bandbreite rechtfertigt. Dabei muss man dann natürlich berücksichtigen, wie oft die Bandbreite anfällt, also wie oft das Video als Nicht-Multicast übertragen wird. Der perfekte Codec für Netflix und Co muss nicht der perfekte Codec für Urlaubsvideos sein. Würde die nächste Kamera nur noch ein Drittel so viel Speicherplatz brauchen wie meine aktuelle, mir wäre es total egal. Schon bei der akutellen ist die Speicherkarte selten zu mehr als einem Drittel gefüllt, bevor ich dann mal wieder das Material sichere. Und die Speicherkarte hat wenige Prozent der Anschaffungskosten der Kamera ausgemacht.

  3. Multi-Pass Rendering, mit dynamischer Bitrate, gibt es schon ewig. Gib dem Kind einen neuen Namen und vermarkte es dann.

    • Das hat doch mit dem gezeigten gar nichts zu tun, dynamische Bitrate ist doch primitivste Technik was selbst zu Xvid Zeiten schon ging.

    • Bild- und Bildfolgenanalyse mit einer sinnvoll trainierten KI hat theoretisch durchaus das Potenzial noch dort Prozente rauszuholen, wo bei klassischen encodern Grenzen gesetzt wurden, um absurden Rechenaufwand zu verhindern. Da bringt weder Multipass noch dynamische Bitrate etwas, wenn der Algorithmus nur begrenzt weit über den Tellerrand schauen kann. Und die verwendeten Algorithmen sind auch garantiert nicht perfekt, sonst bräuchte es keine neuen Codecs.

      • Multi-Pass setzt nach heutiger Beschreibung auch KI ein. KI ist nur das Buzzword, welches gerade in ist. Der Multi-Pass Algorithmus analysiert die Szenen und bewertet ob in dieser Szene mehr oder weniger Bitrate benötigt wird.

  4. Die neue AMD Generation ist soviel leistungsfähiger als der Apollo 11 Bordrechner, der hat immerhin die Mondfähre gesteuert.
    Kauft AMD…

    Wir haben hier wieder eine Versammlung von Buzzwords, Startup, KI, Wunderversprechen.
    Da werden schnell Geldgeber hellhörig.

    Schaut man sich das genauer an, ist da eigentlich nichts wirklich bewegendes.
    Eine bessere Kompression soll drin sein, schön.
    Gute Codec gibt es schon, allen voran der Lizenzkostenfreie(!) AV1.
    Dazu kommt die Frage was das Decoding/Encoding an Zeit und Ressourcen kostet. Das interessiert vor allem Hersteller von Geräten und Anbieter von Streaming Diensten.
    Den Kunden täte es interessieren ob die KI das Bildmaterial eventuell anpasst oder verfälscht.
    Nur stumpf die Kompression zu erhöhen bringt rein nichts.
    Also wie wollen die Startup Geld verdienen? Lizenzkosten? Dann müssten Wunder im neuen Codec passieren.
    Das halte ich für schwierig im Wettbewerb gegen das AV1 Konsortium.

    Viel wahrscheinlicher ist das übliche Vorgehen, Startup gründen, Wunder versprechen, Geld einsammeln und dann als attraktives Ziel aufgekauft werden.
    Die Ideen werden in die neue Firma aufgenommen, die Gründer setzen sich zur Ruhe oder gründen was neues.

  5. Nicht schwätzen, machen. Über heiße Luft zu diskutieren ist müßig.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.