„Grand Theft Auto V“: Intel zeigt fotorealistische Grafik dank Machine Learning

„Grand Theft Auto V“ ist eines meiner absoluten Lieblingsspiele, nervt mich aber fast mittlerweile, da nun auch noch für die dritte Konsolengeneration eine Portierung folgt. Da wäre mir ein neues Spiel mittlerweile dann doch lieber. Allerdings zeigt Intel nun, was man aus dem alten Spiel so alles machen kann. Mit der Unterstützung von Machine Learning haben Wissenschaftler des Unternehmens „GTA V“ eine teilweise fotorealistische Optik verpasst.

Die Vorgehensweise ist sehr spannend: Die Forscher der Intel Labs analysieren das Spiel und seine Grafik nahezu in Echtzeit. Dabei werden die dargestellten Objekte automatisch mit einer Datenbank verglichen und durch neue Assets ersetzt. Wobei man „in Echtzeit“ hier noch mit etwas Vorsicht genießen muss, denn Intel spricht grob von einer Geschwindigkeit, die Interaktionen ermögliche.

Sieht im Video jedenfalls schon recht cool aus. Laut Intel seien die Ersatz-Assets so gepolt, dass sie zu den Originalen passen und stabil im Bild verbleiben können. Während des Spielens ist es dann möglich immer weitere Assets nachzuladen. Falls ihr euch da noch etwas einlesen wollt: Hier hat Intel das entsprechende Paper veröffentlicht. Da gibt es dann auch einen Haufen Vergleichsbilder, den ihr euch zu Gemüte führen könnt.

In diesem Artikel sind Amazon-Links enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden. PayPal-Kaffeespende an den Autor.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

16 Kommentare

  1. Auf jeden Fall sehr interessant. Kann mir gut vorstellen, dass Nvidia so etwas in Zukunft in DLSS integrieren könnte.

    Allerdings darf man nicht vergessen, dass es nur ein Filter ist. Korrekte Lichtberechnung, Spiegelungen, etc. sind nach wie vor nur mit Ray-Tracing möglich.

  2. TrashPanda says:

    Lustig, im Video ab 0:35 ist bei der Übersicht zum „Cityscapes Dataset“ oben links ein Bild von Bayreuth zu sehen. Wäre spannend zu wissen wann und zu welchem Zweck die Datenbank ursprünglich angelegt wurde. Scheint auf jeden Fall älter zu sein, denn „Joeys“, wie in dem Bild in der Übersicht unten links zu sehen, firmiert schon seit etlichen Jahren unter „Dominos“ in Deutschland. 🙂

  3. Unnötig komplex irgendwie dargestellt

  4. Konsolero says:

    Als Konsolero würde ich mich ja auch erstmal mit 60fps und Bildqualität wie beim PC zufrieden geben

    • Das verstehe ich leider auch nicht. Als die PS4 Pro damals kam und 60fps unterstützte, habe ich mich richtig gefreut. Stabile 60fps und auch noch eine schönes Bild… Und das ganze von der Couch aus mit einem schönen großen TV. Perfekter Gaming Abend.

      Dann wurde die PS5 angekündigt und für mich stellte sich die Frage gar nicht, ob unter 60fps was kommen wird. Für mich war 60fps und 4k/2k Standard. Keinen Gedanken an was anderes verschwendet.
      Dann aber die Enttäuschung, das sehr viele Spiele mit 30fps laufen. Wir reden von der Next-Gen. Ja ich weiß, das man die Konsolen nicht mit einem aktuellen PC vergleichen kann, aber dennoch soll die Konsole ja auch wie die Vorgänger ein paar Jahre aktuell sein.

      Ja, es gibt bei vielen Spielen die Möglichkeit, das ganze auf den Performance Modus zu stellen. Aber einige Spiele wie zb Watch Dogs Legion, hat diese Möglichkeit (dank kommenden 4.5 Patch dann doch endlich) leider nicht.

      Und wenn man einmal 60fps oder mehr gewohnt ist, sind 30fps nicht mehr schön und macht keinen Spaß damit zu spielen.

  5. Also ich liebe fotorealistischen Look, aber braucht man dafür Intel und eine KI? Theoretisch ändert die doch in „Echtzeit“ nur das, was auch mit Texturen und Lightning gehen würde. Ist also eher eine Stilfrage der Entwickler, die ja meistens bewusst auf Fototexturen etc. verzichten, um eben gerade nicht „wie echt“ auszusehen, sondern einen stimmigen Stil zu erschaffen.

    • Also geht auf jeden Fall auch so, ich hatte mir mal vor 2 Jahren das Asset aus dem Video unten für Unity3D gekauft (Ging mir in erster Linie um’s Lernen was er wie eingestellt hat und um die Parmeter für ein anderes Projekt zu übernehmen). Lief zwar nur mit 1-2 Frames pro Sekunde auf meinem iMac, war aber SEHR beeindruckend:
      https://www.youtube.com/watch?v=H5QN_kgMnzc

      Link zum Store:
      https://assetstore.unity.com/packages/3d/environments/urban/archvizpro-interior-vol-6-120489

      Wobei das schon zu gut aussah und dadurch fast wieder unecht. Richig Fotorelistisch passt meiner Meinung auch gar nicht zu GTA.

      • Das ist halt alles „pre-baked“ Lighting. Da hat man natürlich ganz andere Möglichkeiten. GTA5 dagegen hat dynamisches Licht und man könnte auf diese Weise keinen realistischen Look erzeugen.
        Durch die im Video dargestellte Methode wird der Look des Spiels auf unsere Seegewohnheiten per Machine-Learning gemapped. Ähnlich wie man bei Deep-Fakes Gesichter auf Körper mapped.

    • Also, dass was die hier machen, schaffst du halt darum nicht so leicht, weil selbst mit Fotogrammmetrie echt aussehende Bäume zu erzeugen echt schwierig ist und realistische Lichtstimmungen ohne vollständiges raytracing auch eher Glückssache sind, weil klassische Rendertechniken gerade bei licht eben merklich schummeln, darum kann, eine gute Grundlage klassisch zu erzeugen und dann den Rest per filter hin faken durchaus bedeutend einfacher sein.
      Ob dass jetzt ein Weg ist, den wir wirklich in Spielen sehen werden, ist noch mal eine ganz andere Frage

  6. nur schade das das Video in 720p ist :-/

  7. Vielleicht hab ich kein Auge dafür (und Ahnung von der Technik erst recht nicht), aber das Bildmaterial sieht jetzt nicht soo beeindruckend aus, wie man erst denken würde.

    • ???

      Wenn das erste Mal umgeschaltet wird, dachte ich kurz es sei ein echtes Video.
      Das sieht schon verdammt beeindruckend aus.

    • Als ich im „drüberfliegen“ die Bilder von der Webseite, dachte ich „hä, was soll das denn sein“.

      Ich für meinen Teil, musste umdenken. Man ist leider von Fotorealistischer Grafik (zb YouTube usw) etwas anderes gewohnt. Bsp: viel Licht, Bunt, Regen, da eine Spiegelung, dort eine Lichtquelle, usw)

      Hier geht es aber darum, das es so nah der Realität wie möglich aussieht. Und wie Franz schon sagt, als das ganze im Video geswitched wurde, dachte ich auch, das ich ein echtes Dashcam Video gucke.

      Gefällt mir, die Idee dahinter.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.