Nvidia: GameGAN: KI lernt Pac-Man und generiert das Spiel aus einem neuronalen Netzwerk

 
Nvidia
Unternehmen
Entwickler:
Publisher: Nvidia
Spielinfo Bilder Videos

Schnäppchen-Angebote

Stellenmarkt Jobbörse Jobware

Nachrichten

Folge uns

       
von ,

Nvidia GameGAN: KI lernt Pac-Man und generiert das Spiel aus einem neuronalen Netzwerk

Nvidia (Unternehmen) von Nvidia
Nvidia (Unternehmen) von Nvidia - Bildquelle: Nvidia
Zum 40. Jahrestag von Pac-Man hat Nvidia in Zusammenarbeit mit Bandai Namco ein KI-Makeover des Klassikers über Nvidia GameGAN vorgestellt. Forscher von Nvidia haben ein KI-Modell (Künstliche Intelligenz) auf Basis neuronaler Netzwerke (Deep Learning) entwickelt, das Spiele im Sinne von "Reverse Engineering" selbstständig erlernt. Dabei wird nicht nur gelernt, wie die Spielfigur funktioniert und agiert, sondern das gesamte Spiel mit allen verborgenen Elementen, Regeln, Figuren, Grafiken und Sounds - ohne die Engine bzw. den Programmcode des Spiels zu dekompilieren.

Das neuronale Netzwerkmodell lernt das Spiel durch bloßes Zuschauen, benötigt dafür aber haufenweise Daten. In diesem Beispiel wurden ca. 50.000 Pac-Man-Partien in Videoform trainiert. Das Ergebnis ist, dass das neuronale Netzwerkmodell das Spiel in seiner Gesamtheit lernt und als Ergebnis eine voll funktionsfähige Version des Spiels ohne zugrundeliegende Game-Engine ausgibt.

Das "KI-Makeover" von Pac-Man als Output eines neuronalen Netzwerkmodells kann noch nicht von einem Menschen gespielt werden, aber eine KI bzw. ein KI-Agent kann das KI-generierte Spiel nutzen. Während ein künstlicher Agent das von GameGAN generierte Spiel spielt, reagiert GameGAN auf die Aktionen des Agenten und generiert in Echtzeit neue Frames der Spielumgebung inkl. typischer Verhaltensmuster der Geister in Pac-Man. GameGAN kann weitere Spiel-Layouts generieren, wenn es mit mehreren Levels oder Versionen eines Spiels trainiert wird. Nvidia wird die KI-Hommage an Pac-Man später in diesem Jahr auf dem "AI Playground" zur Verfügung stellen (zur Website). Einige Demos aus der Forschung können dort bereits ausprobiert werden.



"GameGAN ist das erste neuronale Netzwerkmodell, das die Engine eines Computerspiels nachahmt, indem es sog. Generative Adversarial Networks (GANs) einsetzt [Details]. GAN-basierte Modelle bestehen aus zwei konkurrierenden neuronalen Netzen, einem Generator und einem Diskriminator. Sie lernen, neue Inhalte zu erstellen (...) Wer Nvidia GauGAN bereits verwendet hat [Details], konnte GANs vielleicht schon einmal erleben. Nvidia GauGAN ist ein von der NVIDIA-Forschung entwickeltes Deep Learning Modell, das grobe Kritzeleien mit atemberaubender Leichtigkeit in fotorealistische Meisterwerke verwandelt", schreibt Nvidia.

GameGAN könnte den kreativen Prozess für Entwickler von Spielen beschleunigen, da es zur automatischen Generierung von Layouts für neue Levels/Spielebenen verwendet werden kann. KI-Forscher könnten GameGAN dazu verwenden, um Simulationssysteme für das Training autonomer Maschinen leichter zu entwickeln. Hier kann die KI die Regeln einer Umgebung lernen, bevor sie mit Objekten in der realen Welt interagiert.

Autoren der Forschungsarbeit: Seung Wook Kim, Yuhao Zhou, Jonah Philion, Antonio Torralba und Sanja Fidler: Learning to Simulate Dynamic Environments with GameGAN, CVPR, 2020.

"GameGAN is authored by Fidler, Kim, NVIDIA researcher Jonah Philion, University of Toronto student Yuhao Zhou and MIT professor Antonio Torralba. The paper will be presented at the (...) Conference on Computer Vision and Pattern Recognition in June."
Quelle: Nvidia

Kommentare

Sir Richfield schrieb am
A strange game. The only winning move is not to play. How about a nice game of chess?
Sir_pillepalle schrieb am
Akabei hat geschrieben: ?
24.05.2020 07:44
Stellt sich die Frage, wie akkurat das Ergebnis denn ist. Wenn ich mir das Video ansehe, offenbar nicht sonderlich.
Na gut, die KI der Geister/Gegner ist bei Pacman zugegebenermaßen auch deutlich komplexer als bei einem heutigen FPS. :ugly:
http://gameinternals.com/understanding- ... t-behavior
Mussten wir in der Uni implementieren - in Lego Mindstormsrobotern mit ner JRE drauf. Da habe ich im Studium direkt Java schätzen gelernt, weil die kleinen Klötze allein von der JRE bisweilen stark geknechtet wurden. Lange bevor völlig krude von Studierenden zusammengepfuschte Algorithmen ihr Unheil anrichten konnten :Blauesauge:
Ansonsten warte ich auf morgen, da wird das Paper zur in der News vorgestellten Arbeit veröffentlicht. Mal schauen, ob die Truppe im Bezug auf die Generalisierbarkeit der Ergebnisse etwas vorzuweisen hat.
Zu guter Letzt ein Link zu einer Tabelle (ich hoffe das geht klar?), in der jemand schöne Beispiele für ML-Systeme kuratiert hat, die "kreativ" bei der Problemlösung vorgegangen sind: https://docs.google.com/spreadsheets/d/ ... Ag/pubhtml
Akabei schrieb am
Stellt sich die Frage, wie akkurat das Ergebnis denn ist. Wenn ich mir das Video ansehe, offenbar nicht sonderlich.
Na gut, die KI der Geister/Gegner ist bei Pacman zugegebenermaßen auch deutlich komplexer als bei einem heutigen FPS. :ugly:
http://gameinternals.com/understanding- ... t-behavior
Mentiri schrieb am
Das habe ich schon seit ner Weile im Kopf. Man bestellt ein Spiel und gibt Stichwörter an, was es sein soll. So könnte ein beliebiges SPiel entstehen, samt Sprachausgabe. Glaube aber nicht, dass ich das noch erleben werde.
Crimson Idol schrieb am
M4g1c79 hat geschrieben: ?
23.05.2020 21:29
Das platzieren Ubisoftlischer Nebenquests sogar in 0,000001 Millisekunden. ^^
Und wenn man die KI doppelt so lange arbeiten lässt (also ganze 2 Nanosekunden), sind die sogar bugfrei. :D
schrieb am