von Marcel Kleffmann,

StarCraft 2: Künstliche Intelligenz AlphaStar (DeepMind) besiegt zwei professionelle Spieler

StarCraft 2: Legacy of the Void (Taktik & Strategie) von Activision Blizzard
StarCraft 2: Legacy of the Void (Taktik & Strategie) von Activision Blizzard - Bildquelle: Activision Blizzard
Seit Dezember 2018 wurden elf Partien ausgetragen, in denen zwei professionelle StarCraft-2-Spieler gegen die speziell trainierte künstliche Intelligenz "AlphaStar" (DeepMind von Google) antraten. Das letzte Match fand am vergangenen Donnerstag statt und insgesamt ist nur ein Match von den menschlichen Spielern gewonnen worden. Die beiden menschlichen Spieler waren MaNa (Grzegorz Komincz) und TLO (Dario Wünsch) von Team Liquid.

AlphaStar lernte StarCraft 2 durch das Zuschauen von StarCraft-2-Partien. Über 200 Jahre Material schaute sich die KI und lernte das komplexe Spiel basierend auf dieser Grundlage (künstliches neuronales Netzwerk). Allerdings verfügt die KI über einige Vorteile gegenüber den menschlichen Spielern, die laut der AlphaStar-Entwickler nicht so sehr ins Gewicht fallen sollen. Erstens bezieht die KI ihre Informationen direkt aus der Engine, anstatt den Spielbildschirm beobachten zu müssen. Sie weiß also sofort, welche Einheit wie viele Lebenspunkte hat, ohne auf die Einheit klicken zu müssen. Zweitens könnte sie mehr "Aktionen pro Minute" (APM) ausführen als ein Mensch. Außerdem war die komplette Karte für AlphaStar aufgedeckt und die KI musste die Kamera nicht auf die Einheiten zentrieren, die sie befehligen wollte. Die KI-Entwickler meinten jedoch, dass sich dadurch kein Vorteil ergeben hätte, weil sich die KI immer nur auf einen Kartenabschnitt "konzentrieren" würde.



"Die Überlegenheit der KI hat daher viele überrascht. Sie hat zwar Fehler gemacht, die leicht zu erkennen waren, dominierte das Spiel aber dennoch so sehr, dass sie den professionellen Spielern überlegen war. Bemerkenswert ist das vor allem deshalb, weil die Deepmind-Ingenieure den Computer nicht absichtlich unfair überlegen gestaltet haben. In einem Computerspiel wäre es schließlich möglich, die Reaktionszeit oder die Aktionen, die in einer Minute ausgeführt werden können, technisch so hochzuschrauben, dass es für Menschen nicht möglich wäre, mitzuhalten. Doch Alpha Star hat langsamer reagiert als seine menschlichen Gegner und weniger sogenannte APM benötigt, was für 'actions per minute', also Aktionen je Minute steht. Die Zuschauer überraschte vor allem, wie 'menschlich' die KI spielte", heißt es in einem Bericht bei der FAZ.

Bei der einzigen Partie, die ein menschlicher Spieler (MaNa) gewann, war die komplette Kartenansicht für die KI deaktiviert. Sie musste manuell navigieren. Außerdem kann AlphaStar derzeit nur Protoss spielen und auch nur gegen Protoss antreten - auf nur einer Karte und nur im 1-gegen-1-Modus. MaNa erklärte nach einer Partie, dass ihn die KI besonders im Mikromanagement-Bereich (vor allem mit dem Stalker) überrascht hätte.



Das Projekt AlphaStar soll in Zukunft fortgesetzt werden. Das Team von DeepMind ist der Meinung, dass einige der Grundlagen des Systems, wie z. B. die effiziente Visualisierung des Spiels als Resultat der gemachten Entscheidungen, in vielen anderen Bereichen eingesetzt werden könnte, in denen KIs wiederholt Entscheidungen treffen müssen, die eine komplexe und langfristige Reihe von Ergebnissen beeinflussen.



Quellen: Techcrunch, The Verge, FAZ, DeepMind


Kommentare

Dr.Bundy schrieb am
LePie hat geschrieben: ?27.01.2019 17:09
Allerdings verfügt die KI über einige Vorteile gegenüber den menschlichen Spielern, die laut der AlphaStar-Entwickler nicht so sehr ins Gewicht fallen sollen. Erstens bezieht die KI ihre Informationen direkt aus der Engine, anstatt den Spielbildschirm beobachten zu müssen. Sie weiß also sofort, welche Einheit wie viele Lebenspunkte hat, ohne auf die Einheit klicken zu müssen. Zweitens könnte sie mehr "Aktionen pro Minute" (APM) ausführen als ein Mensch. Außerdem war die komplette Karte für AlphaStar aufgedeckt und die KI musste die Kamera nicht auf die Einheiten zentrieren, die sie befehligen wollte. Die KI-Entwickler meinten jedoch, dass sich dadurch kein Vorteil ergeben hätte, weil sich die KI immer nur auf einen Kartenabschnitt "konzentrieren" würde.
Ich weiß nicht, für mich klingt das wie ein enormer bis gar spielentscheidender Vorteil - insbesondere eben der Punkt mit der Map ohne fow.
Siehe auch:
Bei der einzigen Partie, die ein menschlicher Spieler (MaNa) gewann, war die komplette Kartenansicht für die KI deaktiviert.
Exakt, das Ganze ist so eingeschränkt und dann noch der Cheat ohne FOW. Die KI ist immer noch viel zu schwach und dieses Event einfach nur eine Show für Google, wo die beiden Menschen verlieren sollten.
hoelzi123 schrieb am
cHL hat geschrieben: ?28.01.2019 13:55 ...
Danke für die Klarstellungen! Habe ich auch so verstanden.
Zur Reaktionszeit, das scheints sich so zu ergeben, also nicht künstlich gedrosselt. Dauert einfach ein bisschen, bis die eingehenden Informationen verarbeitet werden.
Letztlich vielleicht noch interessant, der Agen, der letztendlich gespielt hat, lief auf dem Äquivalent von 50 GPUs (12 TPUs), also gar nicht mal soooo extrem...
Aurellian schrieb am
Stalkingwolf hat geschrieben: ?27.01.2019 21:32
Melcor hat geschrieben: ?27.01.2019 21:01
Kajetan hat geschrieben: ?27.01.2019 19:46 KI ist doof. KI ist strunzdumm. KI bleibt strunzdumm. KI aka neuronale Netze können nicht einmal ansatzweise das, was ein Mensch kann. Sämtliche, die kommende KI-Entwicklung betreffenden Vorhersagen sind nicht eingetreten und werden auch nicht eintreten, weil man hier maßlos übertrieben hat. Vor KI muss man keine Sorge haben!

Danke. Die Hysterie, die bei solchen Themen ausgelöst wird, ist doch wirklich absurd. Da kann nur das Thema Radioaktivität mithalten.
KI ist bei weitem nicht mehr das was man früher angenommen hat.
Die Entwickler sagen selber das sie hier nicht mehr wissen warum die KI gewisse Dinge tut, denn es sind eben keine Algorithmen mehr. Evtl solltet ihr euch noch einmal durchlesen was aktuell KI ist und wie sie sich definiert.
Ja, wir wissen häufig genug nicht, warum ein neuronales Netz bestimmte Dinge tut. Nur kommt bei diesen Dingen auch oft genug kompletter Käse raus, weil das Netz etwas gelernt hat, was mit dem Trainingsmaterial konsistent war, aber nicht mit der Realität. Insofern muss man das Nicht-Verstehen der Entscheidungsfindung von KI nicht zu hoch aufhängen.
In der Hinsicht fand ich im Herbst die Vorträge von Prof. Wahlster (immerhin Chef des DfKI) und Prof. Backes bei der GDNÄ ganz interessant, die im Großen und Ganzen durchaus eher auf Kajetans Linie waren. Für alle Interessierten auch öffentlich zugänglich:
https://www.gdnae.de/angebote/versammlu ... -2/videos/
cHL schrieb am
.) Verstehe. Das kann ich gut nachvollziehen :)
.) Natürlich lässt sich, ansonsten wäre die ganze Geschichte ja sinnlos, ein gewisses Ergebnis erwarten. Aber nur aufgrund von vorangegangenen Ergebnissen und nicht weil man Berechnungen nachverfolgt.
Ich finde das auch nicht so relevant. Das "Zitat" wird aber, meiner Wahrnehmung nach, meistens in einem negativen Kontext verwendet.
Und deswegen halte ich es für wichtig, immer zu betonen was das wirklich bedeutet.
Melcor schrieb am
cHL hat geschrieben: ?28.01.2019 15:56
Welche Anforderungen hast du, dass gerate die Limitierungen "heutiger" KI und Roboter frustrierend sind?
Es geht in dem Zitat um Nachvollziehbarkeit. Ab einer gewissen Größenordnung sind die Netzwerke so komplex, dass man nicht mehr wie zb. bei einem Microchip, von außen sagen kann, welchen Output ein gewissen Input erzeugt und vorallem nicht abschätzen kann, welche Auswirkung die Neugewichtung spezifischer Parameter hat.
Das ist keine Frage von Debugging, sondern von Komplexität.
Das ist beim menschlichen Gehirn übrigens nicht anders. Nur weil wir sagen "gegen diesen neuen Kasten laufe ich nicht mehr mit der kleinen Zehe", wird bei uns auch nicht alle Logik so umgeschrieben, dass es tatsächlich nicht mehr passiert. Manche schaffen es nie das erfolgreich abzulernen.
Vielleicht ist unser Bewusstsein nur eine andere Abbildung dessen, was heutige neurale Netzwerke bei der Backpropagation machen. Wir denken etwas relativ weit oben und hoffen, dass sich die Parameter tiefer unten richtig anpassen. Und irgendwann findet unser Hirn dann die richtigen Schalter (Gewichtungen) und wir laufen 2 Monate später tatsächlich nicht mehr gegen den neuen Kasten.
Davon auszugehen, dass die Methodik künstlicher KI nicht "gut" genug wäre, um "echte" Intelligenz abzubilden, negiert die Tatsache, dass wir immer noch nicht wissen, wie diese Erkennungsmerkmale echter Intelligenz (eben zb. Bewusstsein) tatsächlich funktionieren. Das ist dann insofern schon sehr sehr gewagt ;)
Die Anforderung bezogen sich im Rahmen der Studie um Mensch/KI Interaktion meist auf all die technischen Defizite, um die man herum designed werden musste. Nicht nur oftmals unerwartete Defizite in den Scripts der KI, sondern auch alles technische drumherum. Von heißlaufenden Motoren, mangelnder Spracherkennung, bis zu der absurd hohen Preisen die jedes Forschungbudget sprengen. Nein, danke. Das scheint mir wirklich zu frustrierend, auch wenn es die "Zukunft" ist.
Sprechen wir...
schrieb am