von Marcel Kleffmann,

Drew Karpyshyn (ehemaliger BioWare-Autor): Grafikqualität und Technikfokus schränken Inhalte und Story ein

Spielkultur (Sonstiges) von 4Players
Spielkultur (Sonstiges) von 4Players - Bildquelle: Jedinews.co.uk
Drew Karpyshyn, ein ehemaliger Autor von BioWare (Jade Empire, Mass Effect, Mass Effect 2, Star Wars: Knights of the Old Republic), sprach im Inner Circle Podcast nicht nur über seine Arbeit in dem Studio und die Mass-Effect-Trilogie, sondern versuchte ebenfalls darzulegen, dass eine steigende Grafikqualität in Spielen auch einen Einfluss auf die Geschichte bzw. die möglichen Entscheidungen innerhalb einer Story haben würde.

Er ist der Ansicht, dass generell zu viele Ressourcen bzw. zu viel Geld in die technischen Aspekte und die Grafik eines Spiels fließen würde. "Damals" hatten ca. 60 Leute bei BioWare an Star Wars: Knights of the Old Republic gearbeitet. Heute müsse man Hunderte von Leuten bezahlen, was dazu führt, dass Inhalte und mögliche Verzweigungen oder die Entscheidungsfreiheit der Spieler reduziert werden. Es würde auch deswegen immer weniger kleine, liebevolle Details in den Spielen geben.

"Die Spiele sehen zwar toll aus, aber es gibt für den Autor immer weniger Möglichkeiten", resümiert Karpyshyn. Zur besseren Illustration führt er ein Beispiel aus Baldur's Gate 2 an. An einer Stelle in dem Rollenspiel gibt es zwei Optionen, wie man von einer Insel flüchten kann. Je nach Entscheidung entfaltet sich ein komplett neuer Story-Strang, den man bei der anderen Option niemals erlebt hätte. Solche Dinge könnte man laut Karpyshyn heutzutage nicht mehr machen, weil die Produktionskosten für solche Ausflüge, die der Spieler nur durch Zufall entdecken kann, viel zu hoch seien. Er kreidet allgemein den zunehmenden Verlust über die Kontrolle der Geschichte als Autor an, weswegen es schwer sei, sich bei großen Triple-A-Produktionen selbst zu verwirklichen. Als positives Beispiel nannte er übrigens The Witcher 2.

Auch auf das kontroverse Ende von Mass Effect 3 (an diesem Titel war er nicht beteiligt) geht Karpyshyn kurz ein. Er schätzt, dass die Entwickler nicht mehr genug Zeit hatten, um das Sci-Fi-Rollenspiel in adäquater Qualität fertigzustellen: "Du brauchst viel Zeit und ich bin ehrlich, ich weiß nicht, ob ihnen die Zeit gegeben wurde, die sie brauchten, um alles zusammenzubekommen. Als jemand, der nicht Teil des Projekts war und nicht gesehen hat, was vor sich ging, denke ich, dass es viele wirklich gute Dinge in Mass Effect 3 als Spiel an sich gab, es ist ein wirklich großartiges Spiel. Aber das Letzte, was du siehst, ist das Ende und es hat nicht für viele Leute funktioniert, und ich verstehe warum."



Quelle: The Inner Circle, PC Games Hardware

Kommentare

Heruwath schrieb am
Skabus hat geschrieben: ?21.09.2018 17:18 Oh ja auf das Argument, dass Wikipedia keine verlässliche Quelle ist habe ich schon gewartet. Aber man sollte halt nicht einfach nur stumpf das nachplappern, was andere einem sagen. Wikipedia mag in bestimmten Publikationen fehlerbehaftet und nicht ausreichend zitiert sein, das bezieht sich aber eben nur auf jene Seiten, die eben Fehler enthalten, bzw. das Wissen nicht korrekt weitergeben. Das ist im Falle der Wikipedia-Seite über KI nicht der Fall. Also bringt dir der Standardvorwurf das Wikipedia nicht vertrauenswürdig ist, nichts. Zumal es wie gesagt auch die Lehrmeinung wiederspiegelt.
Und es geht nicht darum ob man sich auf eine Definition geeinigt hat, oder ob sich die Definition ändern, sondern einzig darum was die akuelle Lehrmeinung ist. Und wenn du der Meinung bist, dass sich die aktuelle Lehrmeinung dahingehend geändert hat, lese ich gerne eine Gegenquelle und lerne noch was neues dazu.
Ansonsten sind deine Einwürfe halt nur Versuche nicht zugeben zu müssen, dass du hier im Unrecht bist und Verhaltensskripte, sowie Suchalgorithmen(wie z.B. Breiten- und Tiefensuche) ebenso Teil der KI sind, wie Maschine Learning Algorithmen, Neuronale Netze, Deep Learning und Co.
Also wenn du noch Argumente mit Substanz hast, immer her damit. Ansonsten können wir so langsam diese Diskussion beenden, denn hier gehts nicht um dein persönliches Ego, sondern einfach darum was eben so in der Wissenschaft aber auch im Alltag bei Spieleentwickler so gehandhabt wird. Das du das halt anders siehst ist deine Sache, aber kein Grund irgendwie zu versuchen Fakten zu verdrehen. Das nervt nämlich nur, und bringt uns nicht weiter.
MfG Ska
In einem Punkt hast du Recht, wir sollten die Diskussion beenden, denn ich sehe keinen Sinn darin meine Person in irgendeiner Weise rechtfertigen zu müssen. Ich bin hier nicht das Thema.
Dazu habe ich nur folgendes zu sagen: "Ein Argumentation ist dann verloren, wenn die betreffende Seite anfängt persönlich zu...
zmonx schrieb am
@Liesel Weppen
Schade, dass die den "abgeschaltet" haben, mich hätte ja brennend interessiert, wie weit das alles noch ausgeufert wäre und ob die KI nicht vielleicht doch noch "verstanden" und seine Strategie angepasst hätte... Genau dafür sind doch solche Studien auch da.
DEMDEM schrieb am
Künstliche Intelligenz =/= Intelligenz.
Die künstliche Intelligenz will "richtige" Intelligenz nur imitieren, es so aussehen lassen, als ob da eine wirkliche Intelligenz am werkeln ist, ohne es wirklich zu sein.
Die Aufgabe von künstliche Intelligenz ist es innerhalb eines Rahmen VORDEFINIERTE Funktionen zu erfüllen.
Kennt wer das Brettspiel Go? Dort gibt es nun eine KI von Google, die den weltbesten Go-Profi tatsächlich besiegt hat. Das aber nicht, weil die KI eigenständig die Züge lesen und verstehen konnte, sondern weil da ein komplexes Programm läuft, das ihn bekannte Muster miteinander vergleicht und dann Züge im Rahmen der KI beigebrachten Regeln eine ganz bestimmte Aktion erfüllt. Vorallem letzteres ist wichtig, weil es erklärt, warum die Züge der KI immer so "basic" erscheinen. Die KI kann nicht selbstständig auf Züge kommen, die ihr nicht explizit "beigebracht" wurde.
Eine KI wird also immer nur ein Haufen von Pattern-Vergleice, also simple Scripts, sein. Manchmal kleiner, manchmal größer.
Liesel Weppen schrieb am
zmonx hat geschrieben: ?22.09.2018 09:20 Witzig war ja mal dieser Twitter-Bot (Tay) https://de.wikipedia.org/wiki/Tay_(Bot) der sich nach kurzer Zeit zum Nazi entwickelte und die User anmachte ^^
Ist nicht weit hergeholt und gibt erschreckende Einsichten, auch wie ein Mensch funktioniert. Wenn ein Mensch von Null an lernt, wie so ein Bot und von fast allen Seiten mit Naziparolen angebrüllt, dann wird der ziemlich sicher unweigerlich auch zu einem Nazi, denn er kennt nichts dagegen.
Für die die den Wikipediaeintrag nicht gelesen haben oder die Geschichte mit diesem Bot nicht kennen: Der Bot hat ist nicht selbstständig zum Nazi geworden, noch hat er sich in irgendeiner Form dafür entschieden, dass das "gut" wäre.
Der Bot lernte aus Tweets mit denen er interagiert und da wurde er gezielt von MENSCHEN mit rechtsradikalen Inhalten bombardiert, weil diese ihn Manipulieren wollen.
Gab übrigens auch schon dutzende andere Versuche mit Bots die im Internet interagierten und die gingen fast alle auf ähnlich Weiße schief, zumindest wenn da kein Admin-Team im Hintergrund entsprechend von anderen Menschen beigebrachte negative Tendenzen entfernt.
zmonx schrieb am
Ich tue mich auch etwas schwer damit, simple Berechnungen oder festgelegte Abläufe die dann ein Muster ergeben, als KI anzusehen. Eine KI sollte mMn doch schon etwas mehr Eigenständigkeit besitzen, um alls KI durchzugehen. Aber okay, wenn das so festgelegt wurde und als Oberbegriff funktioniert.
Witzig war ja mal dieser Twitter-Bot (Tay) https://de.wikipedia.org/wiki/Tay_(Bot) der sich nach kurzer Zeit zum Nazi entwickelte und die User anmachte ^^
schrieb am