Google testet soziales Verhalten von künstlicher Intelligenz

Akt.:
Google testet soziales Verhalten von künstlicher Intelligenz
© APA
Google testet das Verhalten von künstlicher Intelligenz, wenn sie auf eine andere KI trifft. Das Ergebnis könnte erschreckender kaum sein.

In der firmeneigenen KI-Schmiede “Deep Mind” testen Forscher, wie sich eine künstliche Intelligenz an ihre Umgebung anpasst, wenn sie auf eine andere KI trifft. Um das Sozilaverhalten zu studieren, pflanzten die Forscher zwei KI-Agenten in einem Spiel namens “Gathering” ein.

Ziel des Spieles ist es möglichst viele Äpfel zu sammeln, wobei sich die Anzahl der verfügbaren Äpfel stetig ändert. Mal herrschte Überfluß, mal Knappheit. Die Forscher ließen die KI insgesamt 40 Millionen Runden spielen.

KI wird “hochaggressiv” wenn Ressourcen knapp sind

Die KI-Agenten änderten ihr Sozialverhalten anhand der verfügbaren Apfelmenge. Wenn genug Ressourcen vorhanden waren, kooperierten sie und alles ging zivilisiert vonstatten. Bei Knappheit jedoch änderten die KI ihre Strategien von “kooperativ” auf “aggresiv” und beschossen sich mit Laserstrahlen. Der Laserstrahl lähmte die andere KI kurz, und ermöglichte es dem Gegner die Äpfel zu stehlen.

Die getesteten KI hatten auch die Wahl die Laserkanone nicht zu benutzen, was zu gleichmäßiger Verteilung geführt hätte. In manchen Spielrunden entschieden sich die KI auch dafür. Google nennt sie die “weniger intelligenten” Spielzüge.

“Das Gathering-Spiel sagt voraus, dass aus der Konkurrenz um knappe Ressourcen ein Konflikt entstehen kann, aber weniger wahrscheinlich entsteht, wenn Ressourcen im Überfluss vorhanden sind”, so die Google-Forscher. Damit könne gezeigt werden, dass gelerntes Verhalten auch bei KI  davon abhängig ist, in welcher Umgebung sie operieren und welche Umweltfaktoren auf sie wirken.

Gathering gameplay

Two agents, Red and Blue, collect apples (green) and occasionally tag the other agent (yellow lines). Read our blog post about understanding agent cooperation here: http://deepmind.com/blog/understanding-agent-cooperation

KI kooperieren wenn Ertrag dadurch höher

In einem zweiten Spiel namens “Wolfpack” herrschte eine andere Ausgangssituation. Zwei KI schlüpften in die Rolle eines Wolfes, eine dritte spielte die Beute. Eine Belohnung gab es nur, wenn die Beute gefangen wurden und beide KI in ihrer Nähe standen. Es war jedoch zweitrangig, welcher der beiden Wölfe die Beute riss.

“Die Idee ist, dass die Beute gefährlich ist” , so Google. “Ein einsamer Wolf kann es mit ihr aufnehmen, aber er riskiert den Kadaver an Aasfresser zu verlieren. Doch wenn die Wölfe die Beute gemeinsam fangen, können sie diese besser beschützen, folglich ist ihre Belohnung höher.”

Wolfpack gameplay

(Red) wolves chase the blue dot while avoiding (grey) obstacles. Read our blog post about understanding agent cooperation here: http://deepmind.com/blog/understanding-agent-cooperation

KI wurden als egoistische und rationale Akteure designt

Die Analogie zum menschlichen Verhaltens ist daher nicht zufällig, sondern basiert auf Grundlage spieltheoretischer Ansätze, wie dem Gefangenen-Dilemma, welches in Sozialwissenschaften für die Erklärung rationaler Entscheidungen herangezogen wird.

Leserreporter
Bild an VOL.AT schicken


0Kommentare

Herzlichen Dank für Ihren Kommentar - dieser wird nach einer Prüfung von uns freigeschaltet. Beachten Sie, dass dies gerade an Wochenenden etwas länger dauern kann. Kommentare von registrierten Usern werden sofort freigeschaltet - hier registrieren!

noch 1000 Zeichen