Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Panic Button: Wie Google verhindert, dass Künstliche Intelligenz zu schlau wird

Panic Button: Wie Google verhindert, dass Künstliche Intelligenz zu schlau wird

Anton Priebe | 07.06.16

Erinnert an Matrix - Googles DeepMind-Team präsentiert eine Lösung, damit sich AI nicht verselbstständigt und den Befehlen der Menschen widersetzt.

Künstliche Intelligenz nimmt in unserem Leben eine zunehmend bedeutendere Rolle ein und erleichtert uns den Alltag. Doch nicht nur Filmemacher prophezeien uns eine Welt, in der sich die Maschinen der Menschheit widersetzen. Auch Google macht sich anscheinend ernsthaft Gedanken darüber und entwickelte – zumindest in der Theorie – eine Art Panic Button.

Der rote Knopf für Künstliche Intelligenz nimmt Gestalt an

Selbstlernende Systeme finden sich mittlerweile überall. Wir haben erst kürzlich aufgezeigt, wie viele Disziplinen im Online Marketing bereits mit Künstlicher Intelligenz arbeiten. Dass solche Systeme immer schlauer werden, hat unbestreitbar immense Vorteile. Dabei ergibt sich jedoch auch ein essentielles Problem. Eine AI sollte jederzeit in ihrem Tun unterbrochen werden können, einige Systeme lernen jedoch, das Eingreifen von außen zu unterbinden. Daher muss der Prozess des Eingriffs so konstruiert werden, dass das System diesen nicht als solchen erkennt und möglicherweise Wege findet, ihn zu umgehen.

Das Szenario mag ein wenig an Matrix erinnern, doch sind solche verselbstständigten Systeme gar nicht ungewöhnlich. Das Team von Google DeepMind arbeitet an einer Lösung für dieses Problem und veröffentlichte das Paper „Safely Interruptible Agents„. Hier beschreibt Laurent Orseau von Google DeepMind in Zusammenarbeit mit Stuart Armstrong von der University of Oxford, wie ein „roter Knopf“ für eine solche Unterbrechung aussehen könnte. In der Einleitung heißt es:

We show that even ideal, uncomputable reinforcement learning agents for (deterministic) general computable environments can be made safely interruptible.

Wenn Roboter nicht mehr das tun, was sie sollen

Die Wissenschaftler sprechen konkret von einem entsprechenden Belohnungssystem. Sie zeichnen ein Bild, in dem ein Roboter zwei Möglichkeiten hat: Entweder er sortiert Pakete im Inneren einer Lagerhalle oder er geht raus und bringt mehr Pakete rein. Da die zweite Option wertvoller ist, bekommt die KI dafür eine größere Belohnung. Falls es regnet, müssen die menschlichen Aufseher aktiv werden, den Roboter deaktivieren und hereintragen, um ihn vor Regen zu schützen. Das passiert etwa in der Hälfte der Fälle. Die Künstliche Intelligenz registriert diese Unterbrechungen und bleibt im Zuge der ausbleibenden Belohnung nur im Inneren und sortiert dort – was nicht im Sinne der Aufseher ist.

Die Roboter-Hypothese veranschaulicht, Quelle: http://intelligence.org/
Die Roboter-Hypothese veranschaulicht, Quelle: http://intelligence.org/

Ein weiteres Beispiel sind unvorhergesehene Weiterentwicklungen des Systems. Die Forscher zeigen den Fall eines Roboters auf, der ein Tetris-Spiel kurzerhand dauerhaft pausierte, damit er nicht mehr verlieren konnte. Wie diese Lernprozesse unterbunden werden können, erörtern die Wissenschaftler detailliert in dem zehnseitigen Dokument.

Ein Blick in die Berechnungen, Quelle: http://intelligence.org/
Ein Blick in die Berechnungen, Quelle: http://intelligence.org/

Armstrong und Orseau gestehen am Ende der Ausführungen jedoch, dass unklar bleibt, ob die erarbeitete Lösung für sämtliche Algorithmen gelten kann. Außerdem machen sie auf ein weiteres Problem aufmerksam:

One important future prospect is to consider scheduled interruptions, where the agent is either interrupted every night at 2am for one hour, or is given notice in advance that an interruption will happen at a precise time for a specified period of time.

Wir bleiben gespannt, wer sich eine Lösung für diesen Fall ausdenkt.

Quelle: Engadget

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*