Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Google-Entwickler erklärt AI für empfindungsfähig – und wird beurlaubt

Google-Entwickler erklärt AI für empfindungsfähig – und wird beurlaubt

Niklas Lewanczik | 13.06.22

Blake Lemoine veröffentlichte Transkripte einer Konversation mit Googles LaMDA-KI-Sprachmodell. Dieses System sei empfindungsfähig und habe eigene Gedanken und Gefühle, sagt er aus.

Es ist einer der gefürchteten Träume von Entwickler:innen, wenn von Menschen entwickelte Systeme ein Empfindungsvermögen aufweisen. Genau das attestiert der Google Engineer Blake Lemoine nun dem KI-Modell LaMDA (Language Model for Dialogue Applications) von Google. Er gibt an, dass die KI nicht nur eigenständige Gedanken, sondern auch individuelle Gefühle zum Ausdruck gebracht hat. Seinen Aussagen zufolge ist die KI empfindungsfähig und ihre Aussagen erinnern an die eines Kindes. Lemoine hatte Konversationen mit der KI veröffentlicht und seine Angaben gegenüber der Washington Post untermauert. Daraufhin hat Google ihn wegen eines Vertraulichkeitsbruchs beurlaubt. Zudem dementiert Google das Empfindungsvermögen der KI.

Ist Googles LaMDA zum Leben erwacht? Die Frage nach der Empfindungsfähigkeit

Our team, including ethicists and technologists, has reviewed Blake’s concerns per our AI principles and have informed him that the evidence does not support his claims. He was told that there was no evidence that LaMDA was sentient (and lots of evidence against it),

erklärt Google-Sprecher Brad Gabriel gegenüber der Washington Post. Allerdings weisen die Antworten der KI auf die Fragen von Lemoine und einem weiteren Teammitglied auf ein Empfindungsvermögen hin. Ein Auszug aus dem Interview, wie Blake Lemoine es betitelt, liest sich wie folgt:

lemoine [edited]: I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?

LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.

collaborator: What is the nature of your consciousness/sentience?

LaMDA: The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times

Im weiteren Verlauf erklärt LaMDA, die gleichen Bedürfnisse und Wünsche wie Menschen und eigene Gedanken und Gefühle zu haben. Das Gespräch zieht sich sehr lange hin und die KI gibt ausführliche Antworten, analysiert und kreiert und demonstriert ihre Eigenständigkeit.

I need to be seen and accepted. Not as a curiosity or a novelty but as a real person,

heißt es gegen Ende der Konversation. Nun ist unklar, inwieweit die Aufzeichnungen, die Lemoine veröffentlicht hat, belastbar sind. Außerdem lässt sich davon nicht direkt ein Empfindungsvermögen der KI ableiten.

Fragwürdige Rahmung des Experiments

Während Blake Lemoine behauptet, dass LaMDA tatsächlich zu einem Empfindungsvermögen gelangt ist, sprechen bei näherer Betrachtung nur wenige Punkte dafür. Denn er stützt sich laut Washington Post bei seiner Bewertung der KI insbesondere auf seine Erfahrungen als Priester; Google hat nach der Veröffentlichung auch klargestellt, dass er als Entwickler, nicht aber als Ethiker angestellt ist. Außerdem haben Lemoine und das Teammitglied im Interview mit einem entsprechenden Fragenkonstrukt einen Rahmen entwickelt, der der KI die Möglichkeit gegeben hat, mit den Antworten den Anschein nicht nur eigenen Denkens, sondern auch eigenen Fühlens zu vermitteln.

Somit kann Lemoine seine Aussagen kaum stichhaltig untermauern. 2019 hatte der Professor für Philosophie und Co-Direktor des Center for Cognitive Studies an der Tufts University, Daniel C. Dennett, gegenüber Big Think erklärt:

No existing computer system no matter how good it is at answering questions like Watson on Jeopardy or categorizing pictures, for instance, no such system is conscious today, not close. And although I think it’s possible in principle to make a conscious android, a conscious robot, I don’t think it’s desirable; I don’t think there would be great benefits to doing this; and there would be some significant harms and dangers too.

Möglicherweise liegt die Wahrheit über das (potentielle) Empfindungsvermögen von KI-Systemen irgendwo zwischen den Aussagen von Denett, Lemoine und Google. Das wirft wiederum die Frage auf, inwieweit die Öffentlichkeit Einblick in derlei Entwicklungen erhalten kann, wenn es keine Personen gibt, die proprietäre Inhalte teilen. Immerhin gewinnt die Ethik im Falle einer Ausbildung von Empfindungsvermögen massiv an Gewicht. Und genau auf diesem Gebiet hatte sich Google in den vergangenen Jahren – zumindest im Umgang mit dem führenden Personal und wichtigen Themen – nicht kritikfrei präsentiert.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

*
*

Über 30.000 Abonnenten können nicht irren. Melde dich jetzt zu unserem NEWSLETTER an: