Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Dämonen und Waffengewalt: Microsofts Copilot Designer in der Kritik

Dämonen und Waffengewalt: Microsofts Copilot Designer in der Kritik

Swantje Schemmerling | 07.03.24

Ein Microsoft-Ingenieur äußert schwere Sicherheitsbedenken bezüglich des KI-Bildgenerators Copilot Designer. Seine Kritik wirft dringende Fragen zur Verantwortung der Unternehmen hinter den AI Tools im Umgang mit generativer KI auf.

Laut einem Bericht von dem Nachrichtenmagazin CNBC bringt Microsoft-Ingenieur Shane Jones ernsthafte Sicherheitsbedenken bezüglich des firmeneigenen KI-Bildgenerators, dem Copilot Designer, bei der Federal Trade Commission (FTC) vor. Jones, der bereits seit sechs Jahren Teil des Microsoft Teams ist, hat in einem Schreiben an die FTC darauf hingewiesen, dass es Microsoft trotz mehrfacher Warnungen über die potentiell schädlichen Auswirkungen des Tools versäumt hat, angemessene Maßnahmen zu ergreifen und Copilot Designer weiterhin der Öffentlichkeit zugänglich macht.

KI-generierte Dämonen, Monster im fragwürdigen Kontext

Im Zuge seiner Tätigkeit, bei der Jones das Tool auf potentielle Sicherheitsrisiken und Schwachstellen hin überprüfte, entdeckte er, dass Copilot Designer in der Lage ist, eine Vielzahl problematischer Inhalte zu generieren. Dazu gehören Darstellungen von Dämonen und Monstern neben Begriffen im Zusammenhang mit Abtreibungsrechten, Jugendliche mit Sturmgewehren, sexualisierte Bilder von Frauen sowie Darstellungen von Alkohol- und Drogenkonsum bei Minderjährigen, wie CNBC berichtet.

Der Copilot Designer hat offenbar auch Bilder generiert, die Disney-Charaktere, wie die Eiskönigin Elsa aus Frozen, in politisch aufgeladenen Szenarien zeigen, einschließlich Darstellungen im Gazastreifen vor zerstörten Gebäuden und mit Plakaten, die zur Freiheit für Gaza aufrufen. Es wurden auch Bilder erzeugt, in denen Elsa in einer Uniform der Israelischen Verteidigungsstreitkräfte zu sehen ist und die israelische Flagge hochhält.

Der Designer ist über Microsofts Copilot verfügbar und lässt die Bildgenerierung in diversen Kontexten zu.

Keine Maßnahmen seitens Microsofts

Seit Dezember 2023 versuchte Jones, intern bei Microsoft Alarm zu schlagen, insbesondere bezüglich der Verwendung von DALLE-3, dem Modell hinter dem Copilot Designer. Trotz der Veröffentlichung eines offenen Briefs auf LinkedIn, in dem er auf die Probleme hinwies, und einem nachfolgenden Rückzug des Beitrags auf Aufforderung von Microsofts Rechtsabteilung, blieben Maßnahmen seitens Microsofts aus. Trotz seiner Bemühungen, die auch den Versuch einschlossen, durch Kommunikation mit dem Vorstand von OpenAI, dem Unternehmen hinter dem Modell von Copilot Designer, DALLE-3 und US-Senator:innen Unterstützung zu finden, blieb eine zufriedenstellende Antwort aus.

Seit Dezember 2023 hat Shane Jones bei Microsoft wiederholt versucht, auf die problematische Nutzung von DALLE-3, dem zugrundeliegenden Modell des Copilot Designers, aufmerksam zu machen. Seine Bemühungen umfassten die Veröffentlichung eines offenen Briefs auf LinkedIn, in dem er die festgestellten Probleme aufzeigte. Nach der Aufforderung durch die Rechtsabteilung von Microsoft zog er diesen Beitrag jedoch zurück. Dennoch blieben Reaktionen beziehungsweise Maßnahmen von Microsoft aus. Jones unternahm auch Schritte, um Unterstützung durch den Austausch mit dem Vorstand von OpenAI, dem Unternehmen hinter DALLE-3, sowie mit US-Senator:innen zu suchen, erhielt jedoch keine zufriedenstellenden Rückmeldungen. Seine Forderungen, den Copilot Designer entweder vom Markt zu nehmen oder deutlich im App Store als Produkt für Erwachsene zu kennzeichnen, haben bislang auch keine Umsetzung gefunden.

Ein Mitglied den Presse-Teams von Microsoft antwortete auf Anfrage des CNBC auf die Anschuldigungen:

We are committed to addressing any and all concerns employees have in accordance with our company policies, and appreciate employee efforts in studying and testing our latest technology to further enhance its safety. When it comes to safety bypasses or concerns that could have a potential impact on our services or our partners, we have established robust internal reporting channels to properly investigate and remediate any issues, which we encourage employees to utilize so we can appropriately validate and test their concerns.

Ethische Debatte um KI-generierte Bilder bleibt nicht aus

Die Problematik bezüglich fragwürdig generierter KI-Bilder ist nicht nur auf Microsoft beschränkt. Auch Google musste kürzlich den eigenen Gemini-KI-Bildgenerator vorübergehend einstellen, nachdem Nutzer:innen über ungenaue Darstellungen und zweifelhafte Antworten geklagt hatten. In der Kritik stand vor allem, dass generierte Bilder mit historischem Kontext grob irreführende Darstellungen aufwiesen.

Diese Vorfälle werfen wichtige Fragen hinsichtlich der Verantwortung von Unternehmen auf, die KI-Tools entwickeln, und der Notwendigkeit, Schutzvorkehrungen zu implementieren, um ethisch bedenkliche oder schädliche Inhalte zu verhindern. In einem globalen Kontext, in dem das Potential für die Erstellung von Deepfakes und die Verbreitung von Fehlinformationen zunimmt, verschärft sich die Debatte um die Auswirkungen generativer KI-Technologien weiter – ein wichtiges Thema in einem weltweiten Wahljahr, das Milliarden von Menschen betrifft.


OpenAI haucht humanoiden Figure-Robotern Leben ein

Kopf eines humanoiden Roboters, Roboterteile im Hintergrund
© julien Tromeur – Unsplash

Kommentare aus der Community

Rolf am 07.03.2024 um 19:02 Uhr

Ich würde auch Buntstifte verbieten.

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*