Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Auf einer Stufe mit Pandemie und Nuklearkrieg: Sorge um KI wächst

Auf einer Stufe mit Pandemie und Nuklearkrieg: Sorge um KI wächst

Niklas Lewanczik | 31.05.23

Expert:innen von Google, OpenAI, Microsoft, Anthropic und renommierten Universitäten haben ein warnendes Statement unterschrieben, das KI-Entwicklungen ein massives Gefahrenpotential attestiert.

Wenn sowohl der OpenAI CEO und der Google DeepMind-Chef als auch Turing-Preisträger ein Statement bezüglich der KI-Sicherheit unterzeichnen, hat dieses Gewicht. Das Center for AI Safety hat kürzlich ein solches Statement veröffentlicht, das so kurz wie eindringlich ist:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

Die Botschaft ist womöglich auch so simpel formuliert, damit sich die vielen namhaften Unterschreibenden hinter diese stellen können. Derzeit agiert die Digitalbranche hinsichtlich der rasanten KI-Entwicklungen zwischen der Anpreisung der vielfältigen Potentiale und dem AI Doomism.

Wie gefährlich ist KI eigentlich? Weltbekannte Persönlichkeiten warnen immer wieder

Welch große Potentiale die Künstliche Intelligenz für die Menschheit, deren Jobs und Alltag, zu bieten hat, ist seit Jahren bekannt. Mit dem starken Wachstum von generativer KI in den vergangenen Monaten verändern sich diverse Prozesse. Die Internetsuche wird auf Google und Bing revolutioniert, mit ChatGPT verschafft ein KI-Chatbot der Digitallandschaft zuvor ungeahnte Aktionsräume und die großen Tech-Unternehmen wetteifern um die besten Positionen im KI-Konkurrenzkampf. Daher werden beinahe wöchentlich neue Features und Dienste gelauncht, von Googles Bard über den Windows Copilot bis hin zu Adobes Generative Fill Feature im von Firefly unterstützten Photoshop.


Gen AI in Overdrive:

Bing kommt zu ChatGPT, Firefly zu Photoshop

© Adobe, Hirsch in beleuchteter Gasse, die regennass ist und Backsteinhäuser sowie Mülltonnen zeigt
© Adobe


Doch weil hochfunktionale KI-Tools auch User und Einnahmen versprechen, launchen manche Unternehmen neue Tools und Funktionen besonders schnell und arbeiten mit Hochdruck an weiteren. Google ist ein Beispiel dafür. Nachdem Microsoft in Kooperation mit OpenAI für Furore auf dem Search-Market gesorgt und ein neues Bing angekündigt hatte, brachte die Alphabet-Tochter sogar die Gründer Sergej Brin und Larry Page zurück, um möglichst schnell viele KI-Neuerungen zu erarbeiten. Zudem wurden die Teams von DeepMind und Google Brain zusammengelegt. Im Frühjahr launchte Google dann den KI-Chatbot Bard für die Suche – und ignorierte dabei eine Reihe von Warnungen des eigenen Personals. Ein Mitglied der Belegschaft schrieb kurz vor dem Launch eine interne Nachricht an tausende Kolleg:innen:

Bard is worse than useless: please do not launch.

Godfather of AI warnt eindringlich

Auch in den vergangenen Wochen sind zahlreiche Neuerungen im Bereich Gen AI vorgestellt worden. Adobe, Google, Meta, Microsoft, OpenAI und Co. bieten den Nutzer:innen und Entwickler:innen immer mehr Optionen, um mithilfe von generativer KI Aufgaben zu erledigen, kreativ zu werden oder auch Konversationen zu betreiben. Doch schon seit jeher schwebt über all den Entwicklungen auch eine dunkle Wolke. Denn ausgewiesene Expert:innen warnen immer wieder vor den mannigfaltigen Gefahren, die die rasante Entwicklung auf diesem Gebiet mit sich bringt. Dr. Geoffrey Hinton, als Godfather of AI bezeichnet, ist ein ehemaliger Googler und Preisträger des renommierten Turing Awards. Er äußerte sich zuletzt kritisch und warnte deutlich vor einer Reihe von Gefahren, von Jobverlusten und dem Verlust über die Datenkontrolle bis hin zu einer Spirale von Fake News. Er sagte auch, dass die Nutzung von KI-Systemen durch Bad Actor nicht ausgeschlossen werden kann. Vor allem aber fürchtet er die schnelle Potentialoptimierung der Systeme.

Look at how it was five years ago and how it is now. Take the difference and propagate it forwards. That’s scary.

Im Vorhinein hatten bereits zahlreiche Tech-Expert:innen, darunter Elon Musk, einen offenen Brief verfasst, der eine Zwangspause der Weiterentwicklung großer KI-Modelle fordert. Die Rufe nach Kontrolle werden lauter, vor einem regelrechten Wettkampf um die Vorherrschaft auf dem AI-Markt wird auch in diesem Brief gewarnt. Doch die großen Tech-Unternehmen agieren nicht zuletzt im Interesse ihrer Aktionär:innen – und der Profiterwartungen. Nichtsdestotrotz sind auch sie an einer Regulierung interessiert. Diese gestaltet sich jedoch nicht einfach.

KI-Regulierung steht zur Diskussion

OpenAI, das Unternehmen hinter ChatGPT, hat erst vor kurzem öffentlich betont, wie wichtig eine übergeordnete Regulierung der „Superintelligenz“ ist, die AI darstellt. Dabei wurde auch eine unabhängige Aufsichtsbehörde ins Spiel gebracht. Während das Unternehmen eigene Ideen für die KI-Regulierung öffentlich diskutiert und zusammen mit der Branche neue Ansätze evaluieren möchte, lehnt es den aktuellen Gesetzesentwurf der EU für den AI Act ab.

Der AI Act muss noch final verabschiedet werden, bildet aber die erste Gesetzesgrundlage für moderne KI-Entwicklungen. So sind beispielsweise drei Risikokategorien festgeschrieben, die sich auf einzelne Systeme anwenden lassen. Der Entwurf schreibt aber auch vor, dass Unternehmen urheber:innenrechtlich geschütztes Material, das sie verwenden, offenlegen müssen. Das dürfte einer der Punkte sein, die Sam Altman, Gründer von OpenAI, bei seiner Europa-Tour als „Überregulierung“ bezeichnet hat. Neben dem AI Act arbeitet die EU mit Google und Co. derzeit auch am AI Pact, wie Thierry Breton, EU-Kommissar für Binnenmarkt und Dienstleistungen, betont.

Während die Tools und Features weiter auf den Markt drängen und eine Regulierung erarbeitet wird, gehen von der Künstlichen Intelligenz jedoch noch viel größere Gefahren aus. Gefahren, die der Menschheit auf einem Level mit Pandemien und einem Nuklearkrieg begegnen könnten. Damit die Gesellschaft sich dessen bewusst ist und an den richtigen Stellen dagegensteuert, haben zahlreiche renommierte Personen das Statement des Center for AI Safety unterschrieben. Darunter sind Personen wie OpenAI CEO Sam Altman, Google DeepMind CEO Demis Hassabis, Turing-Preisträger Yoshua Bengio von der Universität Montreal, Microsofts CTO Kevin Scott und Angela Kane vom International Institute for Peace in Wien. Dabei haben zahlreiche Personen unterzeichnet, die selbst für die KI-Entwicklungen verantwortlich zeichnen.

Was kommt nach dem Statement?

Die große Frage, die sich die (Digital-)Welt stellt, bezieht sich auf die Handlungen, die auf solch einen Ausdruck der Besorgnis folgen. Was Megakonzerne wie Microsoft, Meta und Alphabet, um die Gefahren von KI einzudämmen? Den Worten sollten bald Taten folgen. Und dabei müssen Unternehmen und Entwickler:innen womöglich auch unbequeme Kompromisse akzeptieren. Denn alle Potentiale von generativer KI auszuloten, ohne zugleich das massive Gefahrenpotential anzureichern, das wird kaum gehen.


Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*