Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Danger, AI: KI-Pate und Ex-Googler warnt, während Job- und Datenverluste drohen

Danger, AI: KI-Pate und Ex-Googler warnt, während Job- und Datenverluste drohen

Niklas Lewanczik | 02.05.23

KI-Legende Geoff Hinton warnt eindringlich vor großen Gefahren der KI-Entwicklung. Samsung streicht bereits ChatGPT und IBM setzt Neueinstellungen wegen der AI aus.

Die Künstliche Intelligenz ist überall. Kürzlich haben Google, Meta und Microsoft den Bereich im Rahmen der Vorstellung ihrer jeweiligen Quartalszahlen zu einem Kernaspekt der künftigen Entwicklungen erklärt. Meta CEO Mark Zuckerberg sprach von einer riesigen KI-Welle und möchte AI-Integrationen für diverse Dienste liefern, Microsoft fährt schon jetzt mehr Umsatz dank KI-Tools bei Bing, in Office-Diensten und Co. ein und Google legt die großen KI-Teams für die Weiterentwicklung von KI-Chatbot Bard und die Entwicklung einer neuartigen KI-basierten Suche zusammen.

Die Künstliche Intelligenz bietet scheinbar grenzenlose Möglichkeiten zur Optimierung. Doch mitten in die Erfolgswelle – maßgeblich durch den Launch von OpenAIs ChatGPT ausgelöst – mischt sich immer mehr Kritik. Warnungen vor den Gefahren der KI-Entwicklung kommen aus mehr und mehr Ecken. Erst kürzlich unterzeichneten zahlreiche Tech-Expert:innen, darunter Elon Musk, einen offenen Brief, der eine Zwangspause der Weiterentwicklung großer KI-Modelle fordert. Die Rufe nach Kontrolle werden lauter, vor einem regelrechten Wettkampf um die Vorherrschaft auf dem AI-Markt wird auch in diesem Brief gewarnt. Doch genau dieser entstpinnt sich zwischen den großen Tech-Konzernen, die auf AI-Lösungen setzen, um User-Zahlen und Umsätze zu steigern. Genau davor warnt jetzt auch Dr. Geoffrey Hinton, der seit rund 50 Jahren an Künstlicher Intelligenz forscht – er verließ sogar seine Position bei Google, um frei über die große Gefahr der AI sprechen zu können.

Das sind die größten Gefahren der AI

Für die New York Times berichtet Cade Metz von seinem Gespräch mit Dr. Geoffrey Hinton, den er als „Godfather of A.I.“ bezeichnet – und der auf einen Turing Award als Auszeichnung zurückblicken kann.

Hinton, der jahrelang für Google an der Entwicklung von Künstlicher Intelligenz beteiligt war, ist sich nicht sicher, dass die Nutzung von KI-Systemen durch Bad Actor ausgeschlossen werden kann. Vor allem aber fürchtet er die schnelle Potentialoptimierung der Systeme.

Look at how it was five years ago and how it is now. Take the difference and propagate it forwards. That’s scary.

Eine unmittelbare Gefahr erkennt der KI-Experte in der raschen und massenhaften Verbreitung von Bildern, Videos und Texten, die AI-generiert und möglicherweise falsch sind. Die Identifizierung von Fake News dürfte nur schwieriger werden. Aus diesem Grund hat beispielsweise TikTok bereits die Richtlinien für AI Content auf der Plattform verschärft und Markierungen für bestimmte Inhalte angesetzt. Wenn allerdings Google, Meta, Microsoft, Amazon und Co. immer mehr AI-Dienste liefern – und das ist bereits geplant –, wird auch die Zahl der Fake News, Deepfakes sowie irreführender und falscher Informationen zwangsläufig erhöht. Das KI-Tool Midjourney hat bereits die kostenfreie Nutzung gestoppt, um die missbräuchliche Nutzung zu minimieren, der etwa Bilder entstprungen sind, die den Papst im Balenciaga-Mantel oder Donald Trump bei einer Festnahme zeigen.

Doch Hinton sieht noch weit mehr Gefahren, betreffend den Job-Markt und die Autonomie von Künstlicher Intelligenz.

Die Furcht von Job-Verlusten ist schon jetzt groß

Aufgrund der großen Entwicklungssprünge, die die KI im Digitalraum ermöglicht hat und noch ermöglichen wird, ist eine drastische Veränderung der Arbeitswelt eine logische Konsequenz. Schon jetzt werden KI-Tools für diverse Aufgaben eingesetzt. Viele Menschen glauben, dass AI Jobs in ihrer Branche ersetzen wird. Laut einer Studie von Goldman Sachs sind weltweit rund 300 Millionen Jobs direkt von den jüngsten Entwicklungen in diesem Bereich betroffen. Der Bericht von Goldman Sachs legt nahe, dass eine breite Implementierung der generativen KI zu erheblichen Einsparungen bei den Arbeitskosten und auch der Schaffung neuer Arbeitsplätze führen könnte. Der aktuelle Hype um KI hat schon neue Jobs hervorgebracht, darunter Prompt Engineers. Die Position beinhaltet das Schreiben von Text anstelle von Code zum Testen von KI-Chatbots.

Während gerade kreative Jobs, Manager-Positionen und insbesondere IT-Stellen weiterhin gefragt sind, könnten jedoch Praktikumsstellen, Texter:innen-Jobs, Stellen für Übersetzer:innen und dergleichen wegfallen. Laut Bloomberg hat IBM derzeit die Einstellung neuer Personen in Rollen gestoppt, die durch Künstliche Intelligenz ausgefüllt werden könnten. Künftig könnten bis zu 7.800 Jobs im Unternehmen von AI übernommen werden.

Die Frage, wie große der Einschnitt in die Arbeitswelt aufgrund von KI sein wird, wird derzeit heiß diskutiert. Abzusehen ist noch kaum, wie viel und welche Arbeit genau künftig vorrangig von Künstlicher Intelligenz übernommen werden wird. Yvonne Teufel, CMO von Conversion Maker, ist sich sicher:

KI kann uns einfach nicht ersetzen.



Das gilt womöglich aber nur für bestimmte Rollen – und vielleicht auch nur auf bestimmte Zeit. Microsoft-Gründer Bill Gates hegt schon jetzt Hoffnungen, dass der Einsatz von generativer KI zu weniger Arbeit und auch weniger Arbeitszeit führen kann. Tools wie ChatGPT und Bing AI, aber auch Firefly von Adobe, Bard von Google, Amazons Bedrock und Co. unterstützen Teams schon jetzt. Auch das experimentelle KI-Tool AutoGPT nimmt vielen Menschen bereits ganze Aufgabenreihen ab. In einem Twitter Thread zeigt KI-Experte Aakash Gupta eine Reihe von Anwendungsfällen. So kann das Tool beispielsweise eine Website in unter drei Minuten automatisiert erstellen, Recherchepläne kreieren, ein Startup mit 100 US-Dollar Kapital gründen und Börsendaten analysieren oder auch Marketing-Aufgaben organisieren und eine Podcast Outline basierend auf aktuellen Events verfassen.

Allerdings ist das Tool durchaus problembehaftet. Nicht alle Ergebnisse stellen die Nutzer:innen zufrieden, ähnlich wie bei der Bing AI und Googles Bard sowie ChatGPT. Zudem birgt der Einsatz eine Reihe von Risiken und die Entwickler:innen distanzieren sich von einer Verantwortungsübernahme für diese. Wer AutoGPT einsetzt, muss also selbst darauf achten, dass bestimmte Regeln etwa betreffend den Datenschutz, das Urheber:innenrecht und dergleichen eingehalten werden. Und wenn der Einsatz von ChatGPT gegen die DSGVO verstoßen und daher in mehr Regionen gesperrt werden könnte, dürfte das analog auch für AutoGPT gelten.


Nach ChatGPT kommt AutoGPT:

So kannst du das autonome KI-Tool einsetzen

© DeepMind - Unsplash, abstrakte Darstellung von KI, organische Struktur in Kasten
© DeepMind – Unsplash


AI-Gefahr durch Kontrollverlust?

AutoGPT ist ein gutes Beispiel dafür, wie Menschen die Kontrolle über Aufgaben, aber auch Daten an KI-Systeme und Tools abgeben. Und dieser Wechsel im Kontrollverfahren ist relevant. Im Gastbeitrag auf OnlineMarketing.de schreibt Matthias Postel, CEO von iCompetence:

[Ü]ber die Daten beherrscht der Mensch die KI. Immer. Denn der Mensch trägt für Daten und Algorithmen die Verantwortung. Die Übernahme der Macht durch die KI ist also Fiktion, ob sie gut oder schlecht regiert wird und damit konstruktiv oder destruktiv agiert, das hingegen ist Realität. Data Governance macht den Unterschied, sie sorgt für ein klares Datenkonzept im Sinne einer übergeordneten Firmenstrategie.

Doch was passiert, wenn die Kontrolle über die Daten nicht gewährleistet werden kann? Samsung hat laut Bloomberg dem Personal den Einsatz von ChatGPT, Bing AI und Co. untersagt, weil firmenspezifische Daten über diese Tools geleakt worden waren. In einem Memo gegenüber den Teams heißt es:

Interest in generative AI platforms such as ChatGPT has been growing internally and externally. While this interest focuses on the usefulness and efficiency of these platforms, there are also growing concerns about security risks presented by generative AI.

Diese Bedenken teilt auch die EU, die bereits eine Task Force zum Thema ChatGPT gegründet hat, nachdem Italien den Dienst wegen DGVO-Verstößen gesperrt hatte. Daher hat OpenAI, das seit einiger Zeit auch den Support für ChatGPT Plugins bietet, kürzlich eine Funktion zum Deaktivieren des Chat-Verlaufs sowie neue Business Accounts eingeführt, die mehr Datenschutz versprechen. Doch die stetige Weiterentwicklung der KI-Systeme in rasantem Tempo – auch zum Zwecke der Wettbewerbsfähigkeit – schränkt ebenso den Schutz ein und erhöht die Risiken.

Das gilt zum Beispiel auch für Googles KI-Chatbot Bard, der für erste User in der Suche zur Verfügung steht. Vor dem Launch warnten viele Googler vehement vor den Gefahren dieses KI-Tools, Bard sei nicht nur fehleranfällig, sondern sogar gefährlich. So hat eine Person Bard als „pathologische:n Lügner:in“ bezeichnet, eine andere bezeichnete den KI-Bot als „beschämend“. Darüber hinaus bemängelten viele Angestellte des Suchmaschinenunternehmens, dass Bard oft falsche oder irreführende Antworten gebe. Diese könnten sogar zu Verletzungen oder sogar zu Tod führen, wenn etwa für das Scuba Diving irreführende Tipps und Best Practices präsentiert werden. Möglicherweise hat die Wirtschaftlichkeit die Bedenken ausgestochen. Doch der Ex-Googler Dr. Geoffrey Hinton sagt gegenüber der New York Times bezogen auf diverse KI-Systeme:

I don’t think they should scale this up more until they have understood whether they can control it.

Ob eine Kontrolle langfristig gewährleistet werden kann, steht derzeit zur Debatte. Eine Regulierung für den Einsatz von Künstlicher Intelligenz ist allemal gefordert. Denn die jüngsten Entwicklungen zeigen: Je größer das Potential der AI ist, desto größer wird auch die Gefahr, die von ihr ausgeht.


Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

*
*