Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensnews
OpenAI Leader: Aufsichtsbehörde für „Superintelligenz“ AI notwendig

OpenAI Leader: Aufsichtsbehörde für „Superintelligenz“ AI notwendig

Niklas Lewanczik | 23.05.23

Das Tech-Unternehmen hinter ChatGPT erkennt die Potentiale und Risiken von KI und denkt öffentlich über eine Aufsichtsbehörde für die rasanten Entwicklungen nach.

Es sei eine gute Zeit, um über die Kontrolle der „Superintelligenz“ nachzudenken, die durch die jüngsten KI-Entwicklungen auf die Digitalwelt losgelassen wurde: Das schreibt die Führungsriege von OpenAI rund um Gründer Sam Altman, Präsident Greg Brockman und Chief Scientist Ilya Sutskever in einem neuen Blog Post. Denn künftige KI-Systeme könnten noch mächtiger als die sogenannte Artificial General Intelligence (AGI) sein.

Mit dem Launch von ChatGPT machte sich OpenAI weltweit einen Namen und steht inzwischen für hochfunktionale KI-Tools und Sprachmodelle wie GPT-4. Doch mit den vielen Möglichkeiten und Potentialen, die die KI-Entwicklung bietet, gehen auch enorme Risiken einher. So schreibt das Team:

We must mitigate the risks of today’s AI technology too, but superintelligence will require special treatment and coordination.

OpenAI hat Ideen für eine Aufsichtsbehörde und demokratische Einschränkungen der Technologie

Von Fake News und Deep Fakes über potentielle Job- und Datenverluste bis hin zu existenziellen Bedrohungen könnte die Künstliche Intelligenz für Probleme auf verschiedenen Ebenen sorgen. Daher beginnen viele Tech-Unternehmen, ihre KI-Richtlinien in den Mittelpunkt zu stellen oder zu verschärfen – wie zuletzt etwa TikTok. Doch Altman, Brockman und Sutskever sind der Meinung, dass es übergeordnete Regulierung geben sollte.

[W]e are likely to eventually need something like an IAEA [International Atomic Energy Agency, Anmerkdung der Redaktion] for superintelligence efforts.

Um zunächst eine Koordination für die Entwicklungseinordnung zu schaffen, gibt es nach Ansicht des OpenAI Teams viele Wege.

There are many ways this could be implemented; major governments around the world could set up a project that many current efforts become part of, or we could collectively agree (with the backing power of a new organization like the one suggested below) that the rate of growth in AI capability at the frontier is limited to a certain rate per year. And of course, individual companies should be held to an extremely high standard of acting responsibly.

Doch ohne klare Anforderungen vonseiten einer Aufsichtsbehörde könnten die Ansichten über die legitime Weiterentwicklung von KI auseinanderdriften. Schon jetzt stehen sich ökonomisch getrieben hochfunktionale KI-Tool-Entwicklungen und vehemente Warnungen von KI-Ethik-Forscher:innen gegenüber. OpenAI bringt auch demokratische Entscheidungen als Regulationsmoment für KI-Systeme ins Spiel – weiß jedoch noch nicht, wie diese realiter wirken würden.

We believe people around the world should democratically decide on the bounds and defaults for AI systems. We don’t yet know how to design such a mechanism, but we plan to experiment with its development. 

Während das Unternehmen die eigenen Richtlinien und Ziele thematisiert, kann der Post als Konversationsstartpunkt für US-basierte oder gar globale Aufsichtsbehörden für die KI-Entwicklung betrachtet werden.


KI-Richtlinien geplant:

US-Regierung trifft OpenAI, Microsoft und Co.

Bild vom Capitol in den USA
© Louis Velazquez – Unsplash


In der EU liegt bereits ein Gesetzesentwurf für den AI Act vor. Der AI Act muss noch final verabschiedet werden, bildet aber die erste Gesetzesgrundlage für moderne KI-Entwicklungen. So sind beispielsweise drei Risikokategorien festgeschrieben, die sich auf einzelne Systeme anwenden lassen.


Mehr über den AI Act, rasante KI-Entwicklungen und deren Potentiale sowie Risiken erfährst du im Digital Bash Podcast mit dem KI-Experten Alexander Siebert von Retresco.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*