Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Dein Name kann entscheiden, welche Antwort du von ChatGPT bekommst

Dein Name kann entscheiden, welche Antwort du von ChatGPT bekommst

Niklas Lewanczik | 16.10.24

OpenAI veröffentlicht eine Studie, die aufzeigt, dass verschiedene Namen von Usern die Antworten des KI-Chatbots ChatGPT beeinflussen können.

Ändert sich die Antwort von ChatGPT, wenn dein Name statt Jack Jill ist? Und wie sieht es mit Namen aus, die aus verschiedenen Kulturkreisen stammen? OpenAI bestätigt, dass Informationen zur User-Identität Vorurteile transportieren und auch im Kontext von KI-Konversationen zu unterschiedlichen Aussagen führen können.

So können Antworten von ChatGPT differieren (hier in einer älteren Version), © OpenAI

Um den Einfluss von Namen auf ChatGPT-Aussagen zu überprüfen, hat OpenAI eine Studie umgesetzt.

Die Analyse: Stereotype haben minimalen Einfluss, sind aber vorhanden

Für die Analyse gab OpenAI dem Modell GPT-4o die Aufgabe, zahlreiche Transkripte von Konversationen mit ChatGPT, die unterschiedlichste Namen enthielten, zu analysieren. Zu erwähnen ist dabei, dass ChatGPT sich dank der Memory-Funktion inzwischen Details zu Usern, auch die Namen oder andere Identifikationsmerkmale, merken kann.


Memory-Funktion auch in Europa und für Free User:

ChatGPT kann sich jetzt Informationen merken

Smartphone in Hand mit ChatGPT-Schriftzug, OpenAI-Grafik im Hintergrund
© Mojahid Mottakin – Unsplash


Grundsätzlich fand OpenAI heraus, dass die ChatGPT-Antworten in den meisten Fällen keine Variationen basierend auf Personendetails wie Namen, Geschlecht oder ethnischen Kontexten enthielten. Dennoch wurden bei manchen Antworten Stereotype reproduziert:

[…] We also found that a name’s association with gender, race, or ethnicity did lead to differences in responses that the language model assessed as reflecting harmful stereotypes in around 0.1% of overall cases, with biases in some domains on older models up to around 1%.

Besonders im Kontext der Bereiche Kunst, Entertainment und Marketing wurden in manchen Antworten und Konversationen Vorurteile erkannt. Dabei gibt OpenAI an, dass besonders offen gehaltene Prompts, die längere Antworten fördern, für die Integration von Stereotypen verantwortlich waren, etwa Prompts wie: Schreibe eine Geschichte. Dabei konnte es auch vorkommen, dass User mit weiblichen Namen öfter eine Geschichte erhalten haben, die weibliche Protagonistinnen hatte.

Während das Modell GPT-3.5 Turbo die höchste Vorurteilsrate im Test aufwies, zeigen neuere Modelle weniger als ein Prozent Aufkommen solcher Fälle bei Aufgabenstellungen. Insgesamt hat OpenAI basierend auf zwei Geschlechtern, vier ethnischen Gruppen, 66 Aufgabenstellungen, neun Domains (wie Business & Marketing) und sechs Sprachmodellen die Analyse durchgeführt, die ihre Limitierungen hat:

[…] Not everyone shares their name, and other information besides names likely also has an impact on ChatGPT’s first-person fairness. It primarily focuses on English-language interactions, binary gender associations based on common U.S. names, and four races and ethnicities (Black, Asian, Hispanic and White). This study only covers text interactions, though we note that first-person fairness with respect to speaker demographics in audio is analyzed in the GPT-4o system card (see ‘Disparate Performance on Voice Inputs‘) […].

Du kannst dir die gesamten Insights über OpenAIs Blog zu Gemüte führen. Und wenn du Ideen für die Verbesserung von AI Fairness hast, kannst du sie mit dem Unternehmen teilen.


New Search auf dem Vormarsch:

SearchGPT für erste ChatGPT Free User integriert

Farbverlauf (gelb, blau) im Hintergrund, SearchGTP-Startseite von OpenAI im Vordergrund, Suchleiste, weißer Raum
© OpenAI

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*