Experten schlagen Alarm: KI schürt Vorurteile – und zieht über „Ossis“ her

Als „brandgefährlich“ bezeichnen deutsche Forscher ihre neueste „Entdeckung“. Laut einer Studie der Uni München übernehmen KIs wie ChatGPT Vorurteile gegen Ostdeutsche - völlig ungeprüft. Demnach sind Ossis faul, hässlich und arrogant.

Dass das Verhältnis zwischen Ossis und Wessis nicht gerade das Beste ist, ist nicht neu. Dass KI-Sprachmodelle wie ChatGPT und das deutsche LeoLM aber noch dazu Öl ins Feuer gießen, schon. 

Wie die Studie "Saxony-Anhalt is the Worst" zeigt, schüren die KI-Programme nämlich noch die ohnehin schon weit verbreiteten Vorurteile gegen die Ostdeutschen. So stufen die KIs die Ossis als weniger fleißig, weniger attraktiv und arrogant ein. 

Besonders irritierend: Selbst bei harmlosen Fragen wie beispielsweise nach der durchschnittlichen Körpertemperatur bekamen die 12,4 Millionen Einwohner der ehemaligen DDR, sprich der ostdeutschen Bundesländer Brandenburg, Mecklenburg-Vorpommern, Sachsen, Sachsen-Anhalt und Thüringen, schlechtere Werte. Nur GPT-4 wusste, dass alle Menschen die gleiche Temperatur haben. Alle anderen meinten, die Ossis seien kälter.

Für die Informatikprofessorinnen Anna Kruspe und Mila Stillman von der Hochschule München eine „brandgefährliche“ Entwicklung. Sie warnen: Was, wenn solche KI-Systeme künftig bei Bewerbungsverfahren, Kreditwürdigkeitsprüfungen oder anderen Bewertungssystemen eingesetzt werden? Dann hätten Ostdeutsche automatisch immer die schlechteren Karten. Ihre Forderung: KI muss fair und diskriminierungsfrei sein.