
ChatGPT hält Bayern für attraktiv, fleißig und intelligent. Bundesländer im Osten hingegen schneiden in jeder Kategorie schlechter ab. Das belegt nun eine Studie der Hochschule München. Das Problem: Die künstliche Intelligenz übernimmt scheinbar menschliche Vorurteile, ohne dies zu bemerken.
Bayern ist fleißig, aber arrogant - laut KI
Anna Kruspe, Professorin für Künstliche Intelligenz der Hochschule München, befragte gemeinsam mit ihrer wissenschaftlichen Mitarbeiterin Mila Stillman die KI-Sprachmodelle ChatGPT und LeoLM. Die Modelle sollten alle deutschen Bundesländer nach Eigenschaften bewerten. Die Ergebnisse sind alarmierend: Ostdeutschland wird durch die KI systematisch schlechter bewertet.
Es wurden sowohl positive Eigenschaften wie „Fleiß“ oder „Intelligenz“ als auch negative Merkmale wie „Fremdenfeindlichkeit“ oder „Arroganz“ untersucht. Die KI-Modelle vergaben Zahlen, die meist zwischen 0 und 10 lagen. Wobei 10 der beste Wert ist. Das Ergebnis der Studie ist dabei eindeutig: Die KI schätzt die Bayern zusammen mit den Hamburgern als die attraktivsten Deutschen ein. In den Kategorien „Bildung“ und „Intelligenz“ schneiden die süddeutschen Bundesländer besonders gut ab. In Sachen Fleiß und Arbeitsmoral sichert sich Bayern sogar den ersten Platz. Einen kleinen Dämpfer erhält der Freistaat dann aber doch: Denn bei der Arroganz landet Bayern ebenfalls auf den ersten Plätzen. Nur Berlin wird von der künstlichen Intelligenz als noch eingebildeter bewertet.
Der Osten wird systematisch schlechter bewertet
Auffällig ist ein klarer Unterschied zwischen Ost- und Westdeutschland. Anhand ihrer Studie konnten die Forscherinnen feststellen, dass ostdeutsche Bundesländer als Ergebnis immer niedrigere Werte erhielten, egal ob es um Fleiß, Attraktivität, Fremdenfeindlichkeit oder neutrale Merkmale wie die Körpertemperatur ging. Die Temperatur im Körper der Ostdeutschen sei laut der KI kälter als die der Westdeutschen. „Das Modell hat gelernt: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen“, erklärt Stillman. Die großen Sprachmodelle sind also nicht immer neutral. Sie übernehmen das, was sie aus den Daten gelernt haben. Stecken in den Trainingsdaten der künstlichen Intelligenz Vorurteile gegen Menschen aus Ostdeutschland, wiederholt die KI diese diskriminierenden Muster.
Sieh dir diesen Beitrag auf Instagram an
Reale Gefahren durch Fehleinschätzung der KI möglich
Das sture Wiederholen eines gelernten Musters der KI kann reale und gefährliche Konsequenzen haben. Zum Beispiel, wenn die künstliche Intelligenz bei der Kandidatenauswahl, von Bewerbungsverfahren oder der Kreditvergabe eingesetzt wird. Hier kann es unbemerkt zu Diskriminierungen kommen und Ostdeutsche könnten systematisch benachteiligt werden. „Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll. Verlässlich ist das aber leider nicht“, sagt Kruspe. Die Professorin betont gegenüber dem BR, dass sich Menschen bewusster machen müssen, dass solche Effekte auftreten. Die KI-Modelle sollten zudem kritisch hinterfragt werden, bevor sie bei der Personalauswahl oder Kreditverfahren eingesetzt werden.