zurück
Würzburg
"Der KI fehlt gesunder Menschenverstand": Würzburger Forscher warnt vor Vorurteilen durch Künstliche Intelligenz
Viele halten KI für besonders objektiv. Ist sie das? Kommunikationspsychologe Markus Appel von der Uni Würzburg erklärt, warum sie es nicht ist. Und welche Folgen das hat.
'Zuweilen Bullshit': Kommunikationspsychologe Prof. Markus Appel von der Uni Würzburg mahnt zu einem sensiblen Umgang mit Künstlicher Intelligenz.
Foto: FOTOSTUDIO BALSEREIT | "Zuweilen Bullshit": Kommunikationspsychologe Prof. Markus Appel von der Uni Würzburg mahnt zu einem sensiblen Umgang mit Künstlicher Intelligenz.
Andreas Jungbauer
 |  aktualisiert: 27.02.2025 02:37 Uhr

Ob im Privaten oder beruflich: Immer häufiger kommt im Alltag Künstliche Intelligenz (KI) für die Erstellung von Texten oder die Beantwortung von Fragen zum Einsatz. Doch wie verlässlich und vor allem wie objektiv sind die maschinellen Helfer? Wie beeinflusst uns KI durch Vorurteile und Klischees? An der Uni Würzburg untersucht dies Prof. Markus Appel, Leiter des Lehrstuhls für Kommunikationspsychologie und Neue Medien, mit einem neuen Forschungsprojekt. 

Worum es darin geht und welche Folgen KI haben kann, erklärt der 51-jährige Experte im Interview.

Frage: Viele Menschen glauben, KI sei besonders objektiv und neutral. Stimmt das?

Prof. Markus Appel: Ja, viele Leute scheinen das zu denken. Fälschlicherweise. Natürlich kommt es immer auf die konkrete Anwendung oder Frage an. Aber es gibt häufig einen "algorithmic bias", also eine Darstellungsverzerrung in Fragen von Geschlecht, Repräsentation oder Stereotypen.

Das heißt, KI verzerrt die Wirklichkeit?

Appel: Das kann jeder selbst ausprobieren. Bitten Sie doch ChatGPT um die Spielernamen einer fiktiven Fußballmannschaft in der Kreisliga Würzburg. Da bekommen Sie eine Liste mit Namen wie Ben Schneider, Tilman Vogel und so weiter. Da wird aber typischerweise kein Spielername genannt, der auf einen Migrationshintergrund hindeutet. Dabei ist der Anteil im Amateur- und Profifußball gar nicht gering. ChatGPT ignoriert das. Das heißt, es kann passieren, dass bestimmte Personengruppen nicht dargestellt werden.

Oder mit einer bestimmten Schablone?

Appel: Es werden zudem Klischees reproduziert. Beispiel: Wenn Sie die KI nach Bildern von Lehrkräften vor einer Schulklasse fragen, lächeln die weiblichen Lehrkräfte in der Regel häufiger als die männlichen. Die Lehrerin ist milde, der Lehrer ist streng. Man weiß aus Studien, dass KI-Modelle Frauen und Minderheiten oft unausgewogen darstellen. KI ist anfällig dafür, stereotype Weltbilder zu reproduzieren.

"Die Lehrerin ist milde, der Lehrer ist streng."
Medienpsychologe Prof. Markus Appel über Verzerrung durch KI
Warum macht die KI das?

Appel: Das entsteht durch ihre Trainingsdaten und spiegelt damit auch ein Stück Medienrealität wider. Das Zweite ist: Der KI fehlt so etwas wie gesunder Menschenverstand, der mit der Realität abgleicht und, wo nötig, korrigiert. Das kann die KI nicht, sie kann nicht reflektieren und verwendet das vermeintlich Typische. Das vielfach Untypische fällt durchs Raster. Das ist keine bewusste Manipulation, schafft aber ein schiefes Bild.

Ist das den Nutzerinnen und Nutzern bewusst?

Appel: Das ist eine spannende Frage! Wir versuchen, mit unserem neuen Forschungsprojekt ab März mehr dazu herauszufinden und befragen verschiedene Nutzergruppen: Das sind professionelle Nutzer generativer KI wie Journalisten und Privatleute, die KI mehr oder weniger einsetzen. Und Leute ohne ganz eigene KI-Erfahrung, die nur gelegentlich auf Nachrichten oder Medien stoßen, die mit KI erstellt wurden. Neben ausführlichen Interviews und Experimenten planen wir eine Umfrage mit über 1000 Personen.

Worum geht es Ihnen bei Ihrer Studie?

Appel: Neben grundlagenwissenschaftlichen Erkenntnissen wollen wir letztlich auch Informationsmaterial und einfach Trainings entwickeln, um Leute zu sensibilisieren. Anders als Informatiker schrauben wir nicht an Algorithmen, sondern wollen den Menschen bewusst machen: Die KI trägt nicht automatisch dafür Sorge, dass alle Gruppen gleichberechtigt repräsentiert sind und ausgewogen dargestellt werden.

Warum ist die erwähnte Verzerrung durch KI so problematisch?

Appel: Sie müssen sehen, dass klischeehafte Darstellungen das Fühlen und Denken von Menschen beeinflussen. Insofern hat das eine gesellschaftliche Relevanz.

Was würden Sie generell im Umgang mit KI raten?

Appel: Meine Empfehlung ist: Kein falsches Vertrauen! KI ist sehr hilfreich, aber man kann der KI nicht in einem Maße trauen wie menschlichen Expertinnen und Experten. Oder wie Wikipedia. Dort ist ein Qualitätsprozess hinterlegt, da werden Quellen geprüft, da wird korrigiert. Bei KI ist das im Moment nicht der Fall. ChatGPT & Co. halluzinieren Quellen, das ist höchst problematisch – gerade für Schülerinnen oder Schüler oder Studierende. Kontrolle ist wichtig.

Weil auch die Folgen erheblich sein können...

Appel: Zum einen kann das peinlich werden – wenn Sie mit einer falschen KI-Information am Stammtisch oder in einem Online-Forum prahlen und sich das Ganze dann als unwahr herausstellt. Im beruflichen Kontext können die Folgen gravierend sein. Wenn ein Chef merkt, dass jemand mit breiter Brust falsche Dinge kommuniziert und sein Handeln darauf aufbaut, kommt das sicher nicht gut an. Also Vorsicht, denn KI produziert zuweilen Bullshit.

 
Themen & Autoren / Autorinnen
Würzburg
Andreas Jungbauer
Minderheiten
Professoren
Universität Würzburg
Wikipedia
Lädt

Damit Sie Schlagwörter zu "Meine Themen" hinzufügen können, müssen Sie sich anmelden.

Anmelden Jetzt registrieren

Das folgende Schlagwort zu „Meine Themen“ hinzufügen:

Sie haben bereits von 50 Themen gewählt

bearbeiten

Sie folgen diesem Thema bereits.

entfernen
Kommentare
Aktuellste
Älteste
Top