
Ob im Privaten oder beruflich: Immer häufiger kommt im Alltag Künstliche Intelligenz (KI) für die Erstellung von Texten oder die Beantwortung von Fragen zum Einsatz. Doch wie verlässlich und vor allem wie objektiv sind die maschinellen Helfer? Wie beeinflusst uns KI durch Vorurteile und Klischees? An der Uni Würzburg untersucht dies Prof. Markus Appel, Leiter des Lehrstuhls für Kommunikationspsychologie und Neue Medien, mit einem neuen Forschungsprojekt.
Worum es darin geht und welche Folgen KI haben kann, erklärt der 51-jährige Experte im Interview.
Prof. Markus Appel: Ja, viele Leute scheinen das zu denken. Fälschlicherweise. Natürlich kommt es immer auf die konkrete Anwendung oder Frage an. Aber es gibt häufig einen "algorithmic bias", also eine Darstellungsverzerrung in Fragen von Geschlecht, Repräsentation oder Stereotypen.
Appel: Das kann jeder selbst ausprobieren. Bitten Sie doch ChatGPT um die Spielernamen einer fiktiven Fußballmannschaft in der Kreisliga Würzburg. Da bekommen Sie eine Liste mit Namen wie Ben Schneider, Tilman Vogel und so weiter. Da wird aber typischerweise kein Spielername genannt, der auf einen Migrationshintergrund hindeutet. Dabei ist der Anteil im Amateur- und Profifußball gar nicht gering. ChatGPT ignoriert das. Das heißt, es kann passieren, dass bestimmte Personengruppen nicht dargestellt werden.
Appel: Es werden zudem Klischees reproduziert. Beispiel: Wenn Sie die KI nach Bildern von Lehrkräften vor einer Schulklasse fragen, lächeln die weiblichen Lehrkräfte in der Regel häufiger als die männlichen. Die Lehrerin ist milde, der Lehrer ist streng. Man weiß aus Studien, dass KI-Modelle Frauen und Minderheiten oft unausgewogen darstellen. KI ist anfällig dafür, stereotype Weltbilder zu reproduzieren.
Appel: Das entsteht durch ihre Trainingsdaten und spiegelt damit auch ein Stück Medienrealität wider. Das Zweite ist: Der KI fehlt so etwas wie gesunder Menschenverstand, der mit der Realität abgleicht und, wo nötig, korrigiert. Das kann die KI nicht, sie kann nicht reflektieren und verwendet das vermeintlich Typische. Das vielfach Untypische fällt durchs Raster. Das ist keine bewusste Manipulation, schafft aber ein schiefes Bild.
Appel: Das ist eine spannende Frage! Wir versuchen, mit unserem neuen Forschungsprojekt ab März mehr dazu herauszufinden und befragen verschiedene Nutzergruppen: Das sind professionelle Nutzer generativer KI wie Journalisten und Privatleute, die KI mehr oder weniger einsetzen. Und Leute ohne ganz eigene KI-Erfahrung, die nur gelegentlich auf Nachrichten oder Medien stoßen, die mit KI erstellt wurden. Neben ausführlichen Interviews und Experimenten planen wir eine Umfrage mit über 1000 Personen.
Appel: Neben grundlagenwissenschaftlichen Erkenntnissen wollen wir letztlich auch Informationsmaterial und einfach Trainings entwickeln, um Leute zu sensibilisieren. Anders als Informatiker schrauben wir nicht an Algorithmen, sondern wollen den Menschen bewusst machen: Die KI trägt nicht automatisch dafür Sorge, dass alle Gruppen gleichberechtigt repräsentiert sind und ausgewogen dargestellt werden.
Appel: Sie müssen sehen, dass klischeehafte Darstellungen das Fühlen und Denken von Menschen beeinflussen. Insofern hat das eine gesellschaftliche Relevanz.
Appel: Meine Empfehlung ist: Kein falsches Vertrauen! KI ist sehr hilfreich, aber man kann der KI nicht in einem Maße trauen wie menschlichen Expertinnen und Experten. Oder wie Wikipedia. Dort ist ein Qualitätsprozess hinterlegt, da werden Quellen geprüft, da wird korrigiert. Bei KI ist das im Moment nicht der Fall. ChatGPT & Co. halluzinieren Quellen, das ist höchst problematisch – gerade für Schülerinnen oder Schüler oder Studierende. Kontrolle ist wichtig.
Appel: Zum einen kann das peinlich werden – wenn Sie mit einer falschen KI-Information am Stammtisch oder in einem Online-Forum prahlen und sich das Ganze dann als unwahr herausstellt. Im beruflichen Kontext können die Folgen gravierend sein. Wenn ein Chef merkt, dass jemand mit breiter Brust falsche Dinge kommuniziert und sein Handeln darauf aufbaut, kommt das sicher nicht gut an. Also Vorsicht, denn KI produziert zuweilen Bullshit.