Zum Inhalt

Bias / Diskriminierung

KI-Systeme können auch Bias / Diskriminierung in Bildungseinrichtungen verstärken, indem sie bestehende Ungleichheiten und Vorurteile reproduzieren.

Beschreibung

KI-Systeme wie Large Language Models (LLMs) durchlaufen eine intensive Trainingsphase, die nicht nur die Analyse riesiger Textdatensätze umfasst, sondern auch das gezielte Setzen von Leitplanken durch menschliche Experten, um sicherzustellen, dass die KI angemessene und zuverlässige Antworten liefert. Beide Prozesse können zu Vorurteilen in den Ergebnissen führen, die von geschlechtsspezifischen und rassistischen Vorurteilen bis hin zu Vorurteilen gegenüber bestimmten Ansichten, Ansätzen oder politischen Zugehörigkeiten reichen können (1).

Risikominimierung

Lehrkräfte und alle anderen Benutzer:innen von Large Language Models (LLMs) sollten sich bewusst sein, dass diese Modelle Verzerrungen reproduzieren können, die in den Trainingsdaten vorhanden waren. Dies sollte bei der Interpretation der Ergebnisse (z.B. ChatGPT-Antworten) berücksichtigt werden.


Quellen

  1. Mollick ER, Mollick L. Assigning AI: Seven Approaches for Students, with Prompts [Internet]. Rochester, NY; 2023 [zitiert 28. Juli 2023]. Verfügbar unter: https://papers.ssrn.com/abstract=4475995