Bias: Wie objektiv ist KI?
Künstliche Intelligenz (KI) ist im Begriff, unsere Arbeits- und Lebenswelten grundlegend zu transformieren und wird schon bald ein integraler Bestandteil unseres Alltags sein. Trotz ihres Potenzials birgt KI jedoch Risiken. Eine besondere Herausforderung stellen Verzerrungen, Vorurteile und Stereotype dar, die sich aus den Daten ergeben, mit denen die KI trainiert wurde. Diese systemimmanenten Verzerrungen, bekannt als Bias, können in der Folge zu gesellschaftlichen Problemen, wie die Verstärkung von Diskriminierung, sozialen Ungleichheiten, Vorurteile, Sexismus und Rassismus führen. Diese Unterrichtseinheit zielt darauf ab, Schülerinnen und Schüler am Beispiel bildgenerierender KI für Bias zu sensibilisieren, das eigene KI-Nutzungsverhalten zu reflektieren und eine kritische Nutzung zu fördern.
Kompetenzen
Fachkompetenz
Die Lernenden
- identifizieren und analysieren Bias und Diskriminierungsformen in KI-Systemen anhand von realen Beispielen
- verstehen die Auswirkungen von Verzerrungen in KI In Hinblick auf Gesellschaft und sozialer Ungleichheiten
- entwickeln ein Grundverständnis für ethische Prinzipien und Herausforderungen im Kontext künstlicher Intelligenz
Methodenkompetenz
Die Lernenden
- setzen kritische Denkansätze ein, um Vorurteile und Bias in KI-generierten Inhalten zu erkennen und zu hinterfragen
- arbeiten in Kleingruppen, um spezifische Diskriminierungsschwerpunkte zu untersuchen und Lösungsansätze zu erarbeiten
- nutzen digitale Werkzeuge und Plattformen, um KI-Systeme hinsichtlich ihrer Diskriminierungspotenziale zu überprüfen?
Sozialkompetenz
Die Lernenden
- erleben Wertschätzung in der Gruppe
- werden für die Bedürfnisse der anderen sensibilisiert
Selbstkompetenz
Die Lernenden
- fördern durch Gruppenarbeit ihre Kommunikations- und Kooperationsfähigkeit im Austausch über komplexe Themen
- entwickeln Empathie und ein tieferes Verständnis für die Auswirkungen von Diskriminierung in technologiegestützten Systemen
- üben kritisches Reflexionsvermögen und ethisches Urteilsvermögen im Umgang mit Technologie und deren gesellschaftlichen Konsequenzen
- entwickeln Verantwortungsbewusstsein für ihr Handeln und die Gesellschaft
Didaktisch-methodischer Kommentar
KI-Modelle enthalten in der Regel ungleiche Datensätze – also eine ungleiche oder verzerrte Darstellung von Informationen in den Daten. Das kann bedeuten, dass bestimmte Gruppen oder Merkmale über- oder unterrepräsentiert sind, was zu Verzerrungen oder Vorurteilen in den Ergebnissen der KI führen kann. Der vorliegende Unterrichtsentwurf greift die Thematik von Verzerrungen (Bias), Vorurteilen, Sexismus und Diskriminierung in KI-Systemen auf und verfolgt das Ziel, Schülerinnen und Schüler für diese Probleme zu sensibilisieren. Die Lernenden erkennen, wie wichtig es ist, kritisch mit Technologie umzugehen und ethische Fragen in den Vordergrund zu rücken.
Der komplette didaktisch-methodische Kommentar zum Herunterladen:
- Gründe für Bias
- Probleme durch KI-Bias
- Notwendigkeiten und Handlungsempfehlungen
- Lösungsansätze
Die kompletten Hintergrundinformationen zum Herunterladen:
Lehrmaterialien
Mediensammlung
-
Was ist Künstliche Intelligenz?
Im Text werden wichtige KI-Begriffe geklärt und beschrieben, wie KI-Anwendungen funktionieren.
-
Coded Bias – Wie rassistisch ist KI?
Im Video wird die rassistische und sexistische Natur künstlicher Intelligenz enthüllt und die damit verbundenen Bedrohungen für die Gesellschaft aufgezeigt.
-
Wenn KI Fehler macht
Anhand von vier Negaitv-Beispielen wird aufgezeigt, wie Bias in KI-Systemen entstehen kann.
-
Wie Maschinen diskriminieren – Facial Recognition & the Matrix of Domination
Im Video wird gezeigt, wie es bei Gesichtsereknnung zu Diskriminierung kommt.
-
Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz
Stellungnahme des Ethikrates, u. a. zu Diskriminierung und KI (siehe S. 372 ff) – PDF
-
Zu woke? Zu rassistisch? Die Antworten von Chat-GPT sorgen für Kontroversen – und befeuern das Wettrennen um die «wahrheitsgetreueste» KI
Der Artikel thematisiert, wie neutral KI grundsätzlich sein kann.
-
Bias and Fairness in KI-Systemen
Ausführliche Erläuterung der Konzepte und technischen Hintergründe von Bias und Fairness in KI-Systemen.
-
Humans are Biased. Generative AI is even worse
Bias am Beispiel der Bild-KI Stable Diffusion im Kontext der Berufs- und Arbeitswelt.
-
ChatGPT und andere KI-Tools im Unterricht
Der Autor dieser Unterrichtsmaterialien hat eine Webseite mit weiteren Infos rund um KI-Tools und deren Einsatz im schulischen Kontext.