Vorurteile in Algorithmen
Künstliche Intelligenz (KI) frisst Berge von Daten aus dem Internet. Doch was, wenn diese Daten voller Vorurteile stecken? Genau davor warnt Bundesfamilienministerin Karin Prien (CDU). Sie befürchtet, dass KI diese diskriminierenden Muster übernimmt und unbewusst weitergibt.
Ein konkretes Beispiel liefert Prien aus dem Arbeitsleben: Werden KI-Systeme zur Vorauswahl von Bewerbungen mit historischen Unternehmensdaten gefüttert, drohen Frauen Nachteile. Wenn in der Vergangenheit beispielsweise nur Männer in Führungspositionen eingestellt oder befördert wurden, lernt die KI genau das. Es droht eine Verstärkung längst existierender Ungleichheiten.
Hohe Hürden für Frauen in der KI-Branche
Die Familienministerin sieht die Antwort nicht allein in strenger Regulierung. Sie pocht auf mehr Transparenz bei den Trainingsdaten und klare Qualitätsstandards. Außerdem seien Prüfmechanismen nötig, um Diskriminierungsrisiken frühzeitig zu erkennen.
Ein weiteres, zentrales Problem sieht Prien in der Unterrepräsentation von Frauen in der KI-Entwicklung selbst. Wenn weniger Frauen an der Entwicklung beteiligt sind, prägen sie laut Prien auch weniger die Fragestellungen und Bewertungsmaßstäbe. Derzeit seien Frauen in technischen Führungspositionen und in der KI-Entwicklung deutlich unterrepräsentiert. Ob hier klassische Gesetzgebung, Selbstverpflichtungen von Unternehmen oder Zertifizierungen greifen können, müsse im Detail diskutiert werden. Es sei essenziell, die Perspektiven von Frauen bei der Entwicklung und dem Einsatz von KI-Systemen ausreichend zu berücksichtigen.
(Mit Material der dts Nachrichtenagentur erstellt)



