Artificial Intelligence

KI lernt vom Menschen – auch Vorurteile

Maschinelles Lernen ist auf dem Vormarsch. Eine US-Studie aber gibt zu denken: Sie zeigt, dass die künstlichen Systeme auch die Vorurteile der menschlichen Autoren übernehmen.

26.04.2017
Gehirn Gedächtnis Künstliche Intelligenz
Eine Studie zeigt, dass die künstlichen Systeme auch die Vorurteile der menschlichen Autoren übernehmen. (Grafik: Shutterstock)

Die Wissenschaftler der renommierten Universität Princeton führten für ihre Studie einen Test aus der Psychologie durch, der Vorurteile ans Licht bringen soll. Proband war aber kein Mensch, sondern ein Algorithmus, berichtet unter anderem das Wissensmagazin scinexx.de . Das System lernte anhand von Wortverknüpfungen aus Texten im Internet. "Maschinelles Lernen ist ein Mittel, um künstliche Intelligenz abzuleiten, indem man Muster in vorhandenen Daten entdeckt", schreiben die Forscher.

Allein, die KI ist manchmal auch nicht schlauer als die Menschen, die die Texte geschrieben haben. Die Studie zeigt nämlich, dass das Programm die impliziten oder expliziten Vorurteile der Autoren ebenfalls übernahm. Blumen und Musikinstrumente wurden beispielsweise eher mit positiven Assoziationen in Verbindung gebracht, Insekten und Waffen eher mit negativen. Vornamen, die unter Afroamerikanern in den USA häufig sind, beurteilte der Algorithmus als eher unangenehm, übliche Vornamen von Weißen eher als angenehm. Weibliche Begriffe wie Frau und Mädchen wurden eher mit Künsten, männliche eher mit Mathematik in Verbindung gebracht. Die Wissenschaftler aus Princeton schließen daraus, dass die Auswahl der Datensätze, mit denen KI maschinell lernt, ganz entscheidend ist.

Artificial Intelligence Deep LearningCognitive Computing RSS Feed abonnieren