#038 Die KI ist voreingenommen
KI-Systeme lernen aus menschlich generierten Daten. Bei Vorurteilen in den Daten reproduziert die KI diese, was zu Verzerrungen und Stereotypen führen kann.
Die KIs wurden auf der Basis von vielen Daten aus dem Internet trainiert. Der Grund dafür liegt nicht in der KI selbst, sondern in der Art und Weise, wie sie entwickelt und trainiert wird. Obwohl die "Trainer" auch auf eine gewisse Unvoreingenommenheit geachtet haben, sind die Ergebnisse der KI dennoch voreingenommen.
Die KI-Systeme lernen aus Daten, die von Menschen generiert und gesammelt wurden. Wenn diese Daten Verzerrungen und Stereotypen enthalten, übernimmt die KI diese und reproduziert sie in ihren Ergebnissen und Vorhersagen. Es ist daher nicht überraschend, dass die Bedenken hinsichtlich einer voreingenommenen KI zunehmen.
Obwohl es schwierig ist, vollkommen neutrale Daten zu gewährleisten, sind sich die Forscher einig, dass mehr Arbeit in die Kontrolle der Verzerrungen in KI-Systemen investiert werden muss. Einige schlagen vor, dass strenge regulatorische Maßnahmen notwendig sind, um den Grad der Voreingenommenheit in Künstlicher Intelligenz einzudämmen, während andere für mehr Transparenz in diesen Systemen plädieren.
Der Artikel "HUMANS ARE BIASED. GENERATIVE AI IS EVEN WORSE" von Bloomberg veranschaulicht dieses sehr eindrucksvoll an Stable Diffusions Text-to-Image Model und den damit generierten Stereotypen bzgl. Rasse und Geschlecht.