Die Fähigkeiten der künstlichen Intelligenz nehmen exponentiell zu, wobei KI jetzt in Branchen von der Werbung bis zur medizinischen Forschung eingesetzt wird. Der Einsatz von KI in sensibleren Bereichen wie Gesichtserkennungssoftware, Einstellungsalgorithmen und Gesundheitsversorgung hat eine Debatte über Voreingenommenheit und Fairness ausgelöst.

Bias ist eine gut erforschte Facette der menschlichen Psychologie. Die Forschung deckt regelmäßig unsere unbewussten Vorlieben und Vorurteile auf, und jetzt sehen wir, dass KI einige dieser Vorurteile in ihren Algorithmen widerspiegelt.

Wie also wird künstliche Intelligenz voreingenommen? Und warum ist das wichtig?

Wie wird KI voreingenommen?

Der Einfachheit halber beziehen wir uns in diesem Artikel auf Maschinelles Lernen und Deep Learning Algorithmen als KI-Algorithmen oder -Systeme.

Forscher und Entwickler können auf zwei Arten Verzerrungen in KI-Systeme einbringen.

Erstens können die kognitiven Verzerrungen von Forschern versehentlich in Algorithmen des maschinellen Lernens eingebettet werden. Kognitive Verzerrungen sind unbewusste menschliche Wahrnehmungen, die beeinflussen können, wie Menschen Entscheidungen treffen. Dies wird zu einem wichtigen Problem, wenn die Vorurteile Personen oder Personengruppen betreffen und diesen Personen schaden können.

instagram viewer

Diese Verzerrungen können direkt, aber versehentlich eingeführt werden, oder Forscher trainieren die KI an Datensätzen, die selbst von Verzerrungen betroffen waren. Beispielsweise könnte eine Gesichtserkennungs-KI mit einem Datensatz trainiert werden, der nur hellhäutige Gesichter enthält. In diesem Fall ist die KI bei hellhäutigen Gesichtern besser als bei dunklen. Diese Form des KI-Bias wird als negatives Erbe bezeichnet.

Zweitens können Verzerrungen auftreten, wenn die KI mit unvollständigen Datensätzen trainiert wird. Wenn eine KI beispielsweise auf einem Datensatz trainiert wird, der nur Informatiker enthält, repräsentiert sie nicht die gesamte Bevölkerung. Dies führt zu Algorithmen, die keine genauen Vorhersagen liefern.

Beispiele für KI-Bias in der realen Welt

Es gab mehrere aktuelle, gut berichtete Beispiele für KI-Bias, die veranschaulichen die Gefahr zuzulassen, dass sich diese Vorurteile einschleichen.

Priorisierung im Gesundheitswesen in den USA

Im Jahr 2019 wurde ein Algorithmus für maschinelles Lernen entwickelt, der Krankenhäuser und Versicherungsunternehmen dabei helfen soll, herauszufinden, welche Patienten am meisten von bestimmten Gesundheitsprogrammen profitieren würden. Basierend auf einer Datenbank mit rund 200 Millionen Menschen bevorzugte der Algorithmus weiße Patienten gegenüber schwarzen Patienten.

Es wurde festgestellt, dass dies auf eine fehlerhafte Annahme im Algorithmus bezüglich der unterschiedlichen Gesundheitskosten zwischen Schwarzen und Weißen zurückzuführen war, und der Bias wurde schließlich um 80% reduziert.

KOMPAS

Das Correctional Offender Management Profiling for Alternative Sanctions oder COMPAS war ein KI-Algorithmus, der entwickelt wurde, um vorherzusagen, ob bestimmte Personen erneut straffällig werden. Der Algorithmus erzeugte bei schwarzen Straftätern doppelt so viele False Positives wie bei weißen Straftätern. In diesem Fall waren sowohl der Datensatz als auch das Modell fehlerhaft, was zu starken Verzerrungen führte.

Amazonas

Im Jahr 2015 wurde festgestellt, dass der Einstellungsalgorithmus, den Amazon verwendet, um die Eignung von Bewerbern zu bestimmen, Männer gegenüber Frauen stark bevorzugt. Dies lag daran, dass der Datensatz fast ausschließlich Männer und deren Lebensläufe enthielt, da die meisten Amazon-Mitarbeiter männlich sind.

So stoppen Sie KI-Bias

KI revolutioniert bereits die Art und Weise, wie wir übergreifend arbeiten jede Branche. Es ist weniger wünschenswert, dass voreingenommene Systeme sensible Entscheidungsprozesse kontrollieren. Sie mindert bestenfalls die Qualität der KI-basierten Forschung. Im schlimmsten Fall schädigt es aktiv Minderheitengruppen.

Es gibt Beispiele für KI-Algorithmen, die bereits verwendet werden, um unterstützen die menschliche Entscheidungsfindung indem die Auswirkungen menschlicher kognitiver Verzerrungen verringert werden. Aufgrund der Art und Weise, wie maschinelle Lernalgorithmen trainiert werden, können sie genauer und weniger voreingenommen sein als Menschen in derselben Position, was zu einer gerechteren Entscheidungsfindung führt.

Aber wie wir gezeigt haben, ist auch das Gegenteil der Fall. Die Risiken, dass menschliche Vorurteile in die KI hineingekocht und verstärkt werden, können einige der möglichen Vorteile überwiegen.

Am Ende des Tages, KI ist nur so gut wie die Daten, mit denen sie trainiert wird. Die Entwicklung unverzerrter Algorithmen erfordert eine umfassende und gründliche Voranalyse der Datensätze, um sicherzustellen, dass die Daten frei von impliziten Verzerrungen sind. Das ist schwieriger als es klingt, weil so viele unserer Vorurteile unbewusst und oft schwer zu erkennen sind.

Herausforderungen bei der Verhinderung von KI-Bias

Bei der Entwicklung von KI-Systemen muss jeder Schritt auf sein Potenzial geprüft werden, Verzerrungen in den Algorithmus einzubetten. Einer der Hauptfaktoren bei der Vermeidung von Bias besteht darin, sicherzustellen, dass Fairness und nicht Bias in den Algorithmus „gekocht“ wird.

Fairness definieren

Fairness ist ein relativ schwer zu definierender Begriff. Tatsächlich ist es eine Debatte, die nie zu einem Konsens geführt hat. Erschwerend kommt hinzu, dass bei der Entwicklung von KI-Systemen der Begriff der Fairness mathematisch definiert werden muss.

Würde Fairness beispielsweise im Hinblick auf den Einstellungsalgorithmus von Amazon wie eine perfekte 50/50-Aufteilung von männlichen zu weiblichen Arbeitnehmern aussehen? Oder ein anderes Verhältnis?

Bestimmung der Funktion

Der erste Schritt in der KI-Entwicklung besteht darin, genau zu bestimmen, was damit erreicht werden soll. Bei Verwendung des COMPAS-Beispiels würde der Algorithmus die Wahrscheinlichkeit von Rückfällen von Kriminellen vorhersagen. Dann müssen klare Dateneingaben bestimmt werden, damit der Algorithmus funktioniert. Dazu kann es erforderlich sein, wichtige Variablen zu definieren, wie die Zahl der früheren Straftaten oder die Art der begangenen Straftaten.

Die richtige Definition dieser Variablen ist ein schwieriger, aber wichtiger Schritt, um die Fairness des Algorithmus zu gewährleisten.

Den Datensatz erstellen

Wie bereits erwähnt, sind unvollständige, nicht repräsentative oder verzerrte Daten eine der Hauptursachen für KI-Bias. Wie bei der Gesichtserkennungs-KI müssen die Eingabedaten vor dem maschinellen Lernprozess gründlich auf Verzerrungen, Angemessenheit und Vollständigkeit überprüft werden.

Auswählen von Attributen

In den Algorithmen können bestimmte Attribute berücksichtigt werden oder nicht. Zu den Attributen können Geschlecht, Rasse oder Bildung gehören – im Grunde alles, was für die Aufgabe des Algorithmus wichtig sein kann. Je nachdem, welche Attribute ausgewählt werden, können die Vorhersagegenauigkeit und der Bias des Algorithmus stark beeinträchtigt werden. Das Problem ist, dass es sehr schwierig ist zu messen, wie voreingenommen ein Algorithmus ist.

AI Bias ist nicht hier, um zu bleiben

KI-Bias tritt auf, wenn Algorithmen aufgrund verzerrter Eingaben verzerrte oder ungenaue Vorhersagen treffen. Sie tritt auf, wenn während der Entwicklung und des Trainings des Algorithmus verzerrte oder unvollständige Daten reflektiert oder verstärkt werden.

Die gute Nachricht ist, dass wir mit zunehmender Finanzierung der KI-Forschung wahrscheinlich neue Methoden sehen werden, um KI-Bias zu reduzieren und sogar zu beseitigen.

Email
5 gängige Mythen über künstliche Intelligenz, die nicht wahr sind

Lassen Sie uns einige verbreitete Unwahrheiten im Zusammenhang mit KI klarstellen.

Weiter lesen

Verwandte Themen
  • Technologie erklärt
  • Künstliche Intelligenz
  • Maschinelles Lernen
Über den Autor
Jake Harfield (6 Artikel veröffentlicht)

Jake Harfield ist ein freiberuflicher Autor mit Sitz in Perth, Australien. Wenn er nicht gerade schreibt, ist er normalerweise draußen im Busch und fotografiert die einheimische Tierwelt. Sie können ihn unter www.jakeharfield.com besuchen

Mehr von Jake Harfield

Abonnieren Sie unseren Newsletter

Abonnieren Sie unseren Newsletter für technische Tipps, Rezensionen, kostenlose E-Books und exklusive Angebote!

Noch ein Schritt…!

Bitte bestätigen Sie Ihre E-Mail-Adresse in der E-Mail, die wir Ihnen gerade gesendet haben.

.