Algorithmen sind ein wesentlicher Bestandteil des modernen Lebens. Menschen verlassen sich auf algorithmische Empfehlungen, um umfangreiche Kataloge zu durchsuchen und die besten Filme, Wegbeschreibungen, Informationen, Produkte, Personen und Investitionen zu finden. Da Menschen Algorithmen für ihre Entscheidungen trainieren – beispielsweise Algorithmen, die Empfehlungen für E-Commerce- und Social-Media-Websites abgeben – lernen und kodifizieren die Algorithmen menschliche Vorurteile.

Algorithmische Empfehlungen weisen eine Tendenz zu populären Entscheidungen und Informationen auf, die Empörung hervorrufen, wie etwa parteiische Nachrichten. Auf gesellschaftlicher Ebene verewigen und verstärken algorithmische Vorurteile strukturelle Rassenvorurteile im Justizsystem, geschlechtsspezifische Vorurteile bei von Unternehmen eingestellten Personen und Vermögensungleichheit in der Stadtentwicklung.

Algorithmische Vorurteile können auch verwendet werden, um menschliche Vorurteile zu reduzieren. Algorithmen können verborgene strukturelle Vorurteile in Organisationen aufdecken. In einem in den Proceedings of the National Academy of Science veröffentlichten Artikel fanden meine Kollegen und ich heraus, dass algorithmische Vorurteile Menschen dabei helfen können, ihre Vorurteile besser zu erkennen und zu korrigieren.

Voreingenommenheit im Spiegel

In neun Experimenten haben Begum Celikitutan, Romain Cadario und ich die Studienteilnehmer gebeten, Uber-Fahrer oder Airbnb-Inserate auf der Grundlage ihrer Fahrkünste, ihrer Zuverlässigkeit oder der Wahrscheinlichkeit einer Einstellung zu bewerten. Wir gaben den Teilnehmern relevante Details, wie die Anzahl der von ihnen unternommenen Reisen, eine Beschreibung der Immobilie oder eine Sternebewertung. Wir haben auch irrelevante voreingenommene Informationen hinzugefügt: ein Foto, das das Alter, Geschlecht und die Attraktivität der Fahrer verrät, oder einen Namen, der darauf hindeutet, dass die Moderatoren der Anzeige weiß oder schwarz waren.

Nachdem die Teilnehmer ihre Bewertungen abgeschlossen hatten, zeigten wir ihnen eine von zwei Bewertungszusammenfassungen: eine mit ihren eigenen Bewertungen und eine andere mit den Bewertungen eines auf ihre Bewertungen trainierten Algorithmus. Wir haben die Teilnehmer über die Voreingenommenheit informiert, die diese Bewertungen beeinflusst haben könnte. Airbnb-Gäste mieten beispielsweise seltener bei Gastgebern mit eindeutig afroamerikanischen Namen. Wir haben sie dann gebeten, zu beurteilen, inwieweit diese Voreingenommenheit die abstrakten Ergebnisse beeinflusst hat.

Unabhängig davon, ob die Teilnehmer den voreingenommenen Einfluss von Rasse, Alter, Geschlecht oder Attraktivität bewerteten, sahen sie in den Bewertungen der Algorithmen mehr Voreingenommenheit als sie selbst. Dieser algorithmische Spiegelungseffekt blieb bestehen, unabhängig davon, ob die Teilnehmer die Bewertungen echter Algorithmen beurteilten oder ob wir den Teilnehmern ihre eigenen Bewertungen zeigten und ihnen irreführend mitteilten, dass diese Bewertungen von einem Algorithmus vorgenommen wurden.

Die Teilnehmer sahen bei den Entscheidungen der Algorithmen mehr Voreingenommenheit als bei ihren eigenen Entscheidungen, selbst wenn wir ihnen einen Geldbonus gaben, wenn ihre voreingenommenen Urteile mit denen eines anderen Teilnehmers übereinstimmten, der die gleichen Entscheidungen sah. Die algorithmische Spiegelung blieb auch dann bestehen, wenn die Teilnehmer der marginalisierten Kategorie angehörten – sich beispielsweise als weiblich oder schwarz identifizierten.

Die Forschungsteilnehmer konnten Verzerrungen in den Algorithmen erkennen, die auf ihre eigenen Entscheidungen trainiert wurden, ebenso wie sie Verzerrungen in den Entscheidungen anderer Menschen erkennen konnten. Darüber hinaus sahen die Teilnehmer eher den Einfluss rassistischer Voreingenommenheit in den Entscheidungen der Algorithmen als in ihren eigenen Entscheidungen, aber sie sahen ebenso wahrscheinlich den Einfluss vertretbarer Merkmale wie der Sternebewertung auf die Entscheidungen der Algorithmen und so weiter ihre eigenen Entscheidungen. die Entscheidungen.

Schiefer toter Winkel

Menschen sehen mehr von ihren Voreingenommenheiten in Algorithmen, weil Algorithmen voreingenommene blinde Flecken beseitigen. Es ist einfacher, Voreingenommenheit in den Entscheidungen anderer Menschen zu erkennen als in Ihren eigenen, weil Sie andere Beweise verwenden, um sie zu bewerten.

Wenn Sie die Voreingenommenheit Ihrer Entscheidungen untersuchen, suchen Sie nach Beweisen für eine bewusste Voreingenommenheit – unabhängig davon, ob Sie bei der Entscheidungsfindung an Rasse, Geschlecht, Alter, Status oder andere ungerechtfertigte Merkmale gedacht haben. Sie übersehen und entschuldigen Voreingenommenheit bei Ihren Entscheidungen, weil Sie keinen Zugriff auf die Assoziationsmaschinerie haben, die Ihre intuitiven Urteile antreibt, in der sich Voreingenommenheit oft manifestiert. Sie könnten denken: „Ich habe nicht an ihre Rasse oder ihr Geschlecht gedacht, als ich sie eingestellt habe.“ Ich habe sie ausschließlich aufgrund ihrer Leistung eingestellt.

Wenn Sie die Entscheidungen anderer Personen auf Voreingenommenheit untersuchen, haben Sie keinen Zugriff auf die Prozesse, mit denen sie diese Entscheidungen getroffen haben. Sie untersuchen ihre Entscheidungen also auf Voreingenommenheit, wobei die Voreingenommenheit offensichtlich und schwerer zu entschuldigen ist. Sie könnten zum Beispiel feststellen, dass sie nur weiße Männer eingestellt haben.

Algorithmen beseitigen den blinden Fleck der Voreingenommenheit, weil Sie Algorithmen mehr sehen, wenn Sie andere sehen als sich selbst. Die Entscheidungsprozesse von Algorithmen sind eine Blackbox, ähnlich wie die Gedanken anderer Menschen für Sie unzugänglich sind.

Teilnehmer unserer Studie, die am ehesten den blinden Fleck der Verzerrung erkennen ließen, sahen am ehesten mehr Verzerrungen in den Entscheidungen der Algorithmen als in ihren eigenen Entscheidungen.

Menschen externalisieren auch Vorurteile in Algorithmen. Es ist weniger bedrohlich, Voreingenommenheit in Algorithmen zu erkennen, als Voreingenommenheit in sich selbst zu sehen, selbst wenn die Algorithmen auf Ihre Entscheidungen trainiert werden. Die Leute geben den Algorithmen die Schuld. Algorithmen werden auf menschliche Entscheidungen trainiert, aber die Leute nennen reflexive Voreingenommenheit „algorithmische Voreingenommenheit“.

Korrekturlinse

Unsere Experimente zeigen, dass Menschen ihre Vorurteile auch eher korrigieren, wenn sie sich in Algorithmen widerspiegeln. In einem abschließenden Experiment gaben wir den Teilnehmern die Möglichkeit, die von ihnen ausgewerteten Ergebnisse zu korrigieren. Wir zeigten jedem Teilnehmer seine eigenen Bewertungen, die wir entweder dem Teilnehmer oder einem auf seine Entscheidungen trainierten Algorithmus zuordneten.

Die Wahrscheinlichkeit, dass die Teilnehmer Noten korrigierten, wenn sie einem Algorithmus zugewiesen wurden, war höher, da sie der Meinung waren, dass die Noten stärker voreingenommen seien. Infolgedessen waren die endgültigen korrigierten Noten weniger verzerrt, wenn sie einem Algorithmus zugewiesen wurden.

Algorithmische Vorurteile mit schädlichen Auswirkungen sind gut dokumentiert. Unsere Ergebnisse zeigen, dass algorithmische Vorurteile effektiv ausgenutzt werden können. Der erste Schritt zur Korrektur von Vorurteilen besteht darin, ihren Einfluss und ihre Richtung zu erkennen. Als echte Spiegel, die unsere Vorurteile aufdecken, können Algorithmen unsere Entscheidungsfindung verbessern.

Dieser Artikel wurde von The Conversation erneut veröffentlicht, einer unabhängigen, gemeinnützigen Nachrichtenorganisation, die Ihnen vertrauenswürdige Fakten und Analysen liefert, die Ihnen helfen, unsere komplexe Welt zu verstehen. Es wurde geschrieben von: Carey K. Morewedge, Boston Universität

Erfahren Sie mehr:

Carey K. Morewedge arbeitet nicht für ein Unternehmen oder eine Organisation, die von diesem Artikel profitieren würde, berät sie nicht, besitzt keine Anteile daran und erhält keine Finanzierung von diesen und hat über ihre akademische Anstellung hinaus keine relevanten Verbindungen offengelegt.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *