97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Algorithmen helfen Menschen, ihre Vorurteile zu erkennen und zu korrigieren, so das Ergebnis einer Studie – MJRBJC

Algorithmen sind ein wesentlicher Bestandteil des modernen Lebens. Menschen verlassen sich auf algorithmische Empfehlungen, um umfangreiche Kataloge zu durchsuchen und die besten Filme, Wegbeschreibungen, Informationen, Produkte, Personen und Investitionen zu finden. Da Menschen Algorithmen für ihre Entscheidungen trainieren – beispielsweise Algorithmen, die Empfehlungen für E-Commerce- und Social-Media-Websites abgeben – lernen und kodifizieren die Algorithmen menschliche Vorurteile.

Algorithmische Empfehlungen weisen eine Tendenz zu populären Entscheidungen und Informationen auf, die Empörung hervorrufen, wie etwa parteiische Nachrichten. Auf gesellschaftlicher Ebene verewigen und verstärken algorithmische Vorurteile strukturelle Rassenvorurteile im Justizsystem, geschlechtsspezifische Vorurteile bei von Unternehmen eingestellten Personen und Vermögensungleichheit in der Stadtentwicklung.

Algorithmische Vorurteile können auch verwendet werden, um menschliche Vorurteile zu reduzieren. Algorithmen können verborgene strukturelle Vorurteile in Organisationen aufdecken. In einem in den Proceedings of the National Academy of Science veröffentlichten Artikel fanden meine Kollegen und ich heraus, dass algorithmische Vorurteile Menschen dabei helfen können, ihre Vorurteile besser zu erkennen und zu korrigieren.

Voreingenommenheit im Spiegel

In neun Experimenten haben Begum Celikitutan, Romain Cadario und ich die Studienteilnehmer gebeten, Uber-Fahrer oder Airbnb-Inserate auf der Grundlage ihrer Fahrkünste, ihrer Zuverlässigkeit oder der Wahrscheinlichkeit einer Einstellung zu bewerten. Wir gaben den Teilnehmern relevante Details, wie die Anzahl der von ihnen unternommenen Reisen, eine Beschreibung der Immobilie oder eine Sternebewertung. Wir haben auch irrelevante voreingenommene Informationen hinzugefügt: ein Foto, das das Alter, Geschlecht und die Attraktivität der Fahrer verrät, oder einen Namen, der darauf hindeutet, dass die Moderatoren der Anzeige weiß oder schwarz waren.

Nachdem die Teilnehmer ihre Bewertungen abgeschlossen hatten, zeigten wir ihnen eine von zwei Bewertungszusammenfassungen: eine mit ihren eigenen Bewertungen und eine andere mit den Bewertungen eines auf ihre Bewertungen trainierten Algorithmus. Wir haben die Teilnehmer über die Voreingenommenheit informiert, die diese Bewertungen beeinflusst haben könnte. Airbnb-Gäste mieten beispielsweise seltener bei Gastgebern mit eindeutig afroamerikanischen Namen. Wir haben sie dann gebeten, zu beurteilen, inwieweit diese Voreingenommenheit die abstrakten Ergebnisse beeinflusst hat.

Unabhängig davon, ob die Teilnehmer den voreingenommenen Einfluss von Rasse, Alter, Geschlecht oder Attraktivität bewerteten, sahen sie in den Bewertungen der Algorithmen mehr Voreingenommenheit als sie selbst. Dieser algorithmische Spiegelungseffekt blieb bestehen, unabhängig davon, ob die Teilnehmer die Bewertungen echter Algorithmen beurteilten oder ob wir den Teilnehmern ihre eigenen Bewertungen zeigten und ihnen irreführend mitteilten, dass diese Bewertungen von einem Algorithmus vorgenommen wurden.

Die Teilnehmer sahen bei den Entscheidungen der Algorithmen mehr Voreingenommenheit als bei ihren eigenen Entscheidungen, selbst wenn wir ihnen einen Geldbonus gaben, wenn ihre voreingenommenen Urteile mit denen eines anderen Teilnehmers übereinstimmten, der die gleichen Entscheidungen sah. Die algorithmische Spiegelung blieb auch dann bestehen, wenn die Teilnehmer der marginalisierten Kategorie angehörten – sich beispielsweise als weiblich oder schwarz identifizierten.

Die Forschungsteilnehmer konnten Verzerrungen in den Algorithmen erkennen, die auf ihre eigenen Entscheidungen trainiert wurden, ebenso wie sie Verzerrungen in den Entscheidungen anderer Menschen erkennen konnten. Darüber hinaus sahen die Teilnehmer eher den Einfluss rassistischer Voreingenommenheit in den Entscheidungen der Algorithmen als in ihren eigenen Entscheidungen, aber sie sahen ebenso wahrscheinlich den Einfluss vertretbarer Merkmale wie der Sternebewertung auf die Entscheidungen der Algorithmen und so weiter ihre eigenen Entscheidungen. die Entscheidungen.

Schiefer toter Winkel

Menschen sehen mehr von ihren Voreingenommenheiten in Algorithmen, weil Algorithmen voreingenommene blinde Flecken beseitigen. Es ist einfacher, Voreingenommenheit in den Entscheidungen anderer Menschen zu erkennen als in Ihren eigenen, weil Sie andere Beweise verwenden, um sie zu bewerten.

Wenn Sie die Voreingenommenheit Ihrer Entscheidungen untersuchen, suchen Sie nach Beweisen für eine bewusste Voreingenommenheit – unabhängig davon, ob Sie bei der Entscheidungsfindung an Rasse, Geschlecht, Alter, Status oder andere ungerechtfertigte Merkmale gedacht haben. Sie übersehen und entschuldigen Voreingenommenheit bei Ihren Entscheidungen, weil Sie keinen Zugriff auf die Assoziationsmaschinerie haben, die Ihre intuitiven Urteile antreibt, in der sich Voreingenommenheit oft manifestiert. Sie könnten denken: „Ich habe nicht an ihre Rasse oder ihr Geschlecht gedacht, als ich sie eingestellt habe.“ Ich habe sie ausschließlich aufgrund ihrer Leistung eingestellt.

Wenn Sie die Entscheidungen anderer Personen auf Voreingenommenheit untersuchen, haben Sie keinen Zugriff auf die Prozesse, mit denen sie diese Entscheidungen getroffen haben. Sie untersuchen ihre Entscheidungen also auf Voreingenommenheit, wobei die Voreingenommenheit offensichtlich und schwerer zu entschuldigen ist. Sie könnten zum Beispiel feststellen, dass sie nur weiße Männer eingestellt haben.

Algorithmen beseitigen den blinden Fleck der Voreingenommenheit, weil Sie Algorithmen mehr sehen, wenn Sie andere sehen als sich selbst. Die Entscheidungsprozesse von Algorithmen sind eine Blackbox, ähnlich wie die Gedanken anderer Menschen für Sie unzugänglich sind.

Teilnehmer unserer Studie, die am ehesten den blinden Fleck der Verzerrung erkennen ließen, sahen am ehesten mehr Verzerrungen in den Entscheidungen der Algorithmen als in ihren eigenen Entscheidungen.

Menschen externalisieren auch Vorurteile in Algorithmen. Es ist weniger bedrohlich, Voreingenommenheit in Algorithmen zu erkennen, als Voreingenommenheit in sich selbst zu sehen, selbst wenn die Algorithmen auf Ihre Entscheidungen trainiert werden. Die Leute geben den Algorithmen die Schuld. Algorithmen werden auf menschliche Entscheidungen trainiert, aber die Leute nennen reflexive Voreingenommenheit „algorithmische Voreingenommenheit“.

Korrekturlinse

Unsere Experimente zeigen, dass Menschen ihre Vorurteile auch eher korrigieren, wenn sie sich in Algorithmen widerspiegeln. In einem abschließenden Experiment gaben wir den Teilnehmern die Möglichkeit, die von ihnen ausgewerteten Ergebnisse zu korrigieren. Wir zeigten jedem Teilnehmer seine eigenen Bewertungen, die wir entweder dem Teilnehmer oder einem auf seine Entscheidungen trainierten Algorithmus zuordneten.

Die Wahrscheinlichkeit, dass die Teilnehmer Noten korrigierten, wenn sie einem Algorithmus zugewiesen wurden, war höher, da sie der Meinung waren, dass die Noten stärker voreingenommen seien. Infolgedessen waren die endgültigen korrigierten Noten weniger verzerrt, wenn sie einem Algorithmus zugewiesen wurden.

Algorithmische Vorurteile mit schädlichen Auswirkungen sind gut dokumentiert. Unsere Ergebnisse zeigen, dass algorithmische Vorurteile effektiv ausgenutzt werden können. Der erste Schritt zur Korrektur von Vorurteilen besteht darin, ihren Einfluss und ihre Richtung zu erkennen. Als echte Spiegel, die unsere Vorurteile aufdecken, können Algorithmen unsere Entscheidungsfindung verbessern.

Dieser Artikel wurde von The Conversation erneut veröffentlicht, einer unabhängigen, gemeinnützigen Nachrichtenorganisation, die Ihnen vertrauenswürdige Fakten und Analysen liefert, die Ihnen helfen, unsere komplexe Welt zu verstehen. Es wurde geschrieben von: Carey K. Morewedge, Boston Universität

Erfahren Sie mehr:

Carey K. Morewedge arbeitet nicht für ein Unternehmen oder eine Organisation, die von diesem Artikel profitieren würde, berät sie nicht, besitzt keine Anteile daran und erhält keine Finanzierung von diesen und hat über ihre akademische Anstellung hinaus keine relevanten Verbindungen offengelegt.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

302 Found

302

Found

The document has been temporarily moved.