97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Können Algorithmusverzerrungen uns helfen, unsere eigenen zu erkennen? – MJRBJC
KI-Algorithmus

Bildnachweis: Pixabay/CC0 Public Domain

Algorithmen sollten unser Leben einfacher und gerechter machen: Sie sollten uns helfen, die besten Kandidaten zu finden, Richtern helfen, Risiken bei Kautions- und Kautionsentscheidungen unparteiisch einzuschätzen, und sicherstellen, dass die Gesundheitsversorgung den Patienten zur Verfügung gestellt wird, die sie am dringendsten benötigen. Aber wir wissen jetzt, dass Algorithmen genauso voreingenommen sein können wie die menschlichen Entscheidungsträger, die sie informieren und ersetzen.

Was wäre, wenn das keine schlechte Sache wäre?

Eine neue Studie unter der Leitung von Carey Morewedge, Professor für Marketing an der Questrom School of Business der Boston University und Everett W. Lord Distinguished Scholar, ergab, dass Menschen ihre Vorurteile eher in den Entscheidungen von Algorithmen als in ihren eigenen erkennen, selbst wenn diese Entscheidungen dieselben sind. sogar. Die Studie, veröffentlicht in der Verfahren der Nationalen Akademie der Wissenschaftenschlägt Möglichkeiten vor, wie Bewusstsein menschlichen Entscheidungsträgern helfen könnte, ihre Vorurteile zu erkennen und zu korrigieren.

„Ein gesellschaftliches Problem besteht darin, dass Algorithmen lernen und in großem Umfang Voreingenommenheit in die menschlichen Entscheidungen einbringen, auf die sie trainiert wurden“, sagt Morewedge, der auch die Marketingabteilung von Questrom leitet. Zum Beispiel: Im Jahr 2015 testete Amazon einen Algorithmus (und gab ihn schnell wieder auf), der seinen Personalmanagern dabei helfen sollte, Kandidaten zu filtern. Sie fanden heraus, dass das Programm Lebensläufe, die angeblich von männlichen Bewerbern stammten, verbesserte und diejenigen von weiblichen Bewerbern abwertete, ein klarer Fall von geschlechtsspezifischer Voreingenommenheit.

Doch im selben Jahr waren nur 39 % der Amazon-Belegschaft Frauen. Wenn der Algorithmus anhand der vorhandenen Einstellungsdaten von Amazon trainiert worden wäre, wäre es kein Wunder, dass er männliche Kandidaten priorisiert hätte – Amazon hatte dies bereits getan. Wenn sein Algorithmus eine geschlechtsspezifische Voreingenommenheit enthielt, „liegt das daran, dass Amazon-Manager bei ihren Einstellungsentscheidungen voreingenommen waren“, erklärt Morewedge.

„Algorithmen können menschliche Vorurteile kodifizieren und verstärken, sie offenbaren aber auch die strukturellen Vorurteile unserer Gesellschaft“, sagt er. „Viele Vorurteile können nicht auf individueller Ebene beobachtet werden. Es ist schwierig, Vorurteile beispielsweise bei einer einzelnen Einstellungsentscheidung nachzuweisen. Aber wenn wir Entscheidungen innerhalb und zwischen Menschen addieren, wie wir es bei der Entwicklung von Algorithmen tun, kann dies strukturelle Vorurteile aufdecken.“ in unseren Systemen und Organisationen.

Morewedge und ihre Mitarbeiter Begüm Çeliktutan und Romain Cadario, beide von der Erasmus-Universität in den Niederlanden, entwarfen eine Reihe von Experimenten, die darauf abzielten, die sozialen Vorurteile der Menschen (einschließlich Rassismus, Sexismus und Altersdiskriminierung) zu entmystifizieren.

Anschließend verglich das Team die Erkenntnis der Forschungsteilnehmer, wie diese Vorurteile ihre eigenen Entscheidungen beeinflussten, mit Entscheidungen, die von einem Algorithmus getroffen wurden. In den Experimenten sahen die Teilnehmer teilweise die Entscheidungen realer Algorithmen. Aber es gab einen Haken: Manchmal waren die den Algorithmen zugeschriebenen Entscheidungen tatsächlich verschleierte Entscheidungen der Teilnehmer.

Insgesamt sahen die Teilnehmer eher Voreingenommenheit bei Entscheidungen, von denen sie glaubten, dass sie von Algorithmen stammten, als bei ihren eigenen Entscheidungen. Die Teilnehmer sahen auch in den Entscheidungen der Algorithmen eine ebenso große Voreingenommenheit wie in denen anderer Menschen. (Menschen sind im Allgemeinen besser darin, Voreingenommenheit bei anderen zu erkennen als bei sich selbst, ein Phänomen, das als „Blinder Fleck der Voreingenommenheit“ bezeichnet wird.) Die Wahrscheinlichkeit, dass die Teilnehmer diese Entscheidungen nachträglich korrigierten, ist ein entscheidender Schritt zur Minimierung von Vorurteilen Zukunft.

Algorithmen beseitigen den blinden Fleck der Voreingenommenheit

Die Forscher führten Gruppen von insgesamt mehr als 6.000 Teilnehmern durch neun Experimente. Im ersten Schritt bewerteten die Teilnehmer eine Reihe von Airbnb-Inseraten, die einige Informationen zu jedem Inserat enthielten: seine durchschnittliche Sternebewertung (auf einer Skala von 1 bis 5) und den Namen des Gastgebers. Die Forscher ordneten diese fiktiven Einträge Gastgebern zu, deren Namen „eindeutig Afroamerikaner oder Weiße“ waren, basierend auf früheren Untersuchungen, die rassistische Vorurteile identifizierten, heißt es in der Studie. Die Teilnehmer bewerteten ihre Wahrscheinlichkeit, jede Unterkunft zu mieten.

In der zweiten Hälfte des Experiments wurden die Teilnehmer über ein Forschungsergebnis informiert, das erklärt, wie die Rasse des Gastgebers die Bewertungen beeinflussen könnte. Als nächstes zeigten die Forscher den Teilnehmern eine Reihe von Bewertungen und baten sie, (auf einer Skala von 1 bis 7) die Wahrscheinlichkeit einzuschätzen, dass Voreingenommenheit die Bewertungen beeinflusste.

Die Teilnehmer sahen entweder ihre eigene Bewertung zurückgespiegelt, ihre eigene Bewertung unter dem Deckmantel eines Algorithmus, ihre eigene Bewertung unter dem Deckmantel der jemand anderen oder eine tatsächliche Bewertung eines Algorithmus basierend auf ihren Präferenzen.

Die Forscher wiederholten diesen Aufbau mehrmals und testeten die Profile von Lyft-Fahrern und Airbnb-Gastgebern auf Vorurteile in Bezug auf Rasse, Geschlecht, Alter und Attraktivität. Die Ergebnisse waren jedes Mal konsistent. Teilnehmer, die glaubten, die Bewertungen eines Algorithmus oder einer anderen Person gesehen zu haben (unabhängig davon, ob dies tatsächlich der Fall war oder nicht), nahmen eher eine Verzerrung in den Ergebnissen wahr.

Morewedge führt dies auf die unterschiedlichen Beweise zurück, die wir verwenden, um Voreingenommenheit bei anderen und Voreingenommenheit bei uns selbst zu beurteilen. Da wir Einblick in unseren eigenen Denkprozess haben, sagt er, ist es wahrscheinlicher, dass wir unserem Denken nachgehen und entscheiden, dass es nicht voreingenommen war und vielleicht von einem anderen Faktor bestimmt wurde, der unsere Entscheidungen beeinflusst hat. Wenn wir jedoch die Entscheidungen anderer Menschen analysieren, müssen wir nur das Ergebnis beurteilen.

„Nehmen wir an, Sie organisieren ein Rednerpanel für eine Veranstaltung“, sagt Morewedge. „Wenn alle diese Redner Männer wären, könnte man sagen, dass das Ergebnis nicht das Ergebnis einer geschlechtsspezifischen Voreingenommenheit ist, weil man bei der Einladung dieser Redner nicht einmal über das Geschlecht nachgedacht hat. Aber wenn man bei dieser Veranstaltung wäre und eine Diskussionsrunde gesehen hätte Da es sich bei allen „männlichen Sprechern“ eher um den Schluss handelt, dass bei der Auswahl eine geschlechtsspezifische Voreingenommenheit vorlag.

Tatsächlich fanden die Forscher in einem ihrer Experimente heraus, dass Teilnehmer, die anfälliger für diesen blinden Fleck der Voreingenommenheit waren, auch eher Voreingenommenheit bei Entscheidungen sahen, die auf Algorithmen oder andere zurückgeführt wurden, als bei ihren eigenen Entscheidungen. In einem anderen Experiment fanden sie heraus, dass Menschen ihre eigenen Entscheidungen eher von relativ neutralen oder vernünftigen Faktoren wie der Sternebewertung eines Airbnb-Gastgebers beeinflusst sehen, als von einer voreingenommenen Voreingenommenheit wie der Rasse, die möglicherweise darauf zurückzuführen ist, dass sie zugegeben haben, sie zu bevorzugen Eine Fünf-Sterne-Bewertung Das Verleihen von Sternen gefährdet nicht so sehr das Selbstwertgefühl oder die Art und Weise, wie andere uns wahrnehmen, schlägt Morewedge vor.

Algorithmen als Spiegel: Menschliche Vorurteile erkennen und korrigieren

Im letzten Experiment der Forscher gaben die Forscher den Teilnehmern die Möglichkeit, Verzerrungen in ihren Bewertungen oder in den Bewertungen eines Algorithmus (echt oder nicht) zu korrigieren. Es war wahrscheinlicher, dass Menschen die Entscheidungen des Algorithmus korrigierten, was die tatsächliche Verzerrung seiner Bewertungen verringerte.

Dies sei ein entscheidender Schritt für Morewedge und seine Kollegen, sagt er. Für jeden, der motiviert ist, Vorurteile abzubauen, ist es der erste Schritt, sie erkennen zu können. Ihre Forschung zeigt, dass Algorithmen als Spiegel verwendet werden können, um Vorurteile zu erkennen, selbst wenn Menschen sie selbst nicht erkennen können.

„Im Moment halte ich die Literatur zu algorithmischer Verzerrung für düster“, sagt Morewedge. „In vielen Fällen heißt es, dass wir statistische Methoden entwickeln müssen, um Voreingenommenheit in Algorithmen zu reduzieren. Aber ein Teil des Problems besteht darin, dass Voreingenommenheit von Menschen kommt. Wir sollten daran arbeiten, Algorithmen zu verbessern, aber wir sollten auch daran arbeiten, unsere Voreingenommenheit zu verringern.“

„Das Spannende an dieser Arbeit ist, dass sie zeigt, dass Algorithmen menschliche Vorurteile kodifizieren oder verstärken können, dass Algorithmen aber auch Werkzeuge sein können, die Menschen dabei helfen, ihre eigenen Vorurteile besser zu erkennen und sie zu korrigieren“, sagte er. „Algorithmen sind ein zweischneidiges Schwert. Sie können ein Werkzeug sein, das unsere schlimmsten Tendenzen verstärkt. Und Algorithmen können ein Werkzeug sein, das uns helfen kann, uns zu verbessern.“

Mehr Informationen:
Carey K. Morewedge et al.: Menschen sehen mehr von ihren Vorurteilen in Algorithmen, Verfahren der Nationalen Akademie der Wissenschaften (2024). DOI: 10.1073/pnas.2317602121. doi.org/10.1073/pnas.2317602121

Zur Verfügung gestellt von der Boston University

Zitat: Können Algorithmusverzerrungen uns helfen, unsere eigenen zu erkennen? (9. April 2024), abgerufen am 9. April 2024 von https://phys.org/news/2024-04-bias-algorithms.html

Dieses Dokument unterliegt dem Urheberrecht. Abgesehen von der angemessenen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient lediglich der Information.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

302 Found

302

Found

The document has been temporarily moved.