97889 64456 72312 47532 85224 72311 99738 05314 18822 88877 83701 91188 72106 98803 83485 70762 67561 00923 55229 06479 57972 59061 74949 93171 14807 03728 86417 14924 55271 76483 09709 80826 48003 69756 41326 33857 90179 16007 50123 74390 32549 30315 44217 63317 75601 80709 41762 62320 18455 61834 28274 17965 11564 40730 97515 38882 00045 18375 34435 87730 65633 86354 42635 03181 37624 00288 29224 98754 64198 42645 13159 80277 57942 84214 09885 11406 37363 27238 16160 82824 82750 03902 45252 98749 86602 85405 74120 11069 70749 63642 54482 33973 81058 25338 11638 53184 38067 75862 58160 05931 81160 94118 63131 11678 37627 13358 15577 41533 20376 02073 54475 97260 40548 91470 84971 47067 00960 20371 54295 32383 70544 08125 72446 96640 07075 16165 30869 08344 20223 85830 11652 84248 58240 18720 83640 74865 63798 26432 11368 91553 98930 40390 63732 07578 52004 83379 91665 87295 27594 70342 33614 00445 56766 74846 32119 67664 51801 34739 44392 32414 80290 43295 50949 32938 59188 82226 64963 12065 07486 96473 17151 41690 05059 80565 72757 89563 68610 87113 78719 74762 26213 13426 23716 54025 70952 73308 30338 98371 80443 39662 15506 33308 53719 47268 57523 71539 98084 43052 68615 92226 35372 86296 82533 08533 12606 77475 19780 50069 42332 94775 84463 97795 86712 89454 36026 27730 87899 25252 69813 38682 Algorithmen könnten dabei helfen, gerichtliche Entscheidungen zu verbessern – MJRBJC
Richter

Bildnachweis: Unsplash/CC0 Public Domain

Ein neues Dokument in der Vierteljährliches Journal of Economics stellt fest, dass die Ersetzung einiger gerichtlicher Entscheidungsfunktionen durch Algorithmen die Ergebnisse für Angeklagte verbessern könnte, indem einige systemische Vorurteile der Richter beseitigt werden.

Entscheidungsträger treffen Folgeentscheidungen auf der Grundlage von Vorhersagen unbekannter Ergebnisse. Insbesondere Richter entscheiden darüber, ob den Angeklagten eine Freilassung auf Kaution gewährt oder die für schuldig befundenen Personen verurteilt werden. Unternehmen nutzen mittlerweile zunehmend auf maschinellem Lernen basierende Modelle, um Entscheidungen mit hohem Risiko zu treffen.

Dem Einsatz solcher Lernmodelle liegen verschiedene Annahmen über menschliches Verhalten zugrunde, die sich in Produktempfehlungen auf Amazon, Spam-Filterung von E-Mails und vorausschauenden Textnachrichten auf dem Telefon widerspiegeln.

Hier entwickelten die Forscher einen statistischen Test einer dieser Verhaltenshypothesen, der darauf abzielte, ob Entscheidungsträger systematische Vorhersagefehler machen, und entwickelten Methoden, um abzuschätzen, wie systematisch ihre Vorhersagen verzerrt sind.

Bei der Analyse des Vorverfahrenssystems von New York City zeigen Untersuchungen, dass ein erheblicher Teil der Richter systematische Fehler bei der Vorhersage des Risikos eines Fehlverhaltens vor dem Verfahren macht, wenn sie die Merkmale des Angeklagten wie Rasse, Alter und früheres Verhalten berücksichtigen.

Für die hier durchgeführte Untersuchung wurden Informationen von New Yorker Richtern verwendet, die quasi zufällig Team-definierten Fällen im zugewiesenen Gerichtssaal zugewiesen werden. In der Studie wurde untersucht, ob die Freilassungsentscheidungen von Richtern (unter anderem) zutreffende Annahmen über das Risiko widerspiegeln, dass ein Angeklagter nicht zur Verhandlung erscheint. Die Studie basierte auf Informationen zu 1.460.462 Fällen in New York City, von denen 758.027 Fälle vor der Verhandlung freigegeben wurden.

In dem hier vorgestellten Artikel wurde ein statistischer Test zur Bestimmung, ob ein Entscheidungsträger systematische Vorhersagefehler macht, abgeleitet und Methoden zur Schätzung der systematischen Verzerrung der Vorhersagen des Entscheidungsträgers bereitgestellt. Der Artikel analysiert die Entscheidungen von New Yorker Richtern zur Freilassung vor Gericht und schätzt, dass mindestens 20 Prozent der Richter angesichts der Merkmale des Angeklagten systematische Fehler bei der Vorhersage des Risikos eines Fehlverhaltens des Angeklagten machen. Motiviert durch diese Analyse schätzte der Forscher hier die Auswirkungen des Ersatzes von Richtern durch algorithmische Entscheidungsregeln ab.

Die Zeitung stellte fest, dass die Entscheidungen von mindestens 32 Prozent der New Yorker Richter nicht mit der tatsächlichen Fähigkeit der Angeklagten, eine bestimmte Kaution zu hinterlegen, und dem tatsächlichen Risiko, dass sie nicht zur Verhandlung erscheinen, vereinbar sind.

Die hier durchgeführte Untersuchung zeigt, dass der mittlere Richter bei Berücksichtigung der Rasse und des Alters der Angeklagten bei etwa 30 Prozent der ihm zugewiesenen Angeklagten systematische Vorhersagefehler macht. Betrachtet man sowohl die Rasse der Angeklagten als auch die Frage, ob dem Angeklagten ein Verbrechen vorgeworfen wird, macht der mittlere Richter systematische Prognosefehler bei etwa 24 % der ihm zugewiesenen Angeklagten.

Während das Papier feststellt, dass die Ersetzung von Richtern durch eine algorithmische Entscheidungsregel mehrdeutige Auswirkungen hat, die vom Ziel des politischen Entscheidungsträgers abhängen (ist das gewünschte Ergebnis, dass mehr Angeklagte zum Prozess erscheinen, oder eines, bei dem weniger Angeklagte im Gefängnis auf ihren Prozess warten?), Es scheint, dass die Ersetzung von Richtern durch eine algorithmische Entscheidungsregel zu einer Verbesserung der Prozessergebnisse um bis zu 20 % führen würde, gemessen an der Rate der Nichterscheinen unter freigelassenen Angeklagten und der Rate der Untersuchungshaft.

„Die Auswirkungen des Ersetzens menschlicher Entscheidungsträger durch Algorithmen hängen vom Kompromiss zwischen dem Menschen ab, der auf der Grundlage der beobachtbaren Informationen, die dem Algorithmus zur Verfügung stehen, systematische Vorhersagefehler macht, und dem Menschen, der nützliche private Informationen beobachtet“, sagte der Hauptautor des Papiers, Ashesh. Rambachan.

„Der ökonometrische Rahmen dieser Arbeit ermöglicht es empirischen Forschern, direkte Beweise für diese konkurrierenden Kräfte zu liefern.“

Mehr Informationen:
Ashesh Rambachan, Identifizierung von Vorhersagefehlern in Beobachtungsdaten, Vierteljährliches Journal of Economics (2024). DOI: 10.1093/qje/qjae013. Academic.oup.com/qje/article-l … /10.1093/qje/qjae013

Bereitgestellt von Oxford University Press

Zitat: Algorithmen könnten dazu beitragen, Gerichtsentscheidungen zu verbessern (28. Mai 2024), abgerufen am 28. Mai 2024 von https://phys.org/news/2024-05-algorithms-judicial-decisions.html

Dieses Dokument unterliegt dem Urheberrecht. Mit Ausnahme der fairen Nutzung für private Studien- oder Forschungszwecke darf kein Teil ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient lediglich der Information.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *

Failed to fetch data from the URL.