Werbung

KI könnte Sie ins Gefängnis schicken: Wie Algorithmen die Gerechtigkeit verändern

Forensische KI ist in die Geschäftsgeheimnisse der Unternehmen gehüllt, die sie herstellen. Einige wollen das ändern.

Canva/Eric James Beyer

Die Vereinigten Staaten haben keinen beneidenswerten Ruf, wenn es um die Strafjustiz geht. Obwohl die Inhaftierungsraten in den letzten Jahren leicht gesunken sind, kann das Land immer noch behaupten, weltweit führend in der Pro-Kopf-Zahl seiner Bürger zu sein, die es hinter Gitter bringt.Nach einigen Schätzungen, etwa 639 von 100.000 Menschen befinden sich in einer Art Gefängnis oder Gefängnis.

Das COVID-19Pandemie hat sicherlich nicht geholfen ist auch wichtig, da die Fallrückstände ein bereits aufgeblähtes System so stark belasten, dass sich die Staatsanwälte in Chicago darauf vorbereiten, Tausende von Fällen auf niedriger Ebene fallen zu lassen, die nicht rechtzeitig vor Gericht gebracht werden können.

Deshalb überrascht es nicht, dass diejenigen, die in diesem Bereich tätig sind, begonnen haben, sich den Wundern der künstlichen Intelligenz zu widmen, um nicht nur gerichtliche Verfahren zu rationalisieren, sondern auch die praktischen und logistischen Belastungen des Systems aktiv zu reduzieren.

Forensische Algorithmen haben in den letzten Jahren einen großen Teil dieser Bemühungen ausgemacht, und sie werden zunehmend auf fast jeden Aspekt des Justizsystems in den USA angewendet.

Fingerabdruck-Matching-Software zielt darauf ab, Verdächtige mit atemberaubender Geschwindigkeit und Präzision korrekt zu identifizieren, Gesichtserkennung hilft Strafverfolgungsbehörden dabei, Personen aufzuspüren, und probabilistische Genotypisierung kann Wunder bewirken, um Ermittler bei der Feststellung zu unterstützen, ob eine genetische Probe von einem Tatort mit einer Person in Verbindung stehtvon Interesse oder nicht.

Es stimmt, dass diese Algorithmen bei sorgfältiger Anwendung das Potenzial haben, die ordnungsgemäße Anwendung der Justiz vor Gericht zu verstärken und noch besser zu machen. So wie einige argumentieren, dass die Verwendung von KI in der Waffentechnik könnte menschliches Versagen in Situationen um Leben oder Tod reduzieren, Befürworter des Einsatzes forensischer Algorithmen sagen, dass sie zu objektiveren Bewertungen von Tatortdaten, niedrigeren Inhaftierungsraten und der Beseitigung unrechtmäßiger Verurteilungen führen könnten.

Werbung

Aber während KI oft als Technologie gefeiert wird, die viele der Probleme der Welt angehen und die Menschheit in eine bessere Zukunft führen kann, es ist nicht ohne Mängel.

Jede Technologie ist anfällig für die gleichen Fehler, die auch bei den Menschen vorhanden sind, die sie entwickeln, und diese Fehler werden je nach ihren Fähigkeiten nach oben oder unten skaliert. Dies macht KI besonders besorgniserregend. Immer häufiger verwenden wir sie, um große, komplexe Aufgaben zu erledigenJobs in fast allen Branchen und Disziplinen, die es gibt. Wenn Sie mit der Technologie etwas falsch machen, kann dies einer Fehleinschätzung des Standes beim Besteigen einer Klippe gleichkommen – ein kleiner, menschlicher Fehler, der schwerwiegende und irreversible Folgen hat.

Quelle: Bill Oxford/Unsplash

In keinem Bereich trifft dies mehr zu als in der Strafjustiz, und auch hier sind wir weit von der idealisierten Zukunft entfernt, die KI oft zu versprechen scheint. So wie es aussieht, arbeiten wir noch sehr viel daran die Fehler in forensischen Algorithmen.

Werbung

Ein Gerichtsverfahren im District of Columbia aus dem Jahr 2017 veranschaulicht diese Tatsache. In diesem Fall erlebte ein anonymer Angeklagter, der von der Anwältin des Public Defender Service, Rachel Cicürel, vertreten wurde, fast die Folgen einer fehlerhaften Programmierung, die vor Gericht als Beweis vorgelegt wurde.

Der Staatsanwalt hatte in diesem Fall ursprünglich einer Bewährungsstrafe als faire Strafe für Cicurels Mandant zugestimmt. Erst als ein forensischer Bericht auf der Grundlage einer vorausschauenden Analyse eines Algorithmus feststellte, dass der Angeklagte ein zu hohes kriminelles Risiko hatte, änderte die Staatsanwaltschaft ihre Meinungund forderte den Richter auf, den Angeklagten in Jugendhaft zu versetzen.

Cicurel verlangte, dass ihrem Team die Mechanismen gezeigt werden, die dem Bericht zugrunde liegen, und stellte fest, dass die Ergebnisse nicht nur von einer unabhängigen Justiz- oder Wissenschaftsorganisation überprüft worden waren, sondern die Ergebnisse schienen zumindest teilweise auf rassistisch voreingenommenen Eingabewerten zu beruhen.

Werbung

Dank Cicurels Sorgfalt warf der Richter den Bericht weg. Aber die fehlerhafte Software könnte genauso gut unbemerkt oder unangefochten geblieben sein, wie es in Strafprozessen in den USA oft der Fall ist.

Die Besorgnis, die auftaucht, grenzt an die Dystopie – dass fehlerhafte oder voreingenommene Systeme in die unangreifbaren Roben der Mathematik, der maschinellen Lernfähigkeiten und Daten gekleidet werden und den Menschen zu Unrecht die Freiheiten nehmen.

Löschen des Nebels der forensischen KI

Es ist nur diese Facette des menschlichen Verhaltens – dass die Produkte des menschlichen Geistes an dieselbe subjektive Voreingenommenheit gebunden sind wie ihre Designer –, die Leute wie den US-Repräsentanten des Repräsentantenhauses Mark Takano D-Calif. beunruhigt.

Um dieses und damit verbundene Bedenken auszuräumen, stellte Rep. Takano die Gesetz über Gerechtigkeit in forensischen Algorithmen im Jahr 2019 ein Gesetzentwurf, der darauf abzielte, den Schutz der Bürgerrechte von Angeklagten in Strafverfahren zu gewährleisten und Best Practices für den Einsatz von forensischer KI-Software festzulegen. Takano führte den Gesetzentwurf Anfang dieses Jahres mit Co-Sponsor Dwight Evans D-Penn. und ist der Ansicht, dass eine größere Transparenz bei der Technologie die Integrität der Bürgerrechte der Menschen während des Prozesses gewährleisten wird.

Werbung

„Wir lassen das Argument von Softwareunternehmen einfach nicht zu, dass ihre proprietären Softwareinteressen oder Geschäftsgeheimnisse unantastbarer sind als die ordentlichen Verfahrensrechte der Angeklagten“, sagte Takano in einem Interview mit Interessante Technik | wissenschaft-x.com.

Quelle: Tonbänke/Unsplash

Die Softwareunternehmen, die diese Algorithmen herstellen, behaupten oft, dass ihre Methoden, Quellcodes und Testprozesse im Dunkeln bleiben und im Bereich des geistigen Eigentums liegen müssen, damit sie nicht riskieren, dass ihre Geschäftsgeheimnisse gestohlen oder anderweitig kompromittiert werden.

"Wir brauchen einen Weg, um dem Justizsystem eine nationale Orientierungshilfe zu geben."

Kritiker sagen jedoch, dass die Angeklagten gezwungen sind, die Gültigkeit und Zuverlässigkeit der Programme zu akzeptieren, die verwendet werden, um die Beweise zu liefern, wenn diese Algorithmen vor einem Kreuzverhör in einem Gerichtssaal versteckt werden. Leute wie Rep. Takano behaupten, dass diese Softwareanbieter schuldig sinddie Verwechslung angemessener Strafverteidigungspraktiken mit dem Gespenst böswilliger Unternehmenssabotage und das Voranstellen von finanziellen Gewinnen über die Rechte eines Einzelnen.

Werbung

Derzeit wird die Technologie in Fällen in den USA verwendet, und ob Beweise aus diesen Algorithmen als zulässig oder prüfungswürdig erachtet werden oder nicht, variiert stark, was zu einer ungleichen Rechtslandschaft führt.

In einem etwas seltenen Beispiel für einen Pushback gegen die Geheimhaltung solcher Algorithmen hat das State Appeals Court of New Jersey kürzlich das forensische Softwareunternehmen Cybergenetics angewiesen, die Rechtsabteilung eines Angeklagten zuzulassen.Zugang zum Quellcode des DNA-Analyseprogramms, das ihren Kunden mit einer Schießerei im Jahr 2017 in Verbindung brachte.

Aber Entscheidungen wie diese sind kein allgemeiner Trend in den USA. Genau solche Unregelmäßigkeiten sieht Takano als problematisch an.

„Überall auf der Landkarte sehen Gerichte mit widersprüchlichen Schlussfolgerungen“, sagt er. „Wir brauchen eine Möglichkeit, dem Justizsystem nationale Leitlinien zu geben, welche Standards diese Programme erfüllen müssen. Dies ist etwas, das Angeklagte und Staatsanwälte haben.“können dies nicht alleine tun, und die Softwareunternehmen können es nicht alleine tun. Dies ist ein perfekter Ort für die Rolle der Regierung, einer Bundesbehörde wie NIST [das National Institute of Standards and Technology]in der Lage, den Gerichten Orientierungshilfen zu geben."

Werbung

Ein weiteres kniffliges Problem, das Takanos Gesetzentwurf zu beheben versucht, ist der Mangel an unabhängiger Überprüfung, mit dem diese Unternehmen konfrontiert sind, wenn sie die Legitimität ihrer Software bewerten. Auf Ersuchen des Vertreters des US Government Accountability Office GAO hat einen Bericht veröffentlichtAnfang Juli, das die Wirksamkeit und Risiken im Zusammenhang mit der Verwendung von Algorithmen in der Forensik bewertet.

Eine Sache der Agentur war, dass zum Beispiel in Bezug auf probabilistische Genotypisierung die Mehrheit der Studien, die DNA-Matching-Software evaluieren, von denselben Unternehmen oder Strafverfolgungsbehörden durchgeführt wird, die die Technologie entwickelt haben.

Der GAO-Bericht stellt auch fest, dass es bei diesen Unternehmen einen Trend gibt, vor Gericht zu behaupten, dass ihre Software einer Peer-Review unterzogen wurde und daher als zulässiges Beweismittel gelten sollte, während sie gleichzeitig den unabhängigen Wissenschaftlern, die tatsächlich versuchen, sie zu analysieren, Forschungslizenzen verweigern.

Quelle: Tingey Injury Law Firm/Unsplash

„Es ist eine Sache, Peer-Reviewer zu haben, die man selbst eingestellt hat“, erklärt Takano. „Die Unabhängigkeit ist in gewisser Weise befleckt[…] das verfehlt den Anspruch auf Objektivität.“

Neue Technologie erfordert neues Bewusstsein

Das Berufungsgericht des Bundesstaates New Jersey erläuterte seine Entscheidung, den Quellcode von Cybergenetic von der Verteidigung bewerten zu lassen, und hob einen weiteren wichtigen Aspekt des Problems hervor, indem es erklärte, dass die Transparenz es dem Richter und anderen Mitgliedern des Prozesses ermöglichen würde, sich vertrauter zu machenmit diesen Programmen.

"Das können Angeklagte und Staatsanwälte nicht alleine tun."

Ein wichtiger Aspekt von Takanos Gesetzentwurf besteht darin, Mitgliedern des Strafjustizsystems zu helfen, ein solches Bewusstsein für die Fähigkeiten forensischer Technologien und die Rollen zu entwickeln, die sie darin spielen können und welche nicht.

"Dies ist, was wir in meiner Rechnung tun, wir belasten NIST, nicht zu entscheiden, ob die Software funktioniert oder nicht, sondern Standards festzulegen, die den Gerichten, Staatsanwälten und Verteidigern die Anleitung geben, was die Software tun muss, um in der Lage zu sein."gültig und zuverlässig sein.“

Maschinelles Lernen, ein Mensch zu sein

Maschinenlernende Algorithmen eignen sich hervorragend zum Auffinden von Mustern in Daten. Geben Sie einem Algorithmus genügend Statistiken über Kriminalität und er wird interessante Konstellationen im Datensatz finden.MIT-Technologieüberprüfung weist zu Recht darauf hin, dass die menschliche Interpretation dieser Informationen oft „korrelative Erkenntnisse in kausale Bewertungsmechanismen umwandeln“ kann, wodurch die Realität möglicherweise falsch dargestellt wird. Das ist eine gefährliche Falle.

Wenn forensische Algorithmen, mit denen Gerichtssäle die Schuld oder Unschuld einer Person bestimmen, nicht richtig bewertet werden, könnten sich die Faktoren, die dazu führten, dass bestimmte Gruppen in der Vergangenheit im US-Justizsystem an den Rand gedrängt wurden, erneut manifestieren.diesmal in den Strafverfolgungsinstrumenten mächtiger als alle, die es je gegeben hat.

Die Geschichte bietet hier eine hilfreiche Perspektive, die den Abgeordneten Takano als geeignete Figur positioniert, um die Verteidigung der Rechte des Einzelnen in dieser Arena zu vertreten.

Die Tatsache, dass während des Zweiten Weltkriegs Hunderttausende von Menschen japanischer Abstammung in den Vereinigten Staaten lebten – die meisten davon amerikanische Staatsbürger – waren in Internierungslager geschicktohne die Möglichkeit eines Rechtsbehelfs sollte eine immergrüne Lektion darüber bleiben, wie leicht das Bekenntnis einer Gesellschaft zu demokratischen Grundwerten vergessen, übersehen oder völlig verworfen werden kann.

„Es ist Teil meiner eigenen Familiengeschichte“, sagt Takano. „Meine Eltern und Großeltern waren alle in Internierungslagern, und ihre Rechte auf ein ordentliches Verfahren wurden völlig ignoriert. Bürgerrechte und bürgerliche Freiheiten waren schon immer ein Kerninteresse von mir.“

Es ist eine absolute Notwendigkeit, dass die Werkzeuge, die wir für eine bessere und vernünftigere Zukunft entwickeln, insbesondere revolutionäre leistungsstarke Werkzeuge, sicherstellen, dass diese Rechte nicht auf der Strecke bleiben – für niemanden.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.