Der Einsatz von Künstlicher Intelligenz (KI) im Strafrechtssystem birgt sowohl Potenziale als auch erhebliche Risiken. Für die Unternehmensverteidigung beim KI-Einsatz ist es entscheidend, darzulegen, dass sich Unternehmen Gedanken zu Risiken gemacht haben. Umso wichtiger ist die Auseinandersetzung mit konkreten Praxiserfahrungen. Ein anschauliches Beispiel für KI-Risiken ist das COMPAS-System, das in den USA zur Einschätzung der Rückfallwahrscheinlichkeit von Straftätern eingesetzt wird.
Was ist das COMPAS-System?
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) ist ein Algorithmus, der von US-Behörden eingesetzt wird, um die Rückfallwahrscheinlichkeit von Straftätern einzuschätzen. Ziel des Systems ist es, die Entscheidungsfindung in der Justiz zu unterstützen und objektiver zu machen.
Wo lag das Problem bei COMPAS?
Studien haben gezeigt, dass COMPAS eine systematische Voreingenommenheit gegenüber Afroamerikanern aufweist. Das System schätzte die Rückfallwahrscheinlichkeit von schwarzen Straftätern systematisch höher ein als die von weißen Straftätern. Diese Verzerrung deutet auf tiefer liegende Probleme in den zugrundeliegenden Daten und Algorithmen hin.
Die Voreingenommenheit des COMPAS-Systems lässt sich auf die historischen Daten zurückführen, mit denen es trainiert wurde. Diese Daten spiegeln bestehende Ungleichheiten und Vorurteile im Justizsystem wider, die dann vom KI-System übernommen und möglicherweise sogar verstärkt werden.
Konsequenzen und Lehren aus dem Fall COMPAS
Der COMPAS-Fall hat eine wichtige Debatte über die Rolle von KI in sensiblen Bereichen wie dem Strafrechtssystem angestoßen. Er zeigt, dass KI-Systeme, wenn sie ohne Berücksichtigung ethischer Aspekte und sozialer Kontexte entwickelt werden, bestehende Ungerechtigkeiten verschärfen können.
Letztlich unterstreicht der Fall COMPAS die Notwendigkeit, KI-Systeme im Justizbereich mit größter Sorgfalt und unter ständiger Überprüfung ethischer Grundsätze zu entwickeln und einzusetzen.