Auslegung des KI-VO-E zur Evaluation von Verfahren der Künstlichen Intelligenz am Beispiel der automatischen Anonymisierung von Gerichtsentscheidungen
Die Qualitätssicherung eines KI-Systems ist für den Grundrechtsschutz elementar. Der Entwurf zur KI-VO der EU versucht das sicherzustellen, indem verschiedene Anforderungen an KI-Systeme, wie die Erfüllung der Zweckbestimmung, Genauigkeit, Risikoabschätzung und die Robustheit abgesteckt werden. Aufgrund der Vielfalt an KI-Systemen, insbesondere mit einem hohen Risiko beim Einsatz in der Justiz, müssen die Anforderungen anwendungsspezifisch ausgelegt werden. Am Beispiel der automatischen Anonymisierung von Gerichtsentscheidungen zeigen wir, dass durch die Erstellung eines Goldstandards und einer strengen kontinuierlichen Evaluation den Anforderungen nachgekommen werden kann.
Inhaltsverzeichnis
- 1. Einleitung
- 1.1. Output und Qualität von KI-Systemen
- 1.2. Entwurf zur KI-Verordnung als Ordnungsrahmen zur Qualitätssicherung?
- 2. Vorgaben aus dem Entwurf zur KI-Verordnung
- 2.1. Hochrisiko-KI
- 2.2. Begriffsbestimmung zur Zweckbestimmung und Leistung des KI-Systems
- 2.3. Risikomanagementsystem
- 2.4. Dokumentations- und Bereitstellungspflichten
- 2.5. Auslegung von Rechtsbegriffen
- 3. Automatische Anonymisierung von Gerichtsentscheidungen
- 4. Evaluation
- 4.1. Erfüllung der Zweckbestimmung
- 4.2. Genauigkeit
- 4.3. Risikoabschätzung
- 4.4. Robustheit
- 5. Fazit
Loggen Sie sich bitte ein, um den ganzen Text zu lesen.
Es gibt noch keine Kommentare
Ihr Kommentar zu diesem Beitrag
AbonnentInnen dieser Zeitschrift können sich an der Diskussion beteiligen. Bitte loggen Sie sich ein, um Kommentare verfassen zu können.
0 Kommentare