Urteile automatisch anonymisieren

Das Bundesgericht und das Zuger Verwaltungsgericht setzen bei der Anonymisierung ihrer Urteile künstliche Intelligenz ein. Gänzlich ohne den Menschen geht es dennoch nicht.

28.03.2024 - Rocco Maglio

Teilen

Die Anonymisierung von Gerichtsurteilen kann aufwendig und fehlerbehaftet sein. Sie gehört auch nicht zu den Lieblingstätigkeiten einer Gerichtsschreiberin oder eines Kanzleimitarbeiters. Trotzdem steckt der Einsatz von künstlicher Intelligenz (KI) bei der Anonymisierung von Urteilen gemäss Andrea Schmidheiny Konic noch in den Kinderschuhen. Schmidheiny Konic war während 14 Jahren in der Zürcher Rechtspflege tätig und etablierte unter anderem die Anonymisierungspraxis am Zürcher Obergericht. Seit knapp zwei Jahren bietet sie mit ihrem Unternehmen Balo.ai GmbH eine KI-Lösung für die Anonymisierung an, die seit Ende 2021 bei den Gerichten und der Verwaltung des Kantons Aargau im Einsatz ist. Sie ist überzeugt: «Solange die Entscheide nicht durch Maschinen geschrieben werden, ist die vollautomatische Anonymisierung ein Luftschloss.» Für eine gute Anonymisierung brauche es beides: die Maschine für die Identifizierung und Markierung, den Menschen für die Interessenabwägung und Kontrolle. Aus eigener Erfahrung könne sie jedoch sagen, dass eine eher unattraktive Tätigkeit dank KI auch Spass machen könne. Voraussetzung hierfür sei eine intuitive und einfach bedienbare Benutzeroberfläche.

Einfacher und schneller
Das Bundesgericht und das Zuger Verwaltungsgericht gehören zu den wenigen Gerichten in der Schweiz, die bereits heute mit Hilfe von KI ihre Entscheide anonymisieren. Das Bundesgericht führte schon im Jahr 2013 eine Applikation mit einem Standard-Algorithmus ein und hat seit Oktober 2021 eine entsprechende KI-Anwendung im Einsatz.

«Die Maschine macht Vorschläge, der Mensch kontrolliert und ergänzt»

Peter Josi

In Zug verfügt man seit Ende 2019 über eine Anonymisierungssoftware. Das Zuger Verwaltungsgericht anonymisiert seitdem alle zu publizierenden Urteile, durchschnittlich 330 Entscheide pro Jahr. «Hierfür verwenden wir nun immer die Software, da uns diese die Arbeit merklich vereinfacht», sagt deren Generalsekretär Patrick Trütsch. Die Bereitschaft für den Einsatz der unterstützenden Anwendung sei gross gewesen, insbesondere weil sie die Verfahrensabläufe beschleunige. Man sei sich jedoch bewusst, dass auch mit der Software Fehler passieren könnten. Sie würden daher nach wie vor das Vieraugenprinzip anwenden: «Die zuständigen Gerichtsschreibenden führen mit Hilfe der Software die Anonymisierung durch. Der anonymisierte Entscheid wird dann von einer zweiten Person überprüft.»

Datenschutz als Herausforderung
Auch beim Bundesgericht führt KI bei der Anonymisierung zu einer beachtlichen Zeitersparnis. «Die Maschine macht Vorschläge, der Mensch kontrolliert und ergänzt», führt der Medienbeauftragte Peter Josi aus. Die zentrale Herausforderung beim Einsatz von KI sei der Datenschutz, so Josi weiter. Dem Bundesgericht stünden zum «Training» der KI rund 110 000 seiner Urteile in anonymisierter und nicht anonymisierter Form zur Verfügung. «Die entsprechende Rechenleistung kann aufgrund der in den nicht anonymisierten Urteilen enthaltenen Daten selbstverständlich nicht extern eingekauft werden, also etwa bei Google oder Amazon.» Das KI-Training müsse ausschliesslich innerhalb der gerichtseigenen Informatik erfolgen.

In diesem Zusammenhang ist derzeit die Frage der De-Anonymisierung mittels KI Gegenstand wissenschaftlicher Diskussionen. Beispielsweise führt die Universität Bern ein Forschungsprojekt durch, das durch den Schweizerischen Nationalfonds unterstützt wird. Hierbei soll eine Online-Plattform entwickelt werden, mit der die Gerichte zum einen ihre Entscheide anonymisieren und zum anderen anonymisierte Entscheide hinsichtlich einer De-Anonymisierung bewerten können.

Weitere Blogeinträge