Justizministerium verlangt "rote Linien" beim Einsatz von KI
Archivmeldung vom 07.09.2021
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 07.09.2021 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Sanjo BabićDas Bundesjustizministerium fordert klare Grenzen für den Einsatz von Künstlicher Intelligenz (KI) auf europäischer Ebene. "Wir müssen festlegen, welche Aspekte von Künstlicher Intelligenz für uns als freiheitliche demokratische Gesellschaft inakzeptabel sind", sagte Justizstaatssekretär Christian Kastrop dem "Handelsblatt".
Es müsse "rote Linien" beim Einsatz von KI geben. Handlungsbedarf sieht Kastrop etwa beim Thema "dark pattern". Das ist KI zur Beeinflussung von Personen durch unterschwellige Techniken. Damit werden beispielsweise bestimmte Emotionen angesprochen, um zu einem Kauf im Internet zu verleiten oder einen bestimmten Link anzuklicken. "Das umfasst auch eine Cookie-Einwilligung, die so designt ist, dass Webseiten-Besucher am ehesten die von den Anbietern gewünschte Auswahl mit dem größtmöglichen Zugriff auf die Nutzerdaten treffen", so der Staatssekretär.
Problematisch sei auch Social Scoring, angefangen bei einer auf Algorithmen basierten Kreditwürdigkeitsprüfung und endend bei einem gläsernen Bürger. "Hier können Fehlentscheidungen erhebliche Folgen für Einzelne haben." Kritisch sieht Kastrop auch die biometrische Fernüberwachung, Gesichtserkennung zum Beispiel. Hier würden Grundrechte unmittelbar tangiert. "Solche Anwendungen können ganz schnell diskriminieren und zu Ausgrenzung führen." Die EU-Kommission hatte im April Regeln für den Umgang mit KI vorgeschlagen, die sowohl mögliche Risiken von Anwendungen als auch die Grundrechte der EU-Bürger berücksichtigen. Die Klassifizierung in Risikobereiche hält Kastrop für sinnvoll. "Hochrisiko-KI sollte auch unabhängig zertifiziert sein", sagte er. Es sei zwar nachzuvollziehen, dass die Wirtschaft Geschäftsgeheimnisse wie Algorithmen schützen möchte. "Wichtig ist dennoch, dass KI-Systeme vollständig nachvollziehbar und überprüfbar sind", sagte der Staatssekretär. "Deshalb braucht es unabhängige Prüfinstanzen. Das können der TÜV oder andere Zertifizierungsinstitutionen sein."
Quelle: dts Nachrichtenagentur