Transparenz-Anforderungen an Systeme der Künstlichen Intelligenz
Anforderungen an die Transparenz sowie rechtliche Fragen rund um haftungs-, patent- und datenschutzrechtliche Aspekte KI-basierter Systeme haben die Mitglieder der Enquete-Kommission »Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale« am Montagnachmittag in zwei Fachgesprächen diskutiert. Die Impulsvorträge der insgesamt fünf Sachverständigen fanden in öffentlicher Sitzung statt, Fragerunde und Diskussion unter Ausschluss der Öffentlichkeit.
Carla Hustedt (Bertelsmann Stiftung) warb in ihrem Vortrag unter dem Titel »KI-Transparenz aus Verantwortung« für »mehr Genauigkeit« in der Debatte um KI-Transparenz. Die Vieldeutigkeit sei ein Problem, sagte die Leiterin des Projekts »Ethik der Algorithmen«. So müsse geklärt werden, was mit Transparenz erreicht, welche Systeme transparent gemacht und wie diese Transparenz geschaffen werden soll. Hustedt betonte, dass Transparenz kein Selbstzweck, sondern ein »wirkungsvoller Hebel« sei, um verschiedene Ziele zu erreichen, etwa um »individuelles Vertrauen und gesellschaftliche Akzeptanz für algorithmische Entscheidungsprozesse« zu schaffen. Die Sachverständige sprach sich in diesem Zusammenhang für einen Teilhabe-Fokus aus: Demnach ist das entscheidende Kriterium für Transparenz-Anforderungen an ein algorithmisches System, inwiefern es Einfluss auf die »Teilhabe von Menschen an gesellschaftlich relevanten Gütern« habe.
Fragen nach der Teilhaberelevanz stellen sich daher auch für im Vergleich zu komplexen lernenden Systemen bei einfachen Softwaresystemen. Diese hätten oft mehr Einfluss auf das Leben von Menschen als ein Großteil der aktuell im Einsatz befindlichen KI-Systeme. »Nicht jede Black Box muss geöffnet werden«, sagte Hustedt mit Verweis auf das in Zusammenhang mit komplexen KI-Systemen diskutierte Problem der mangelnden Nachvollziehbarkeit der Entscheidungen dieser Systeme. Hustedt unterstrich zudem, dass mit Kennzeichnung, Nachvollziehbarkeit sowie Überprüfbarkeit unterschiedliche Arten von Transparenz nötig seien. In teilhaberelevanten Bereichen müssten die Nutzer beispielsweise wissen, womit sie es zu tun haben: »Wir brauchen ein Vermummungsverbot für algorithmische Systeme«.
Als Handlungsempfehlungen schlug Hustedt der Enquete-Kommission vor, die interdisziplinäre Forschung zu KI-Transparenz zu fördern. Sie forderte zudem, erweiterte Transparenz-Anforderungen in staatliche Vergabestandards aufzunehmen, etwa indem Auftragnehmer verpflichtet werden, die Überprüfung durch Dritte sowie Schaffung von Nachvollziehbarkeit aktiv zu unterstützen. Auch sprach sich die Sachverständige für die Stärkung von Aufsichtsbehörden und zivilgesellschaftlicher Watchdog-Organisationen aus.
Im zweiten Fachgespräch stellten die Sachverständigen rechtliche Fragen sowie die Bedeutung der Normung und Standardisierung im KI-Bereich in den Vordergrund.
Jan Kuhlen, sachverständiges Mitglieder Kommission, sowie der Rechtswissenschaftler Axel Metzger (Humboldt-Universität Berlin) sprachen sich jeweils dafür aus, für Hersteller von KI-Systemen ein Gefährdungshaftung einzuführen. Kuhlen warb dabei für eine sektorale Betrachtung. KI sei nicht per se als gefährlich einzustufen. In einzelnen Sektoren, etwa bei Kraftfahrzeugen oder Medizinrobotern, könne Autonomie aber besonders gefährlich sein, sagte Kuhlen.
Aktuell keinen rechtlichen Handlungsbedarf sah Metzger im Patent- und Urheberrecht. Mit Blick auf das Datenschutzrecht sagte der Rechtswissenschaftler, dass die EU-Datenschutzgrundverordnung keine »unüberwindbare Hürde« darstelle. Der Datenschutz sei schwierig, aber nicht unmöglich. Metzger warb dafür, die Kooperation von Industrie und Datenschutzbeauftragten zu fördern.
Michael Teigeler (DKE Deutsche Kommission Elektrotechnik, Elektronik, Informationstechnik) und Sebastian Hallensleben (VDE Verband der Elektrotechnik, Elektronik, Informationstechnik) hoben die Bedeutung und Vorteile der Normung und Standardsetzung im KI-Bereich hervor. Teigeler verwies darauf, dass das Normungs-System ein Erfolgsmodell sei, das es fortzusetzen gelte. Deutschland habe aktuell großen Einfluss in diesem Bereich, auch wenn dieser künftig abnehmen werde. Es sei aber eine gute Ausgangslage für den KI-Bereich und könne auch ein Standort-Faktor sein.
Hallensleben berichtete über aktuelle Vorhaben im Bereich der KI-Normung. So seien die Bereiche »Methoden und Fachsprache« sowie Ethik international bereits in Arbeit. In anderen Bereichen, etwa der Normung im Bereich »Interoperabilität selbstlernender Systeme«, stünde die Arbeit noch am Anfang.
LINKS
- ...