Rechtliche Herausforderungen durch den Einsatz Künstlicher Intelligenz

Mit zukunftsweisenden Innovationen durch KI stellen sich neue gesellschaftliche, wirtschaftliche sowie wissenschaftliche Chancen und Herausforderungen. Das gilt vor allem für den Automobil- und Gesundheitssektor.

KI im Rechtssystem: Datenschutz, Haftung und die Zukunft der Technologie

Mit zukunftsweisenden Innovationen durch KI stellen sich neue gesellschaftliche, wirtschaftliche sowie wissenschaftliche Chancen und Herausforderungen. Das gilt vor allem für den Automobil- und Gesundheitssektor. So können mit autonomen Fahrzeugen die Mobilität der Menschen revolutioniert, die Verkehrssicherheit erhöht und Staus reduziert werden. In der Medizin kann KI dabei unterstützen, Patienten effektiver und individueller zu behandeln. Auch in Bewerbungsprozessen kommt KI zum Einsatz und wirft rechtliche Fragen auf.

Ein Beitrag aus dem MyLawGuide 2020 von Dr. Anke Dieckhoff, Associate, TMT, Frankfurt und Dr. Ingemar Kartheuser, LL.M., Counsel, TMT, Frankfurt

Einsatz von KI: Wer haftet für (Fehl-)Entscheidungen?

Fortgeschrittene KI ist in der Lage, selbständig zu lernen. Sie kann aus Anwendungsbeispielen Erfahrungen sammeln, um künftig eigenständig zu reagieren. Ein selbstlernendes Fahrzeug kann auf Basis seiner Erfahrungen im Straßenverkehr beispielsweise eigenständig bremsen, sobald sich ein Fußgänger einem Zebrastreifen nähert. KI im Bereich der Medizin kann bei der Typisierung von Krebszellen assistieren und für die Diagnose und Behandlung relevantes Wissen zusammentragen.

Vor allem für den Automobil- und Gesundheitssektor wirft der Einsatz von Ki rechtliche Fragen auf.

Eine Besonderheit am maschinellen Lernen ist, dass mithilfe von Algorithmen bestimmte Muster und Gesetzmäßigkeiten erkannt werden und anschließend die gewünschte Verhaltensweise nicht nur für ein bereits bekanntes Beispiel abgerufen wird, sondern die KI ihre Erfahrung auf andere Situationen übertragen kann. 

Das Training einer solchen KI basiert auf großen Datenmengen und einer fortgeschrittenen Analytik. Die Folge sind zahlreiche rechtliche Fragen: Wer haftet für (Fehl-)Entscheidungen? Und kann KI datenschutzkonform gestaltet werden?

Welche Herausforderungen bestehen bei der zivilrechtlichen Haftung im Zusammenhang mit KI?

Wird eine Person bei einem Autounfall verletzt oder ein Auto beschädigt, stellt sich zunächst die Frage, wer für den Schaden haftet. In Betracht kommt dafür typischerweise einer der in den Unfall verwickelten Fahrzeugführer. Handelt es sich allerdings um ein autonomes Fahrzeug, dass mittels KI selbst entscheidet, wird die Auswahl des Haftenden erschwert. Als Haftende sind unterschiedliche Akteure denkbar: der Fahrer als Nutzer der KI, der Fahrzeughersteller als Entwickler der KI oder sogar das autonome Fahrzeug, also die KI, selbst.

Versucht man, eine Haftung des Herstellers über das Produkthaftungsgesetz herzuleiten, stößt man auf Probleme. Der Hersteller haftet danach verschuldensunabhängig für ein fehlerhaftes Produkt, das durch ihn in den Verkehr gebracht wurde. Erforderlich ist lediglich, dass dieser Fehler zu einem Schaden geführt hat. Dieses Inverkehrbringen ist jedoch abgeschlossen, sobald der Hersteller das Fahrzeug an einen Dritten übergeben hat. Spätere Aktualisierungen an der Software, sogenannte Updates, sind kein Produkt im Sinne des Produkthaftungsgesetzes und werden deshalb nicht von der Haftung erfasst. Das eigenständige Lernen eines Fahrzeugs durch gesammelte Erfahrungen führt jedoch gerade zu einer ständigen Aktualisierung der zugrundeliegenden Software.

Trifft den Hersteller ein Verschulden, wenn der Fehler durch eine eigenständig lernende KI herbeigeführt wird?

Auch eine Haftung des Herstellers aus der Produzentenhaftung wirft Fragen auf, da diese ein Verschulden des Herstellers durch Verletzung seiner Verkehrssicherungspflichten erfordert. Fraglich ist insofern, ob den Hersteller ein Verschulden trifft, wenn der Fehler durch eine eigenständig lernende KI herbeigeführt wird. Sie produziert selbst Ergebnisse, die für den Hersteller nicht vorhersehbar sind. Angeknüpft werden kann in diesem Fall nur daran, dass der Hersteller das Produkt weiterhin beobachten muss. Aus dieser Produktbeobachtungspflicht kann der Hersteller haften, wenn er eine vermeidbare Gefahr nicht abwendet.

Da die KI weder eine natürliche Person ist, noch eine eigene Haftungsmasse besitzt, scheidet eine Haftung der KI selbst aus. Es wird jedoch diskutiert, ob ihr aufgrund ihrer Lernfähigkeit eine eigene Rechtspersönlichkeit, z.B. als sogenannte „E-Person“ zugesprochen werden sollte. Einen Antrag zur Diskussion dieser Frage hatte das EU-Parlament bereits 2016 gestellt.

Aktuell trifft diese Lösung eher auf Ablehnung bei den Beteiligten der öffentlichen Diskussion. Abzuwarten bleibt jedoch, ob bei fortschreitender Entwicklung und zunehmender Intelligenz der Systeme eine neue Regelung geschaffen wird. Denkbar wäre zudem auch, dem Ansatz in Neuseeland entsprechend einen Haftungsfonds einzurichten, aus dem entsprechende Schäden beglichen werden.

Künstliche Intelligenz: Welche Herausforderungen bestehen beim Datenschutz?

Kann KI datenschutzkonform gestaltet werden?

Das europäische Datenschutzrecht und KI stehen in einem Spannungsverhältnis. Die Datenschutz-Grundverordnung (DSGVO) basiert auf bestimmten Grundprinzipien, die zu einem bestimmten Maße in Konflikt mit einer KI stehen, die auf einer Vielzahl an – ggf. personenbezogenen – Daten basiert und einen Lerneffekt aus diesen Daten generiert. Entwickler und Betreiber von KI stehen deshalb vor der Herausforderung, mögliche Widersprüche aufzulösen. Welche Widersprüche sind dies? Dazu mehr im Folgenden.

Steht KI mit den Datenschutzgrundsätzen in Konflikt?

Die DSGVO normiert unter anderem drei Grundsätze als Basis jeder Datenverarbeitung, nämlich der Datenminimierung, der Transparenz und der Zweckbindung. Wesentlicher Erfolgsfaktor für KI ist die Verarbeitung großer Datenmengen. Diese Datenmengen stehen dem Grundsatz der Datenminimierung in einem Spannungsverhältnis gegenüber.

Eine zu große Datenminimierung würde die Entwicklung von KI behindern, da sie dann weniger ausgereift funktionieren könnte. Eine zu weitgehende Lockerung zugunsten großer Datenmengen würde wiederum der DSGVO widersprechen.

Zudem kann KI so komplex sein, dass selbst die Entwickler der KI das Zustandekommen eines Ergebnisses nicht vollständig nachvollziehen können. Die Verarbeitung personenbezogener Daten muss jedoch transparent sein, also in Datenschutzhinweisen so beschrieben werden, dass ihre Tragweite für eine betroffene Person überschaubar ist. Wenn dies selbst für Entwickler mit Fachkenntnissen eine Hürde darstellen kann, erscheint dies für Laien besonders problematisch.

Auch die Zwecke, zu denen personenbezogene Daten verarbeitet werden, müssen eindeutig festgelegt und präzise formuliert sein, so dass sie für die betroffenen Personen verständlich sind. Weiterverarbeitungen zu anderen Zwecken sind nur beschränkt möglich, da der Verarbeiter grundsätzlich an den ursprünglich festgelegten Zweck gebunden ist.

Es ist jedoch denkbar, dass die KI dazu lernt, neue Ziele definiert und dadurch nicht bedachte Zwecke erreicht. Dadurch kann die KI möglicherweise selbst den Verarbeitungszweck ändern, was mit dem Grundsatz der Zweckbindung in Konflikt steht. Dem lässt sich nur dadurch begegnen, die KI entweder in bestimmter Form an den ursprünglichen Verarbeitungszweck zu binden oder ihr nur die Verarbeitung anonymer Daten zu gestatten, für die die DSGVO nicht gilt.

Ist die Einwilligung betroffener Personen in die Datenverarbeitung und ihr Recht auf Löschung problematisch?

Die DSGVO sieht vor, dass Betroffene ihre Einwilligung in eine Verarbeitung ihrer personenbezogenen Daten jederzeit mit Wirkung für die Zukunft widerrufen können. Ab diesem Zeitpunkt ist eine Verarbeitung der Daten dann nicht mehr erlaubt. Zudem besteht grundsätzlich ein Recht darauf, dass personenbezogene Daten gelöscht werden, soweit nicht beispielsweise Aufbewahrungspflichten entgegenstehen.

Sowohl im Fall des Widerrufs der Einwilligung als auch der Geltendmachung des Anspruchs auf Löschung müssten die personenbezogenen Daten also aus der KI entfernt werden. Das ist jedoch oftmals nicht umsetzbar, da die Daten häufig bereits fester Bestandteil der KI wurden. Indem die KI auf Basis dieser Daten Erfahrungen gesammelt und gelernt hat, sind die Daten sozusagen mit anderen Daten „verschmolzen“ und mit weiteren Informationen angereichert. Auch an dieser Stelle wird deshalb hauptsächlich die anonymisierte Weiterverarbeitung diskutiert.

Besteht die Gefahr einer Diskriminierung beim Einsatz von Künstlicher Intelligenz?

Da KI aus allen Anwendungsbeispielen lernt, sammelt sie ihre Erfahrungen auch aus regionalen Besonderheiten. Das birgt die Gefahr, dass Personen aufgrund erlernter regionaler Merkmale diskriminiert werden. Dies erscheint nicht nur im Hinblick auf den grundrechtlich geschützten Gleichbehandlungsgrundsatz bedenklich.

Entwickler von KI müssen primär auf technischer Seite sicherstellen, dass Algorithmen in jedem Falle „neutral“ entscheiden und geeignete mathematische oder statistische Verfahren bereitstellen, die diskriminierende Regelungen und Entscheidungen verlässlich vermeiden. Die Antidiskriminierungsstelle des Bundes diskutiert deshalb insbesondere die Notwendigkeit von Transparenz und Nachvollziehbarkeit algorithmischer Entscheidungen sowie deren Regulierung.

Rechtliche Fragen beim Einsatz von KI – Ausblick

Insgesamt wird deutlich, dass der Einsatz von KI große Chancen für die Gesellschaft mit sich bringen kann. Jedoch wird auch erkennbar, dass der rechtliche Rahmen für die Entwickler und Unternehmen noch immer unklar ist. Insbesondere der Ausgleich zwischen Big Data sowie individuellem Datenschutz und die Haftung der Akteure dürften den Gesetzgeber künftig vor zahlreiche Aufgaben stellen, wenn er eine leistungsstarke und zugleich sichere KI fördern möchte.

Dieser Artikel erschien zuerst im mylawguide 2020, dem Karrierehandbuch für Juristinnen und Juristen.

Dr. Anke Dieckhoff, Associate, TMT, Frankfurt, Autorin mylawguide, IQB.de
Autorin
Dr. Anke Dieckhoff, Associate, TMT, Frankfurt


Dr. Ingemar Kartheuser, LL.M., Counsel, TMT, Frankfurt, Autor mylawguide, IQB.de
Autor
Dr. Ingemar Kartheuser, LL.M., Counsel, TMT, Frankfurt


Weitere Themen
Roberterhand & Menschenhand | Digitalisierung im Rechtssystem
Rechtsdienstleistungen & digitale Transformation

Legal Tech: Die digitale Transformation ist grundlegende Herausforderung für das Recht. Es geht um Effizienzsteigerung, Optimierung von Prozessabläufen und Kontrolle von Aufgaben und ihren Abläufen.

Digitaler Arbeitsplatz | Laptop und Apps
Kanzlei Tech – Der Anwaltsberuf im digitalen Zeitalter

Legal Tech ist aus der Rechtsberatungsbranche nicht mehr wegzudenken. Viele werben damit, aber nur wenige haben die Entwicklung rechtzeitig aufgegriffen.

Junger Mann am Laptop | Online Lernen
E-Examen, Staatsexamen & Digitalisierung: Jura-Examen am Computer

Digitalisierung: In Sachsen-Anhalt wurde das Staatsexamen in Jura erstmals digital abgelegt. Kommt die Prüfung am PC für alle? Ein Blick auf Vor- und Nachteile.