Wer haftet, wenn Künstliche Intelligenz versagt?

Wer haftet, wenn Künstliche Intelligenz versagt?


Auch ein Algorithmus kann Fehler machen, doch bislang ist die Haftungsfrage unklar. Das Europäische Parlament empfiehlt einen eigenen Rechtsstatus für KI – die Elektronische Person.

Auch ein Algorithmus kann Fehler machen, doch bislang ist die Haftungsfrage unklar. Das Europäische Parlament empfiehlt einen eigenen Rechtsstatus für KI – die Elektronische Person.

Text: Anke Bracht, Foto: Markus Spiske/ Unsplash

Von der intelligenten Produktionsanlage, die ihren Nachschub bedarfsabhängig selbst bestellt über Roboter in der Pflege bis zum autonomen Fahrzeug: Für selbstlernende technische Systeme, die autonom handeln, hält unser Alltag inzwischen eine Vielzahl an Beispielen bereit. Und es dürften schnell immer mehr werden; Künstliche Intelligenz (KI) ist ein rasanter Wachstumsmarkt, der mit globalem Wettbewerb einhergeht. Was dabei gerne übersehen wird: Mit den steigenden Einsatzmöglichkeiten selbstlernender Algorithmen steigt das Gefahrenpotenzial – denn auch KI macht Fehler. Das passt nicht so recht in die Vorstellung einer besseren, weil optimierten Zukunft. Doch spätestens seit dem 18. März 2018, als im US-Bundesstaat Arizona eine Fußgängerin beim Unfall mit einem autonomen Fahrzeug tödlich verunglückte, ist das Thema Haftung bei Schäden durch selbstlernende Systeme in die öffentliche Debatte gerückt.

Eigener Rechtsstatus für selbstlerndende Systeme

Die Krux: Der Entscheidungsprozess Künstlicher Intelligenz ist meist nicht vollständig nachvollziehbar und ihre Einzelentscheidungen sind daher nicht oder nur sehr schwer konkret vorhersehbar. Rechtlich lässt sich diese Unvorhersehbarkeit nur schwer fassen, denn Grundlage des Prinzips der Haftung ist menschliches Fehlverhalten – fahrlässig oder vorsätzlich. Um hier Klarheit zu schaffen, bemühen die Juristen derzeit zwei völlig konträre Ansätze: Soll der Betreiber eines selbstlernenden Systems haften oder steht das System selbst in der Haftung? Das Europäische Parlament hat zu dieser Frage bereits klar Stellung bezogen: Am 16. Februar 2017 verabschiedete das Parlament einen Beschluss mit Empfehlungen an die Europäische Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)). Darin ist der Vorschlag enthalten, einen eigenen Rechtsstatus für Künstliche Intelligenz zu schaffen, die Elektronische Person. Sie soll in Fällen zum Einsatz kommen, „in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren“. Die Elektronische Person könnte demnach juristisch belangt und bei Schäden zu deren Ersatz verurteilt werden. Da eine KI jedoch kein Vermögen aufbauen kann, erwägt das Europäische Parlament zudem eine Versicherungspflicht für intelligente Roboter.

Paradigmenwechsel in der Rechtsprechung

Ob und wann den Empfehlungen des Europäischen Parlaments Entscheidungen folgen, ist offen. Viele Juristen befürworten deshalb den Ansatz, die Betreiber selbstlernender Systeme in die Haftung zu nehmen, auch wenn sich dadurch Rechtslücken auftun. Denn es ist anzunehmen, dass sich selbstlernende Systeme bei fortschreitender Entwicklung nach und nach von der unmittelbaren Einflussnahme durch den Menschen entfernen werden. Und je mehr sich Künstliche Intelligenzen verselbständigen, desto fraglicher wird es sein, die Betreiber für das Verhalten der Systeme zur Verantwortung zu ziehen. Ein eigener Rechtsstatus für Künstliche Intelligenz hätte für die Rechtsprechung einen Paradigmenwechsel zur Folge. Doch das Thema Haftung und KI besitzt noch eine weitere Dimension: Neue Technologien können sich nur durchsetzen, wenn Nutzer Vertrauen in die Produkte haben. Ohne die Klärung von Verantwortlichkeit und Haftung wird es keine Akzeptanz für Innovationen geben, deshalb braucht es die Debatte über die Elektronische Person.

Corina Golze, Leiterin Privatkunden, Weberbank Actiengesellschaft, steht Ihnen für Ihre Fragen telefonisch und per E-Mail zur Verfügung: Tel.: (030) 897 98 – 914, E-Mail: corina.golze@weberbank.de

Diesen Artikel empfehlen