Zur Fahrlässigkeitshaftung im Kontext der Mensch/Roboter-Kollaboration

Zur Fahrlässigkeitshaftung im Kontext der Mensch/Roboter-Kollaboration

MRK aus rechtlicher Perspektive

Hatten Mitarbeiter und Roboter bisher getrennte Arbeitsbereiche, so entwickelt sich die Forschung immer mehr hin zu einer Zusammenarbeit von Mensch und Maschine. Diese Entwicklung birgt viele Chancen, aber auch (rechtliche) Risiken. Das Recht steht in Bezug auf die Entwicklung der Robotik vor neuen Herausforderungen.

Bild: ©phonlamaiphoto/Fotolia.com

In der Mensch/Roboter-Kollaboration sollen die Risiken so niedrig wie möglich gehalten werden und die Frage der Verantwortung weitgehend vorab geklärt sein. Schon jetzt haben die Beteiligten aus Forschung, Entwicklung und Herstellung ein berechtigtes Interesse daran, die potenziellen Haftungsrisiken ihrer Forschungstätigkeit und der späteren Produktion zu kennen, Versicherungen möchten sich auf diese neuartigen Produkte einstellen können, und auch die Gesellschaft wird dem Fortschritt der Robotik zweifellos noch offener begegnen, wenn möglichst große Einigkeit über die Verteilung der Verantwortung und der Risiken besteht. Aus diesen Gründen ist eine frühe Kooperation zwischen Robotik und normativen Disziplinen – Ethik und Rechtswissenschaft – ratsam. Dabei geht es nicht darum, die Forschung in eine bestimmte Richtung zu dirigieren, Verbote zu erlassen oder Ängste zu schüren. Vielmehr werden Forschung und Produktion rechtlich begleitet und so weitgehende Sicherheit für die Gesellschaft hergestellt; Rechtssicherheit ist auch aus Perspektive der Robotik wichtig für den technischen Fortschritt. Im Folgenden wird die Fahrlässigkeitshaftung im Bereich der MRK als ein Sonderproblem beleuchtet – nur einer von vielen Aspekten der Robotik, die das Recht künftig wird diskutieren müssen.

Rechtliche Perspektive

Traditionell arbeiten Mensch und (Industrie-) Roboter physisch voneinander getrennt. Dadurch entsteht eine nur geringe, überschaubare Gefahr der Verletzung des menschlichen Arbeiters, die kaum höher ist als bei vielen anderen Maschinen auch. Derzeit treffen Mensch und Roboter aber immer öfter real zusammen und teilen sich konkrete Aufgaben. So bedient z.B. der Mensch den Roboterarm, indem er ihn führt und ihm so eine bestimmte Bewegung beibringt. Damit steigt die Gefahr einer Schädigung – des bedienenden Menschen, aber auch Dritter, die sich dem Roboter nun direkt nähern können. Die Risiken erhöhen sich noch beim Einsatz lernender, Entscheidungen treffender Maschinen oder durch die Vernetzung der Maschinen. Denn dadurch entstehen eine erhebliche Unvorhersehbarkeit des Verhaltens der Maschine sowie Beweisprobleme bezüglich der Ursache eines Fehlverhaltens. Im Folgenden soll jedoch, um die Bedeutung der rechtlichen Begleitung schon für den Ist-Stand zu verdeutlichen, die mögliche strafrechtliche Fahrlässigkeitshaftung bei der aktuellen MRK im Vordergrund stehen.

Zivil- und Strafrecht

Die MRK wirft nicht nur Fragen der strafrechtlichen Fahrlässigkeitshaftung auf, sondern wird über den hier vorgenommenen Fokus auch in anderen Rechtsgebieten zu diskutieren sein. Im Zivilrecht wird man nicht nur die vertragliche und nichtvertragliche Haftung für (materielle) Schäden analysieren müssen, sondern auch, ob beziehungsweise unter welchen Bedingungen die Verpflichtung zur Kollaboration arbeitsrechtlich zulässig ist und wie die MRK versicherungsrechtlich zu regeln sein wird – in Betracht kommen etwa Pflichtversicherungen. Im öffentlichen Recht ist zum einen mit dem Roboter als Gefahrenquelle umzugehen, das heißt, es sind unter anderem Zulassungsregeln zu finden, Einsatzbereiche festzulegen, Genehmigungserfordernisse und Kontrollen einzurichten. Auch der Einsatz von Robotern zur Gefahrenabwehr, etwa bei der Unterstützung polizeilicher Arbeit, wird zu regeln sein. Mitarbeiter aus den Bereichen Forschung und Produktion der Robotik haben Bedenken, sich mit ihrem Verhalten strafbar zu machen. Wird durch die Maschine ein Mensch verletzt oder gar getötet, droht eine Strafbarkeit wegen fahrlässiger Körperverletzung (§229 StGB) oder fahrlässiger Tötung (§222 StGB). Gegen diese Rechtsfolge ist, da sie immer den fehlerhaft Handelnden direkt trifft, auch keine Versicherung oder ähnliches möglich. Grundsätzlich setzt die Strafbarkeit wegen fahrlässigen Verhaltens voraus (die einzelnen Voraussetzungen und deren Beziehungen zueinander sind im Detail umstritten): dass der Handelnde gegen einen allgemein anerkannten Sorgfaltsmaßstab verstößt, dass der hervorgerufene Schaden objektiv und subjektiv vorhersehbar war, dass die Handlung nicht vom gesellschaftlich akzeptierten Risiko gedeckt war. In der MRK wird die Beurteilung dieser Aspekte vor einige Herausforderungen gestellt. So orientiert sich der Sorgfaltsmaßstab bezüglich des zulässigen Verhaltens traditionell an dem von einer vernünftigen Person in der konkreten Situation erwartbaren Verhalten; als Indizien werden meist außerrechtliche Standards und soziale Üblichkeiten herangezogen. Die MRK aber stellt uns vor bisher unbekannte Situationen, es gibt dazu kaum allgemeingültige Standards. Zwar finden sich zur Robotik einige ISO- und DIN-Normen, von diesen sind jedoch nicht alle Fallkonstellationen erfasst, nicht wenige dieser Normen sind veraltet oder inzwischen ungültig. Auch werden gelegentlich Zweifel an der Bezugnahme auf solche Normen geäußert, werden sie doch regelmäßig von bestimmten Interessengruppen in nicht immer transparenten Verfahren erlassen. Die möglicherweise einseitige Repräsentation von Interessen gilt noch verstärkt für unternehmensinterne Regelungen. Fehlende Standards sollten natürlich nicht per se zu umfassenden Handlungsverboten führen. Solange es keine adäquaten Normen gibt, ist auf das erlaubte Risiko zu blicken. Sollen solche Standards erlassen werden, ist ein transparentes Verfahren wichtig, möglichst auch unter Einbeziehung der Vertreter unterschiedlicher Interessen und normativer Disziplinen und mit Blick auf die Werte der staatlichen Rechtsordnung. Ein weiteres Problem stellt sich beim Erfordernis der Vorhersehbarkeit. Grundsätzlich gilt es auch in der Robotik, vorhersehbare Schädigungen für Dritte zu vermeiden.

Statische, abstrakte Gefahr

Die MRK begründet zweifellos eine statistische, abstrakte Gefahr für die Beteiligten. Zugleich sind die konkreten Situationen und Handlungen des Roboters unvorhersehbar, die Entscheidungen der Maschine nicht umfassend kontrollierbar, und die menschlichen Akteure haben bisher nur wenig Erfahrung im Umgang mit Robotern. Es stellt sich deshalb die Frage, wie spezifisch die Vorhersehbarkeit sein muss: Fordert man Vorhersehbarkeit der konkreten Situation, wird es nur selten zu einer strafrechtlichen Haftung kommen; reicht die Vorhersehbarkeit in einem statistischen Sinn, könnte sehr häufig eine Strafbarkeit zu bejahen sein – und im Ergebnis auch die Weiterentwicklung dieser Maschinen unangemessen behindert werden. Deshalb scheint dieses Kriterium im Kontext der MRK keine relevante Hürde für die Bestimmung der Fahrlässigkeit darzustellen. Vielmehr sollte der Fokus auf dem erlaubten Risiko liegen. Auch darauf, welches Risiko in diesem Bereich erlaubt ist, hat sich die Gesellschaft derzeit noch nicht einigen können. Sobald es gesetzliche Regelungen gibt, spiegeln diese die Einigung weitgehend. Erlaubt wird ein gewisses Risiko typischerweise deshalb, weil eine Technologie erhebliche Vorteile birgt – für die Gesellschaft, im Fall der MRK aber auch für Arbeitgeber und Arbeitnehmer, der gegebenenfalls weniger stark körperlich beansprucht wird. Die Ermittlung des erlaubten Risikos erfordert eine Auseinandersetzung mit ebendiesen Vorteilen, aber auch den möglichen Nachteilen. Das heißt also, es müsste abgewogen werden, in welchen Lebensbereichen eine voranschreitende Automatisierung wünschenswert erscheint und in welchen nicht; ob bestimmte Menschen von einer (verpflichtenden) Interaktion mit gefährlichen Robotern auszunehmen sind, zum Beispiel Kinder oder einwilligungsunfähige Patienten, sowie über die konkreten Bedingungen für einen möglichst sicheren Einsatz derartiger Maschinen. Ebenfalls relevant für die Überlegungen zum erlaubten Risiko ist, wer eigentlich vom Einsatz der Maschine profitiert, wer die optimalen Steuerungsmöglichkeiten hat und wer in welchem Maß auf das Verhalten der Maschine Einfluss nehmen kann. Solange ausdrückliche gesetzliche Regelungen fehlen, muss der Rechtsanwender diese Überlegungen selbst anstellen und so festlegen, ob sich das Verhalten der Akteure im Rahmen des erlaubten Risikos bewegt. Ein Sonderproblem stellt die Anwendung des so genannten Vertrauensgrundsatzes dar. Während man bei Kooperationen üblicherweise auf die Sorgfalt der anderen Beteiligten vertrauen darf, steht dem in der Robotik gerade die Unbekanntheit des Verhaltens der Maschine und die Unvorhersehbarkeit ihrer Entscheidungen und Handlungen entgegen. Die Möglichkeit des Vertrauens auf die Maschine ist daher derzeit abzulehnen, solange Roboter nicht dauerhaft als Akteure in der Gesellschaft etabliert, bekannt und berechenbar sind. Bei der Zusammenarbeit mit Maschinen ist deshalb jedenfalls derzeit noch deutlich erhöhte Vorsicht im Vergleich mit der Zusammenarbeit mit Menschen anzuwenden.

Zusammenfassung

Durch die Entwicklungen in der Robotik wird das Recht vor neue Herausforderungen gestellt. Erforderlich werden unter anderem Anpassung der Verhaltensstandards und Umverteilung der Verantwortung, neue Gesetze und neue außerrechtliche Standards. Für die Fahrlässigkeit bedeutet das konkret: Mangels eindeutiger Verhaltenserwartungen ist beim Umgang mit Robotern derzeit grundsätzlich besonders hohe Sorgfalt anzuwenden. Der Vertrauensgrundsatz ist derzeit auf Maschinen nicht anwendbar. Außerrechtliche und unternehmensinterne Standards sind auf ihre Übereinstimmung mit rechtlichen Wertungen intensiv zu überprüfen und nicht direkt in das (Straf-)Recht zu übertragen. Bei der Erarbeitung außerrechtlicher Normen ist ein transparenter, demokratischer Prozess erforderlich; Ethiker und Juristen sind in die Entwicklung einzubeziehen. Letztlich muss die Gesellschaft entscheiden, wer mit Robotern interagieren darf und in welchen Lebensbereichen unter welchen Bedingungen die Kollaboration von Mensch und Maschine hinreichend sicher und sozialadäquat ist.

Fallbeispiel für rechtliche Probleme und Haftungsrisiken bei MRK

Industriearbeiter A arbeitet im Werk des Automobilherstellers X. Seit ein paar Monaten wird in der Fertigung ein Roboter eingesetzt, mit dem die Arbeiter direkt zusammenarbeiten – die Arbeiter dirigieren den Weg, der Roboter setzt die Teile ein und die Arbeiter kontrollieren einer unternehmensinternen Bestimmung entsprechend das Produktionsergebnis. Der Roboter ist nicht zertifiziert, entspricht jedoch ISO10218 und wird nach einer Risikobeurteilung unternehmensintern als sicher eingestuft. U.a. hört er mit seiner automatisierten Bewegung auf, wenn er einen Menschen in einer bestimmten Safety Zone bemerkt. Eine weitere unternehmensinterne Richtlinie besagt, dass man sich dem Roboter nur frontal nähern soll. A hat mit dem Roboter zunächst nichts zu tun, als jedoch ein Kollege erkrankt, bittet ihn sein Vorgesetzter, dessen Arbeitsplatz zu übernehmen, gibt A die unternehmensinternen Richtlinien und kurze Anweisungen zur Bedienung. A macht sich an die Arbeit. Zunächst funktioniert die Zusammenarbeit mit dem Roboter reibungslos. Einige Male gelangt A aber in die Safety Zone, die von seinem erkrankten Kollegen eingestellt wurde. Da danach jedes Mal der Roboter still steht, beschließt A, die Safety Zone kleiner zu stellen. Das ist zwar möglich, widerspricht allerdings den unternehmensinternen Richtlinien.Der Kollege des A, C, geht davon aus, dass alle Roboter eine ähnliche Safety Zone haben und nähert sich deshalb unbekümmert dem Roboter. Tatsächlich erkennt der Roboter ihn aufgrund der geänderten Einstellung nicht schnell genug und der Greifer verletzt C am Oberarm. A argumentiert, dass der Roboter immer noch der ISO-Norm entsprochen hätte und unternehmensinterne Richtlinien keine rechtliche Relevanz hätten. Außerdem sei für ihn nicht vorhersehbar gewesen, dass C – der sonst einen ganz anderen Arbeitsbereich hat – gerade an diesem Tag in die Nähe des Roboters geht. Der Roboter solle gerade individuell einstellbar sein und nur das habe er ja gemacht – dass der Roboter bei seinen Bewegungen jemanden mit dem Greifarm schädigen könne, hätte er als Laie wohl nicht wissen können. C meint, er habe auch nicht wissen können, dass der Roboter so reagiere.

An diesem Beispiel zeigen sich verschiedene rechtliche Probleme: So ist der konkrete Unfall jedenfalls für Programmierer und Hersteller des Roboters keinesfalls vorhersehbar. Auch haben sie aufgrund des konkreten Trainings durch Nutzer A keinen Einfluss mehr auf die spezifische Sicherheit gerade dieser Maschine. A konnte jedoch ebenfalls nicht vorhersehen, dass gerade ein solcher Unfall eintreten könnte. Es zeigt sich hier zudem, dass die bloße Einhaltung von außerrechtlichen Normen nicht zu einem Haftungsausschluss für die Beteiligten führt. Selbst wenn die unternehmensinternen Richtlinien tatsächlich keine Rechtskraft haben, dienen sie doch der Orientierung, zumindest solange sie die Werte der Gesamtgesellschaft nicht außer Acht lassen – dafür gibt es hier keine Hinweise.

Der Fall zeigt auch, dass insbesondere das Einstellen auf den unbekannten Akteur ‚Maschine‘ noch eine Weile dauern wird und bis dahin das Risiko von Schädigungen erhöht ist. Das zeigt sich umso mehr, wenn das maschinelle Handeln unbeteiligte Dritte betrifft: Im Folgenden dreht der Roboter bei einigen Kfz eine Schraube nicht ganz fest – ein Risiko, das vorher vom Hersteller des Roboters mit einer Wahrscheinlichkeit von 0,5 Prozent eingeschätzt und deshalb als zu vernachlässigen angesehen wurde. Das Risiko wurde den Firmen, die den Roboter einsetzten, aber kommuniziert.Aufgrund der falsch eingesetzten Schraube kommen einige Autos von der Straße ab, wodurch drei Passanten verletzt werden. Die Ursache des Fehlers kann im Nachhinein nicht sicher festgestellt werden; denkbar ist ein Fehler des Programmierers, des Herstellers, aber auch desjenigen,der die Roboter im Automobilunternehmen einsetzte und an die Aufgaben anpasste. Es lässt sich jedoch feststellen, dass eine Kontrolle durch A – wie sie in den unternehmensinternen Richtlinien vorgeschrieben ist – mit an Sicherheit grenzender Wahrscheinlichkeit zur rechtzeitigen Entdeckung des Fehlers geführt hätte. Zutreffend ist aber auch,dass bei einer Arbeitsteilung mit einem Kollegen bei ähnlichen Aufgaben im Unternehmen keine gegenseitige Kontrolle stattfindet,da sich dies als unnötig erwiesen hatte. A weiß, dass er eigentlich das Produkt kontrollieren sollte- da er sich aber auch bei Kollegen auf deren Arbeit verlassen könne, müsse das doch bei Robotern erst recht gelten, da die doch noch genauer arbeiten.

Neben der Komplexität bei der Fehlerermittlung zeigt dieses Beispiel auch, dass aufgrund der Unbekanntheit der Maschine derzeit noch kein Vertrauen auf deren Verhalten möglich ist. Ob und unter welchen Bedingungen eine Maschine zuverlässig handelt, ist von außen nicht erkennbar. Besteht die Möglichkeit, dass die Maschine auch unbeteiligte Dritte schädigt, ist deshalb besonders vorsichtig zu agieren. Sind Kontrollen vorgeschrieben, ist es für die Sicherheit aller potenziell Betroffenen essentiell, sie durchzuführen.

Leibniz Universität Hannover
www.ipeg.uni-hannover.de

Das könnte Sie auch Interessieren

Bild: SMW-electronics GmbH
Bild: SMW-electronics GmbH
Kontaktlose Übertragung von Energie und Signalen durch induktive Koppelsysteme von SMW-Electronics

Kontaktlose Übertragung von Energie und Signalen durch induktive Koppelsysteme von SMW-Electronics

Eine wesentliche Rolle auf dem Weg zur digitalen Fabrik spielt smarte Konnektivität. Zur kontaktlosen Übertragung von Energie und Signalen für die Anbindung von Sensoren und Aktoren hat SMW-Electronics induktive Koppelsysteme entwickelt. In den unterschiedlichen Bauformen können sie nicht nur zusätzlichen Nutzen ausspielen, sondern ermöglichen auch ganz neuartige Anwendungen. Endlos rotierende Robotergreifer sind nur ein Beispiel.

Bild: DM-Drogerie Markt
Bild: DM-Drogerie Markt
Kommissionierung von Versandpaletten

Kommissionierung von Versandpaletten

Im Verteilzentrum der Drogeriekette DM in Wustermark bei Berlin sind insgesamt 19 Kuka-Roboter im Einsatz. Sie palettieren, depalettieren und positionieren die Waren vor, die dann vom Verteilzentrum aus ihren Weg in die DM-Filialen finden. Die automatisierten Intralogistiklösungen dort kommen von Swisslog. Das neuartige daran: Um alle Filialen flexibel und individuell mit Waren zu versorgen, kommt ein digitaler Zwilling der Filiale zum Einsatz.