Zur Fahrlässigkeitshaftung im Kontext der Mensch/Roboter-Kollaboration

Zur Fahrlässigkeitshaftung im Kontext der Mensch/Roboter-Kollaboration

MRK aus rechtlicher Perspektive

Hatten Mitarbeiter und Roboter bisher getrennte Arbeitsbereiche, so entwickelt sich die Forschung immer mehr hin zu einer Zusammenarbeit von Mensch und Maschine. Diese Entwicklung birgt viele Chancen, aber auch (rechtliche) Risiken. Das Recht steht in Bezug auf die Entwicklung der Robotik vor neuen Herausforderungen.

Bild: ©phonlamaiphoto/Fotolia.com

In der Mensch/Roboter-Kollaboration sollen die Risiken so niedrig wie möglich gehalten werden und die Frage der Verantwortung weitgehend vorab geklärt sein. Schon jetzt haben die Beteiligten aus Forschung, Entwicklung und Herstellung ein berechtigtes Interesse daran, die potenziellen Haftungsrisiken ihrer Forschungstätigkeit und der späteren Produktion zu kennen, Versicherungen möchten sich auf diese neuartigen Produkte einstellen können, und auch die Gesellschaft wird dem Fortschritt der Robotik zweifellos noch offener begegnen, wenn möglichst große Einigkeit über die Verteilung der Verantwortung und der Risiken besteht. Aus diesen Gründen ist eine frühe Kooperation zwischen Robotik und normativen Disziplinen – Ethik und Rechtswissenschaft – ratsam. Dabei geht es nicht darum, die Forschung in eine bestimmte Richtung zu dirigieren, Verbote zu erlassen oder Ängste zu schüren. Vielmehr werden Forschung und Produktion rechtlich begleitet und so weitgehende Sicherheit für die Gesellschaft hergestellt; Rechtssicherheit ist auch aus Perspektive der Robotik wichtig für den technischen Fortschritt. Im Folgenden wird die Fahrlässigkeitshaftung im Bereich der MRK als ein Sonderproblem beleuchtet – nur einer von vielen Aspekten der Robotik, die das Recht künftig wird diskutieren müssen.

Rechtliche Perspektive

Traditionell arbeiten Mensch und (Industrie-) Roboter physisch voneinander getrennt. Dadurch entsteht eine nur geringe, überschaubare Gefahr der Verletzung des menschlichen Arbeiters, die kaum höher ist als bei vielen anderen Maschinen auch. Derzeit treffen Mensch und Roboter aber immer öfter real zusammen und teilen sich konkrete Aufgaben. So bedient z.B. der Mensch den Roboterarm, indem er ihn führt und ihm so eine bestimmte Bewegung beibringt. Damit steigt die Gefahr einer Schädigung – des bedienenden Menschen, aber auch Dritter, die sich dem Roboter nun direkt nähern können. Die Risiken erhöhen sich noch beim Einsatz lernender, Entscheidungen treffender Maschinen oder durch die Vernetzung der Maschinen. Denn dadurch entstehen eine erhebliche Unvorhersehbarkeit des Verhaltens der Maschine sowie Beweisprobleme bezüglich der Ursache eines Fehlverhaltens. Im Folgenden soll jedoch, um die Bedeutung der rechtlichen Begleitung schon für den Ist-Stand zu verdeutlichen, die mögliche strafrechtliche Fahrlässigkeitshaftung bei der aktuellen MRK im Vordergrund stehen.

Zivil- und Strafrecht

Die MRK wirft nicht nur Fragen der strafrechtlichen Fahrlässigkeitshaftung auf, sondern wird über den hier vorgenommenen Fokus auch in anderen Rechtsgebieten zu diskutieren sein. Im Zivilrecht wird man nicht nur die vertragliche und nichtvertragliche Haftung für (materielle) Schäden analysieren müssen, sondern auch, ob beziehungsweise unter welchen Bedingungen die Verpflichtung zur Kollaboration arbeitsrechtlich zulässig ist und wie die MRK versicherungsrechtlich zu regeln sein wird – in Betracht kommen etwa Pflichtversicherungen. Im öffentlichen Recht ist zum einen mit dem Roboter als Gefahrenquelle umzugehen, das heißt, es sind unter anderem Zulassungsregeln zu finden, Einsatzbereiche festzulegen, Genehmigungserfordernisse und Kontrollen einzurichten. Auch der Einsatz von Robotern zur Gefahrenabwehr, etwa bei der Unterstützung polizeilicher Arbeit, wird zu regeln sein. Mitarbeiter aus den Bereichen Forschung und Produktion der Robotik haben Bedenken, sich mit ihrem Verhalten strafbar zu machen. Wird durch die Maschine ein Mensch verletzt oder gar getötet, droht eine Strafbarkeit wegen fahrlässiger Körperverletzung (§229 StGB) oder fahrlässiger Tötung (§222 StGB). Gegen diese Rechtsfolge ist, da sie immer den fehlerhaft Handelnden direkt trifft, auch keine Versicherung oder ähnliches möglich. Grundsätzlich setzt die Strafbarkeit wegen fahrlässigen Verhaltens voraus (die einzelnen Voraussetzungen und deren Beziehungen zueinander sind im Detail umstritten): dass der Handelnde gegen einen allgemein anerkannten Sorgfaltsmaßstab verstößt, dass der hervorgerufene Schaden objektiv und subjektiv vorhersehbar war, dass die Handlung nicht vom gesellschaftlich akzeptierten Risiko gedeckt war. In der MRK wird die Beurteilung dieser Aspekte vor einige Herausforderungen gestellt. So orientiert sich der Sorgfaltsmaßstab bezüglich des zulässigen Verhaltens traditionell an dem von einer vernünftigen Person in der konkreten Situation erwartbaren Verhalten; als Indizien werden meist außerrechtliche Standards und soziale Üblichkeiten herangezogen. Die MRK aber stellt uns vor bisher unbekannte Situationen, es gibt dazu kaum allgemeingültige Standards. Zwar finden sich zur Robotik einige ISO- und DIN-Normen, von diesen sind jedoch nicht alle Fallkonstellationen erfasst, nicht wenige dieser Normen sind veraltet oder inzwischen ungültig. Auch werden gelegentlich Zweifel an der Bezugnahme auf solche Normen geäußert, werden sie doch regelmäßig von bestimmten Interessengruppen in nicht immer transparenten Verfahren erlassen. Die möglicherweise einseitige Repräsentation von Interessen gilt noch verstärkt für unternehmensinterne Regelungen. Fehlende Standards sollten natürlich nicht per se zu umfassenden Handlungsverboten führen. Solange es keine adäquaten Normen gibt, ist auf das erlaubte Risiko zu blicken. Sollen solche Standards erlassen werden, ist ein transparentes Verfahren wichtig, möglichst auch unter Einbeziehung der Vertreter unterschiedlicher Interessen und normativer Disziplinen und mit Blick auf die Werte der staatlichen Rechtsordnung. Ein weiteres Problem stellt sich beim Erfordernis der Vorhersehbarkeit. Grundsätzlich gilt es auch in der Robotik, vorhersehbare Schädigungen für Dritte zu vermeiden.

Seiten: 1 2 3Auf einer Seite lesen

Leibniz Universität Hannover
www.ipeg.uni-hannover.de

Das könnte Sie auch Interessieren

Bild: KUKA AG
Bild: KUKA AG
Cobot-Einsatz in der Qualitätssicherung

Cobot-Einsatz in der Qualitätssicherung

Zur Qualitätssicherung des neuen Mahlwerks für die neue Kaffeemarke Ligre hinsichtlich Langlebigkeit und Einhaltung des voreingestellten Kaffeegewichts setzten die Entwicklungstechniker von Gronbach in einem Testaufbau auf die Unterstützung durch den Cobot LBR iisy von Kuka.

Bild: Fraunhofer-Institut IML
Bild: Fraunhofer-Institut IML
Belohnung als 
Anreiz zum Lernen

Belohnung als Anreiz zum Lernen

KI-Entwickler Julian Eßer trainiert Roboter, sich intelligent zu verhalten. Denn das Entscheidende ist, dass die Maschinen nicht nur bei kalkulierbaren Ereignissen richtig handeln. Vor allem müssen sie auch in unvorhergesehen Situationen das Richtige tun. Dafür testet er als Mitglied des AI Grids, einer Initiative des Bundesforschungsministeriums, die vielversprechende Talente in künstlicher Intelligenz in Deutschland fördert, am Fraunhofer IML Hunderte Roboter in virtuellen Welten. Ziel ist, dass die Maschinen üben und lernen, mit Störungen und Varianten ähnlicher Situationen umzugehen – und dann selbst Varianten anbieten. Dafür kommt eine Art Belohnungssystem für Roboter zum Einsatz: So lernen sie leichter aus Fehlern und wählen den schnellsten und effektivsten Weg zum Ziel.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
inVISION Day Metrology 2024

inVISION Day Metrology 2024

Am 16. Mai 2024 findet zum zweiten Mal der inVISION Day Metrology – Digital Conference for Metrology statt. An dem Tag werden in den vier Sessions 3D-Scanner, Inline Metrology, Surface Inspection sowie CT & X-Ray aktuelle Lösungen und Produkte in zahlreichen 20-minütigen Vorträgen präsentiert.