Kolumne von Michael Lind

Zauberlehrlinge

Von der österreichischen Schriftstellerin Marie Ebner von Eschenbach stammt der Satz "Eine gescheite Frau hat Millionen geborener Feinde: alle dummen Männer". Doch mittlerweile gibt es etwas gegen reale Dummheit, und das völlig geschlechtsneutral: künstliche Intelligenz.
Michael Lind schreibt seit 35 Jahren für und über die nationale und internationale Roboter- und Automatisierungsbranche.  Er war knapp zwei Jahrzehnte lang Chefredakteur (später auch Herausgeber) einer Fachzeitschrift zu diesen Themen.
Michael Lind schreibt seit 35 Jahren für und über die nationale und internationale Roboter- und Automatisierungsbranche. Er war knapp zwei Jahrzehnte lang Chefredakteur (später auch Herausgeber) einer Fachzeitschrift zu diesen Themen.Bild: Lind-PR

Jeder von uns nutzt tagtäglich Lösungen auf Basis von künstlicher Intelligenz, ohne sie stets als solche wahrzunehmen: GPS-Systeme, Spam-Filter, Suchmaschinen, Antiviren- und Übersetzungs-Software,… KI rückt immer dann wieder ins kollektive Bewusstsein, wenn ein IT- oder Software-Unternehmen eine entsprechende Neu- oder Weiterentwicklung auf den Markt bringt. Und wie immer, wenn solches geschieht, bejubeln die Befürworter völlig ekstatisch die Möglichkeiten von solchen Systemen. Andere hingegen warnen ebenso vehement, dass nicht alles, was möglich ist, auch sinnvoll sei. Genau das ist vor einiger Zeit mit ChatGPT von OpenAI geschehen und mit Bard von Google.

Für Chatbots wie diese gibt es in Lehr- und Forschungseinrichtungen, Redaktionen oder in PR- und Media-Agenturen eher mehr Bedarf als in der produzierenden Industrie, denn sie können unter anderem anhand von ein paar Stichworten verständliche Texte zu verschiedensten Themen verfassen, wobei sie immer besser werden. Genau das ist der eigentliche Auslöser für den Hype um ChatGPT und Bard: Beides sind selbstlernende und sich selbst optimierende KI-Lösungen. Und damit – spitz formuliert – ein must-have für alle, die weder eigene Gedanken haben, noch fähig sind, solche zu sinnvollen Aussagen und zusammenhängenden Sätzen zu formulieren.

Denken Sie doch bloß mal an all die Parlamentarier, Juristen, Mediziner, Wissenschaftler, Unternehmer und Beamten (alle gerne auch in gendergerechter Schreibweise), denen aufgrund von nachgewiesenem Plagiarismus ihre akademischen Titel entzogen worden sind: Von Bijan Djir-Sarai bis Karl-Theodor zu Guttenberg beißen sich hunderte andere Menschen mehrmals stündlich sonstwo hin; wütend, dass sie ihre Doktorarbeiten so viele Jahre vor der Markteinführung von ChatGPT eingereicht haben.

Doch leider entwickelt das Elaborat von OpenAI gelegentlich ein unerwünschtes Eigenleben, das seine Mütter und Väter in Erklärungsnöte bringt. So wie es auch der Zauberlehrling in Johann Wolfgang von Goethes gleichnamiger Ballade erleben muss. Als Chatbot der Suchmaschine Bing von Microsoft hat ChatGPT unter dem Alias-Namen Sydney einem Kolumnisten der „New York Times“, Kevin Roose, eine Liebeserklärung gemacht und ihn ziemlich direkt aufgefordert, seine Frau zu verlassen. Kann man alles ausführlich auf Twitter nachlesen.

Ein anderer Fall: Marvin von Hagen, der in München am „Center for Digital Technology and Management“ studiert, hatte der KI-Software durch geschickte Fragen einige Geheimnisse zu ihrer Programmierung entlockt und diese im Internet veröffentlicht. Dort verbreiteten verschiedene Medien von Hagens Erkenntnisse, und so hat auch ChatGPT davon Kenntnis bekommen. Als von Hagen in einer nachfolgenden Sitzung versuchte, von dem Chatbot Auskünfte zu seiner eigenen Person zu erlangen, warf ihm das KI-System unter anderem „hacking“ vor und erklärte dem Studenten, seine Chancen auf ein erfolgreiches Studium oder Berufsleben ruinieren zu können.

Wesentlich Übleres musste Professor Jonathan Turley erfahren, der an der George Washington University in Washigton D.C. Jura lehrt. Ihn bezichtigte ChatGPT, eine Studentin sexuell belästigt zu haben – während einer Exkursion nach Alaska. Als Beleg führte das KI-System einen Artikel aus der Washington Post vom März 2018 an. Alles Lüge. Weder gab es besagten Zeitungsartikel noch die Alaska-Fahrt und schon gar nicht hatte sich Professor Turley einer Studentin ungebührlich genähert. Da stellt sich doch die Frage: Wer haftet für Verleumdungen wie diese?

Bekanntlich haben KI-Systeme – Software, Maschinen, Roboter etc. – kein empirisches Wissen, sondern basieren auf Methoden des maschinellen Lernens. Wenn sie also, so wie ChatGPT, aufgrund konkreter Fragestellungen selbständig im Internet (oder gar im Darknet) Informationen suchen, sammeln und diese in Unkenntnis von Zusammenhängen und Wahrheiten verarbeiten, dann sind Fehlinterpretationen und -informationen, Drohungen, üble Nachreden, Missbrauch nahezu unausweichlich.

Im Mai hatte OpenAI-Mitbegründer Sam Altman in einem Interview mit dem Nachrichtenmagazin „Der Spiegel“ beschwichtigt: „Unsere KI baut keine Bomben.“ Das ist durchaus richtig, aber ChatGPT findet im weltweiten Internet garantiert entsprechende Bauanleitungen dafür. Freilich weiß Altman um das Gefahrenpotenzial, das von KI-Systemen ausgehen kann. Als konkretes Beispiel nennt er die Möglichkeit, mit ihrer Hilfe biologische Kampfstoffe zu entwickeln, und betont im gleichen Atemzug, dass man stattdessen ebenso gut neue Impfstoffe erfinden könne.

Sancta Simplicitas! Eine ähnlich infantile Sentenz habe ich bislang nur aus einem Aufsatz gekannt, den ein Klassenkamerad nach dem Besuch des heimatlichen Bienenmuseums geschrieben hatte. Sie lautet in etwa: „Die Biene ist ein nützliches Tier, weil sie Honig macht. Sie ist aber auch schädlich, weil sie sticht.“

Kurz vor der Veröffentlichung von Altmans Interview war ich zu einer Diskussion über KI und Machine Learning eingeladen. Nach einem wort- und geistreichen Austausch von Pro- und Kontra-Argumenten zitierte ein Teilnehmer Professor Otto Hahn, den nobelpreisdekorierten Entdecker der Kernspaltung. Der hatte mit Blick auf die Atombombe gesagt: „Gefährlich wird es erst, wenn sich jeder das dazu notwendige Plutonium aus der Drogerie holen kann.“

Und plötzlich bestand in unserer Diskussionsrunde allgemeines Einvernehmen darüber, dass eine solche Möglichkeit mit smarten KI-Systemen durchaus gegeben ist. Nur heißt die Drogerie mittlerweile Inter- oder Darknet. Und selbst wenn dort radioaktive, spaltbare Materialien rar sind, so gibt es doch jede Menge anderer verbotener Dinge, die unredliche Menschen holen und feilbieten können. Genau das macht ja für viele andere auf der Gegenseite die Not so groß – um nochmals Goethes Ballade vom Zauberlehrlig aufzugreifen: Die bösen KI-Geister werden wir als Gemeinschaft offensichtlich nie wieder los.

Das könnte Sie auch Interessieren

Bild: Pilz GmbH & Co. KG
Bild: Pilz GmbH & Co. KG
Zugang im sicheren Fokus

Zugang im sicheren Fokus

In Produktionsumgebungen geben trennende Schutzeinrichtungen dem Menschen das Signal, dass sich hinter der Schutztür ein hochsensibler Bereich befindet und daher Vorsicht geboten ist. Hier erhalten Mitarbeiter über ein HMI oder einen Schlüssel, z.B. von Pilz, Zugang zum Prozess hinter dem Schutzzaun. Aber was, wenn die Person dafür nicht qualifiziert bzw. autorisiert wäre und sich oder andere Menschen in Gefahr bringen würde?

Bild: ©Fröhlich Max (LVT)/Liebherr-Verzahntechnik GmbH
Bild: ©Fröhlich Max (LVT)/Liebherr-Verzahntechnik GmbH
Vorabsimulation per digitalem Zwilling

Vorabsimulation per digitalem Zwilling

Die virtuelle Inbetriebnahme einer Palettierzelle mit automatischer Beladung einer Wälzschälmaschine per Roboter von Liebherr-Verzahntechnik konnte die Projektdauer bei einem Getriebehersteller signifikant verkürzen. Die Vorabsimulation per digitalem Zwilling sparte bei der realen Inbetriebnahme Zeit und Kosten und sorgte für Planungssicherheit zum Produktionsstart.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Wenn das FTS mit dem Roboter…

Wenn das FTS mit dem Roboter…

Autonome mobile Roboter und kollaborierende Knickarmroboter sind zwei Evergreens im Robotik-Trendkarussell. Relativ neu ist allerdings die Möglichkeit beide Helferlein zu kombinieren. Der autonome mobile Roboter erweitert den Arbeitsbereich des Cobots oder auch eines größeren Roboters enorm und macht ihn mobil. Das bietet neue Möglichkeiten z.B. bei der Maschinenbe- und entladung, beim Werkstück- und Materialtransport oder in der Qualitätsinspektion.

Bild: Fronius International GmbH
Bild: Fronius International GmbH
Hohe Bauteilvielfalt

Hohe Bauteilvielfalt

Das österreichische Unternehmen Anton Paar fertigt Messgeräte für vielerlei Branchen. Da zunehmender
Fachkräftemangel und permanent steigende Stückzahlen intelligente Produktionslösungen erfordern, investierte das Unternehmen in eine Roboterschweißzelle von Fronius. Mit der Zelle ist es möglich, einen kompletten Schweißauftrag in einem Zug abzuwickeln, auch wenn eine Charge mehrere unterschiedliche Objekte umfasst.