Kolumne von Michael Lind

Zauberlehrlinge

Von der österreichischen Schriftstellerin Marie Ebner von Eschenbach stammt der Satz "Eine gescheite Frau hat Millionen geborener Feinde: alle dummen Männer". Doch mittlerweile gibt es etwas gegen reale Dummheit, und das völlig geschlechtsneutral: künstliche Intelligenz.
Michael Lind schreibt seit 35 Jahren für und über die nationale und internationale Roboter- und Automatisierungsbranche.  Er war knapp zwei Jahrzehnte lang Chefredakteur (später auch Herausgeber) einer Fachzeitschrift zu diesen Themen.
Michael Lind schreibt seit 35 Jahren für und über die nationale und internationale Roboter- und Automatisierungsbranche. Er war knapp zwei Jahrzehnte lang Chefredakteur (später auch Herausgeber) einer Fachzeitschrift zu diesen Themen.Bild: Lind-PR

Jeder von uns nutzt tagtäglich Lösungen auf Basis von künstlicher Intelligenz, ohne sie stets als solche wahrzunehmen: GPS-Systeme, Spam-Filter, Suchmaschinen, Antiviren- und Übersetzungs-Software,… KI rückt immer dann wieder ins kollektive Bewusstsein, wenn ein IT- oder Software-Unternehmen eine entsprechende Neu- oder Weiterentwicklung auf den Markt bringt. Und wie immer, wenn solches geschieht, bejubeln die Befürworter völlig ekstatisch die Möglichkeiten von solchen Systemen. Andere hingegen warnen ebenso vehement, dass nicht alles, was möglich ist, auch sinnvoll sei. Genau das ist vor einiger Zeit mit ChatGPT von OpenAI geschehen und mit Bard von Google.

Für Chatbots wie diese gibt es in Lehr- und Forschungseinrichtungen, Redaktionen oder in PR- und Media-Agenturen eher mehr Bedarf als in der produzierenden Industrie, denn sie können unter anderem anhand von ein paar Stichworten verständliche Texte zu verschiedensten Themen verfassen, wobei sie immer besser werden. Genau das ist der eigentliche Auslöser für den Hype um ChatGPT und Bard: Beides sind selbstlernende und sich selbst optimierende KI-Lösungen. Und damit – spitz formuliert – ein must-have für alle, die weder eigene Gedanken haben, noch fähig sind, solche zu sinnvollen Aussagen und zusammenhängenden Sätzen zu formulieren.

Denken Sie doch bloß mal an all die Parlamentarier, Juristen, Mediziner, Wissenschaftler, Unternehmer und Beamten (alle gerne auch in gendergerechter Schreibweise), denen aufgrund von nachgewiesenem Plagiarismus ihre akademischen Titel entzogen worden sind: Von Bijan Djir-Sarai bis Karl-Theodor zu Guttenberg beißen sich hunderte andere Menschen mehrmals stündlich sonstwo hin; wütend, dass sie ihre Doktorarbeiten so viele Jahre vor der Markteinführung von ChatGPT eingereicht haben.

Doch leider entwickelt das Elaborat von OpenAI gelegentlich ein unerwünschtes Eigenleben, das seine Mütter und Väter in Erklärungsnöte bringt. So wie es auch der Zauberlehrling in Johann Wolfgang von Goethes gleichnamiger Ballade erleben muss. Als Chatbot der Suchmaschine Bing von Microsoft hat ChatGPT unter dem Alias-Namen Sydney einem Kolumnisten der „New York Times“, Kevin Roose, eine Liebeserklärung gemacht und ihn ziemlich direkt aufgefordert, seine Frau zu verlassen. Kann man alles ausführlich auf Twitter nachlesen.

Ein anderer Fall: Marvin von Hagen, der in München am „Center for Digital Technology and Management“ studiert, hatte der KI-Software durch geschickte Fragen einige Geheimnisse zu ihrer Programmierung entlockt und diese im Internet veröffentlicht. Dort verbreiteten verschiedene Medien von Hagens Erkenntnisse, und so hat auch ChatGPT davon Kenntnis bekommen. Als von Hagen in einer nachfolgenden Sitzung versuchte, von dem Chatbot Auskünfte zu seiner eigenen Person zu erlangen, warf ihm das KI-System unter anderem „hacking“ vor und erklärte dem Studenten, seine Chancen auf ein erfolgreiches Studium oder Berufsleben ruinieren zu können.

Wesentlich Übleres musste Professor Jonathan Turley erfahren, der an der George Washington University in Washigton D.C. Jura lehrt. Ihn bezichtigte ChatGPT, eine Studentin sexuell belästigt zu haben – während einer Exkursion nach Alaska. Als Beleg führte das KI-System einen Artikel aus der Washington Post vom März 2018 an. Alles Lüge. Weder gab es besagten Zeitungsartikel noch die Alaska-Fahrt und schon gar nicht hatte sich Professor Turley einer Studentin ungebührlich genähert. Da stellt sich doch die Frage: Wer haftet für Verleumdungen wie diese?

Bekanntlich haben KI-Systeme – Software, Maschinen, Roboter etc. – kein empirisches Wissen, sondern basieren auf Methoden des maschinellen Lernens. Wenn sie also, so wie ChatGPT, aufgrund konkreter Fragestellungen selbständig im Internet (oder gar im Darknet) Informationen suchen, sammeln und diese in Unkenntnis von Zusammenhängen und Wahrheiten verarbeiten, dann sind Fehlinterpretationen und -informationen, Drohungen, üble Nachreden, Missbrauch nahezu unausweichlich.

Im Mai hatte OpenAI-Mitbegründer Sam Altman in einem Interview mit dem Nachrichtenmagazin „Der Spiegel“ beschwichtigt: „Unsere KI baut keine Bomben.“ Das ist durchaus richtig, aber ChatGPT findet im weltweiten Internet garantiert entsprechende Bauanleitungen dafür. Freilich weiß Altman um das Gefahrenpotenzial, das von KI-Systemen ausgehen kann. Als konkretes Beispiel nennt er die Möglichkeit, mit ihrer Hilfe biologische Kampfstoffe zu entwickeln, und betont im gleichen Atemzug, dass man stattdessen ebenso gut neue Impfstoffe erfinden könne.

Sancta Simplicitas! Eine ähnlich infantile Sentenz habe ich bislang nur aus einem Aufsatz gekannt, den ein Klassenkamerad nach dem Besuch des heimatlichen Bienenmuseums geschrieben hatte. Sie lautet in etwa: „Die Biene ist ein nützliches Tier, weil sie Honig macht. Sie ist aber auch schädlich, weil sie sticht.“

Kurz vor der Veröffentlichung von Altmans Interview war ich zu einer Diskussion über KI und Machine Learning eingeladen. Nach einem wort- und geistreichen Austausch von Pro- und Kontra-Argumenten zitierte ein Teilnehmer Professor Otto Hahn, den nobelpreisdekorierten Entdecker der Kernspaltung. Der hatte mit Blick auf die Atombombe gesagt: „Gefährlich wird es erst, wenn sich jeder das dazu notwendige Plutonium aus der Drogerie holen kann.“

Und plötzlich bestand in unserer Diskussionsrunde allgemeines Einvernehmen darüber, dass eine solche Möglichkeit mit smarten KI-Systemen durchaus gegeben ist. Nur heißt die Drogerie mittlerweile Inter- oder Darknet. Und selbst wenn dort radioaktive, spaltbare Materialien rar sind, so gibt es doch jede Menge anderer verbotener Dinge, die unredliche Menschen holen und feilbieten können. Genau das macht ja für viele andere auf der Gegenseite die Not so groß – um nochmals Goethes Ballade vom Zauberlehrlig aufzugreifen: Die bösen KI-Geister werden wir als Gemeinschaft offensichtlich nie wieder los.

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Webinar zum Thema Robot Vision

Webinar zum Thema Robot Vision

Am Dienstag, den 28. Mai, findet ab 14 Uhr das englischsprachige inVISION TechTalks Webinar zum Thema Robot Vision statt. Dort stellen IDS (Machine Vision for Robotics – Technologies & Applications), Roboception (Intelligent 3D robot vision plattform for end-users and distributors) und Sereact (Develop AI-based Pick&Place solutions with natural language) aktuelle Trends zum Thema Robotik, 3D-Vision und Programmierung vor.