Chancen und Risiken einer KI

Das Vorstandsmitglied der AfD-Vogelsbergkreis, Rolf Keil (Dipl. Ing. ET), stellt fest, dass der Einsatz von künstlicher Intelligenz (KI) sowohl große Chancen als auch große Risiken mit sich bringt. Aber was genau versteht man unter KI?
In einem Werbespot eines großen deutschen DAX-Unternehmens heißt es zum Thema KI: „Sogar ihr Toaster denkt!“ oder „Wer erarbeitet Lösungen für die Zukunft? Nur die Unter­nehmen!“ Was bedeutet das für uns?
Wie sie unschwer vermuten, kann ihr Toaster gar nicht denken. Er enthält lediglich einen Mikrocontroller, der ein Programm zur Bedienung ausführt. Selbst wenn es eines Tages eine funktionierende Sprachsteuerung geben sollte, wird lediglich ein leistungsfähigeres Pro­gramm ausgeführt. Diese Form von KI birgt weitestgehend keine Risiken. Es gibt aber eine andere, neue Form von KI, die sogenannten, selbstlernenden künstlichen Intelligenzen, die einfach nur als KI bezeichnet werden, sich aber grundlegend von bisherigen Computern unterscheiden. Sie sind oft mit anderen Prozessoren aufgebaut und verfügen über spezielle Algorithmen, die es der Maschine erlauben, Prozesse zu analysieren und sich selbst zu programmieren, bzw. Programme und Algorithmen zu entwickeln, die ein Problem best­möglich lösen. Wie funktioniert das?
Nehmen wir als Beispiel den im Sommer 2017 von Google vorgestellten Schachcomputer auf Basis einer selbstlernenden KI. Man stellte dieser KI lediglich das Regelwerk des Schachspiels zur Verfügung. Dann ließ man sie in ihrer Lernphase einfach gegen sich selbst spielen. Nach ein paar Tagen und 100.000 gespielter Partien produzierte diese KI nur noch Remis. Sie hatte ausgelernt. Danach trat sie gegen den weltbesten Schachcomputer an, der über riesige Datenbanken mit allen möglichen bereits gespielten Schachpartien verfügte. Man ließ die beiden Gegner 100 Partien spielen. Nach 78 Remis siegte die selbstlernende KI 22-mal in Folge. Was bedeutet das für uns?
Mal angenommen, sie müssten in einer Fabrik Arbeitsabläufe an einer Fertigungsstraße einrichten und auch Roboter programmieren. Das gewünschte Ergebnis ist bei möglichst geringen Kosten eine möglichst große Anzahl von Produkten herzustellen. Sie erklären einer selbstlernenden KI das Regelwerk, also wie alles funktionieren soll, in Form eines regel­basierten Lastenheftes. Die selbstlernende KI wird das Lastenheft analysieren und alle statistischen Variablen in die Kalkulation mit einbeziehen. Nach ein paar Tagen und vielleicht mehreren Tausend simulierten Testläufen wird sie alle Roboter programmiert und alle Arbeits­abläufe optimiert haben. Sie wäre damit startklar. Nach dem Beginn der Fertigung lernt sie weiter dazu und verbessert nochmals die Ergebnisse.
Es werden nicht nur Arbeitsplätze in der Fertigung verloren gehen, auch die Software-Ingenieure werden früher oder später nicht mehr gebraucht, weil die selbstlernende KI die Programmierung übernehmen wird. Es werden aber Menschen benötigt, die in der Lage sind, komplexe Sachverhalte in ihrer Muttersprache in eindeutiger Form als Lastenheft für eine selbstlernende KI niederzuschreiben. Die unverfälschte, deutsche Sprache eignet sich nebenbei gesagt hierfür ideal.
Ein anderes Beispiel. Man könnte alle Gesetzesbücher Deutschlands einer selbstlernenden KI als Regelwerk vorgeben und untersuchen lassen, wie sich Gesetze bei statistisch schwanken­den Ein­gangsparametern auswirken und wie sie die Ausgangsergebnisse beeinflussen. Manche Gesetze sind bekanntlich wirkungslos geblieben oder es hat sich das Gegenteil dessen eingestellt, was eigentlich erwünscht war (Mietpreisbremse). Eine selbstlernende KI hätte die Fähigkeiten, das vorher zu entdecken. Sie könnte uns dabei helfen, das immer komplexer werdende Gesetzeswerk im Verlaufe von ein paar Jahren zu entrümpeln. Nun aber ein paar Worte zu den Risiken.
Ich habe nicht im Entferntesten eine Vorstellung davon, was eine selbstlernende KI alles anrichten könnte, wenn sie außer Kontrolle gerät. Wir hörten nicht nur von Google, das sie diese Technologie bereits haben, sondern auch die Chinesen haben sich im Verlaufe dieses Jahres bereits weit aus dem Fenster gelehnt. Mittlerweile ist sogar vom globalen Cyberkrieg der KI die Rede. Es besteht die Gefahr des Missbrauchs der selbstlernenden KI und die Gefahr ihrer Verselbstständigung. Ich will nicht den „Terminator“ oder das Szenario von „I Robot“ an die Wand malen, aber wir müssen uns die Frage stellen, ob wir dieser Technologie trauen können und ob wir das wirklich wollen, denn der Einsatz von selbstlernenden, global agierenden KI würde unsere Zukunft in einer für uns heute noch nicht vorstellbaren Art und Weise verändern.
Abschließend möchte ich die Frage beantworten, ob eine selbstlernende KI „denken“ oder gar ein „eigenes Bewusstsein“ entwickeln kann. Ich denke, dass dies auf der Basis der bekan­nten Technologien nicht wahrscheinlich ist.

Posted in Allgemein.