KI als ernsthafte Bedrohung? Ein Kommentar von Markus Hoppe zur aktuellen KI-Debatte

ChatGPT und weitere KI-basierte Anwendungen sind zurzeit in aller Munde. Unser Kollege Markus Hoppe macht sich in seinem Kommentar Gedanken zu der Erklärung einiger Firmen und Forschenden zu KI und deren Relevanz für die Arbeitswelt.

Jüngst machten Schlagzeilen die Runde, dass Firmen und Forschende vor einer „Vernichtung durch KI“ warnen, darunter u.a. Bill Gates und Sam Altman, Chef des ChatGPT-Erfinders Open AI. Die Unterzeichnenden weisen darauf hin, dass KI zu einer Bedrohung für den Menschen werden, ihn in eine maschinelle Abhängigkeit zwingen und im schlimmsten Fall sogar vernichten könne. Getreu dem Motto „Töte es, bevor es Eier legt“[1] wird gefordert, den Siegeszug von KI zu unterbrechen, solange es nicht gelungen ist, geeignete Regulierungsformen zu schaffen, um schädliche Nutzungszwecke wie die Kriegsführung oder die Verbreitung massenhafter Falschinformationen zu unterbinden. Künstliche Intelligenz wird zunächst auf eine Stufe mit anderen Katastrophenszenarien wie Atomkriegen oder Pandemien gestellt.

Was ist von derlei Zukunftsspekulationen zu halten? Zunächst, wir befinden uns aktuell noch nicht in der Situation, dass Technologien, die unter dem Label „KI“ firmieren, tatsächlich „intelligent“ sind in dem Sinne, dass sie Fähigkeiten planvollen Handelns hätten. All das, was aktuell im Einsatz ist, arbeitet Regeln ab, die vom Menschen vorgegeben bzw. programmiert worden sind nach festgelegten Mustern. Das kann durchaus ausreichen, um neue Zusammenhänge zu erkennen, die sich dem Menschen bislang entzogen haben. In erster Linie handelt es sich dabei aber um stochastische Modelle, die auf der Basis von Wahrscheinlichkeiten Schlussfolgerungen ziehen. Solche Technologien aus dem Bereich der „schwachen“ KI entwickeln bislang noch kein „Eigenleben“, das Gefahr läuft, sich zur existenziellen Bedrohung zu entfalten. Richtig ist vonseiten der Unterzeichnenden, dass gefordert wird, KI zu regulieren. Aktuell laufende Gesetzgebungsinitiativen, etwa von der EU, deuten in diese Richtung. Es geht darum, die Risiken von KI zu erkennen, zu klassifizieren und daraus die „menschliche“ Schlussfolgerung zu ziehen, ob eine KI im Sinne ethischer Wertemaßstäbe und im Dienst des Menschen arbeitet – oder eben nicht. Bezogen auf die Arbeitswelt bedeutet dies zu entscheiden, ob eine arbeitsbezogen eingesetzte KI menschenzentrierten Kriterien genügt und nach ihnen gestaltet werden kann. Dabei können, wie unsere Forschungsaktivitäten zeigen, auch betriebliche Interessenvertretungen eine maßgebliche Rolle spielen. Unser Eindruck ist, dass KI zwar durchaus mit Risiken behaftet sein kann, man diesen aber gleichwohl nicht hilflos ausgeliefert ist. Der Apell lässt sich als das lesen, was er vermutlich beabsichtigt ist zu sein: als Warnhinweis vor einem allzu leichtfertigen Umgang mit KI, als Hinweis zum kritischen Hinterfragen der Resultate von KI und gleichzeitig als Aufforderung zur Regulierung bei drohenden Verstößen gegen rechtlich-normative und ethische Grundprinzipien. Hat man dies im Hinterkopf, sollte die Konzentration auf die Gestaltung von KI gelenkt werden, damit deren Potenziale für den (arbeitenden) Menschen zur Entfaltung gebracht werden können.  



[1] Filmzitat aus dem B-Movie-Horror „Eaten Alive – Invasion der Killerinsekten“ (2002).

 

Zur Stellungnahme der Firmen und Forschenden zu KI: zeit.de/digital/2023-05/ki-stellungnahme-risiken-chatgpt

 

zurück zum InBlog