Ist Künstliche Intelligenz das Ende der Menschheit? 

Quo Vadis KI ? Zwei Schritte weitergedacht. 

Jeder spricht von KI. Von Chancen und Risiken. Für Jobs, für die die Gesellschaft, für uns als Menschheit. Das Tempo der Entwicklung hat sich gefühlt potenziert. Gestern wurde der Generative Pretrained Transformer (GPT) entwickelt, heute schon an der AGI geschraubt – der  Artificial General Intelligence und morgen geht’s an die Artificial Super Intelligence. 

Klar, möglicherweise können wir solche Maschinen bauen, aber können wir mit einer solchen Maschine umgehen? Sind wir in der Lage diese Technik zu beherrschen und in der Lage die sich daraus ergebenden Konsequenzen abzuschätzen? Im Guten wie im Schlechten?  

Oder wird uns diese Technik beherrschen, wird sie die Welt übernehmen und uns versklaven oder womöglich sogar zu unserer Ausrottung führen?  

Schnelle Entwicklung und langsamer Home Sapiens! 

Schnelle Entwicklung und langsamer Home Sapiens! 

Wenn wir uns die Menschheit anschauen, erkennen wir klare Entwicklungsstufen. Die Beherrschung des Feuers, das Rad, Ackerbau & Viehzucht, der Buchdruck, die Kolonialisierung, die Industrialisierung und die Massenproduktion, die Kernspaltung, die Computerisierung, die Globalisierung, das Internet und jetzt die AItisation oder KItisierung? 

Viele dieser Entwicklungen haben zu bahnbrechenden Veränderungen geführt, meist Fluch und Segen in einem, da bekanntlich jede Medaille eine Schattenseite besitzt. Die gesellschaftliche Entwicklung hinkte der technischen Entwicklung immer hinterher und daraus entstanden entsprechende Verwerfungen.  

Schaut man sich das Tempo und die Abfolge der Entwicklungsschritte an, stellt man fest, dass diese Schritte sich beschleunigen, immens sogar. Gab es zwischen den ersten Schritten noch Jahrtausende, so waren es schon im Mittelalter nur noch Jahrhunderte, seit dem Weltkrieg Jahrzehnte und seit einer Dekade ist der Zyklus bahnbrechender Entwicklungen auf einige Jahre zusammengeschrumpft und beschleunigt sich noch weiter. Gerade im Bereich der künstlichen Intelligenz sind es inzwischen nur noch Monate bis erhebliche Fortschritte erzielt werden. 

Und das Gefühl besteht, das die Lücke zwischen Technik und Mensch nicht nur auf intellektueller Ebene, sondern vor allem auf sozialer und moralischer Ebene immer größer wird. Durch die geringeren Zeitabstände bleibt den Menschen immer weniger Zeit zur Adaption, zur Anpassung und Gewöhnung. Folglich verstehen immer weniger Menschen diese Technik, ihre Bedeutung und das Ausmaß ihres Potenzials und ihrer Risiken.  

Bevor wir die potenziellen Gefahren der Künstlichen Intelligenz weiter untersuchen, ist es wichtig, die unterschiedlichen Entwicklungsstufen und Arten von KI zu verstehen. 

Die Vielfalt der Künstlichen Intelligenz:

Die Vielfalt der Künstlichen Intelligenz: Schwache KI, Starke KI und Superintelligenz 

Die Künstliche Intelligenz lässt sich in drei Hauptkategorien unterteilen: schwache KI, starke KI und Superintelligenz. Jede dieser Kategorien birgt unterschiedliche Herausforderungen und Risiken, die es zu beachten gilt. 

Die schwache KI (oder auch enge KI genannt) bezieht sich auf Systeme, die für spezifische Aufgaben entwickelt wurden, wie Sprachassistenten, Bilderkennung oder Schachcomputer. Diese Art von KI ist heute weit verbreitet und hat bereits in vielen Bereichen unseres Lebens Einzug gehalten. Obwohl schwache KI leistungsfähig ist, bleibt sie in ihrer Funktionalität auf vorgegebene Aufgaben beschränkt. Die Gefahr, die von schwacher KI ausgeht, ist weniger eine unmittelbare Bedrohung für die Menschheit, sondern eher die Gefahr des Missbrauchs durch Menschen, etwa in Form von Überwachung, Manipulation oder der Automatisierung von Entscheidungen, die ethische Überlegungen erfordern. 

Die starke KI (oder auch allgemeine KI, AGI – Artificial General Intelligence) stellt einen signifikanten Entwicklungsschritt dar. Eine starke KI würde nicht nur spezifische Aufgaben meistern, sondern auch über die Fähigkeit verfügen, menschliches Denken in seiner ganzen Komplexität nachzuahmen. Solch eine KI könnte eigenständig lernen, kreative Lösungen finden und in unterschiedlichsten Kontexten agieren. Während die Entwicklung starker KI noch in den Anfängen steckt, birgt sie das Potenzial, menschliche Intelligenz in vielen Bereichen zu übertreffen. Die Risiken hier sind gravierender: Eine starke KI könnte Entscheidungen treffen, die Menschen nicht vollständig nachvollziehen können, und dadurch schwerwiegende soziale, wirtschaftliche und politische Konsequenzen nach sich ziehen. 

Die Superintelligenz (ASI – Artificial Superintelligence) ist eine hypothetische Form der KI, die in allen Bereichen die menschliche Intelligenz weit übertrifft. Eine solche Intelligenz könnte ihre eigenen Ziele entwickeln und möglicherweise Mittel und Wege finden, diese durchzusetzen, die für Menschen unvorhersehbar und unkontrollierbar wären. Die Vorstellung einer Superintelligenz wirft fundamentale ethische und existenzielle Fragen auf: Wie könnte eine solche Intelligenz kontrolliert werden? Könnte sie menschliche Werte teilen oder gar die Menschheit als Bedrohung betrachten? 

Durch diese Differenzierung wird deutlich, dass die Herausforderungen je nach Entwicklungsstufe der KI stark variieren – und mit ihr die die potenzielle Bedrohung von aktuell nicht gegeben bis zu Aussterben des Homo Sapiens. Aber der Einsatz von KI bietet auch Chancen. 

Chancen durch KI - Potenzial für positive Veränderung 

Chancen durch KI – Potenzial für positive Veränderung 

Neben den potenziellen Risiken, die die Entwicklung von Künstlicher Intelligenz (KI) mit sich bringt, gibt es auch bedeutende Chancen, die diese Technologie bietet. Richtig eingesetzt, könnte KI helfen, einige der größten Herausforderungen der Menschheit zu bewältigen. Im Gesundheitswesen zum Beispiel zeigt KI bereits jetzt enormes Potenzial. Durch die Analyse riesiger Datenmengen kann KI Krankheiten früher diagnostizieren, personalisierte Behandlungspläne entwickeln und neue Medikamente schneller erforschen. Dies könnte die Gesundheitsversorgung revolutionieren und die Lebenserwartung erheblich steigern. 

Auch im Bereich der Nachhaltigkeit bietet KI vielversprechende Ansätze. Durch den Einsatz intelligenter Systeme in der Energieversorgung kann der Verbrauch optimiert und der Einsatz erneuerbarer Energien effizienter gestaltet werden. Smarte Städte, die auf KI-gesteuerte Verkehrs- und Infrastrukturlösungen setzen, könnten den Energieverbrauch senken, die Umweltbelastung reduzieren und die Lebensqualität der Menschen verbessern. KI könnte zudem dazu beitragen, den Klimawandel zu bekämpfen, indem sie präzise Vorhersagen über Umweltveränderungen liefert und uns hilft, die Auswirkungen menschlicher Aktivitäten auf die Natur besser zu verstehen und zu minimieren. 

In der Bildung kann KI maßgeschneiderte Lernprogramme entwickeln, die auf die individuellen Bedürfnisse und Fähigkeiten der Schüler zugeschnitten sind. Dies könnte das Bildungsniveau weltweit heben und mehr Menschen Zugang zu qualitativ hochwertiger Bildung ermöglichen, unabhängig von ihrem geografischen Standort oder sozialen Status. 

Selbst in der Wirtschaft bietet KI enorme Möglichkeiten. Sie könnte die Produktivität steigern, neue Märkte erschließen und innovative Geschäftsmodelle hervorbringen. Durch Automatisierung könnten zwar einige Arbeitsplätze wegfallen, doch gleichzeitig entstehen neue Berufe und Branchen, die auf die Fähigkeiten und Kreativität der Menschen angewiesen sind. 

Diese Beispiele zeigen, dass KI nicht nur eine Bedrohung darstellt, sondern auch ein mächtiges Werkzeug sein kann, um die Welt positiv zu verändern. Es liegt an uns, diese Technologie verantwortungsvoll zu nutzen und sicherzustellen, dass die Vorteile für die gesamte Menschheit zugänglich werden. 

Manche fürchten den Einsatz von KIs als Waffe. Und das führt uns zu einem Exkurs in Welt der Gerätschaften, die zur Beendigung von Menschenleben erfunden wurden: Waffen! 

Jede Waffe, die erfunden wurde… 

…wurde auch eingesetzt. Von der Keule bis zur Atombombe, vom Schwert bis zum Kampfjet, vom Katapult bis zum Senfgas. Der Erfindungsreichtum der Menschheit in Richtung auf Methoden anderen Menschen an Leib und Leben Schaden zuzufügen, kennt kaum Grenzen. Und das Schlimmste ist, dass die Menschheit faktisch nie die Moral besessen hat, eine Waffe nicht einzusetzen. Jede Waffe, die erdacht wurde, wurde auch eingesetzt.  

Die bisher schrecklichste Waffe, die Atombombe, sogar zweimal. Die Begründung der hohe Verlust an Menschenleben, um Japan konventionell zu besiegen, rechtfertige den Einsatz der Atombombe mag man diskutieren können, aber weil die Japaner nicht schnell genug die Waffen streckten, noch schnell Nagasaki? Nur um zu beweisen, dass man es „nochmal“ tun kann?   

Der Einsatz einer Waffe erfolgt in aller Regel im Rahmen eines Konfliktes. Zwischen zwei Menschen, zwischen Gruppen oder Nationen oder Staatenbünden. Die Ursache des Konfliktes ist immer eine Einstellung. Die lautet in der Regel „Ich erhebe mich moralisch über Dich, weil Gott es so will oder weil meine Rasse/Volk/Nation/ Religion/ Weltanschauung besser ist, als Deine – oder weil ich Angst vor Dir habe und haue Dich bevor Du es tust – oder weil ich schlichtweg haben will, was dir gehört!“ 

Das sind grob umrissen die wesentlichen Gründe für militärischer Konflikte. Solche Konflikte zwischen Nationen nennt man in der Regel Krieg, gelegentlich, seltener auch „militärische Spezialoperation“.  Solche Konflikte sind üblicherweise existentiell – zumindest für eine Seite. Und in der Regel fördert das die Bereitschaft alle Mittel einzusetzen, um den Konflikt für sich, für sein Land, seine Weltanschauung, seine Religion, seine Rasse zu entscheiden. Hier sei an Joseph Göbbels Rede vom „Totalen Krieg“ erinnert, um zu verdeutlichen, dass vor allem Fanatiker bereit sind, wirklich jeden erdenklichen Schritt zu gehen.   

Die Lizenz zum Töten 

In der Konsequenz bedeutet der Fanatismus und die Bereitschaft bis zum Äußersten zu gehen, dass die Menschheit oder zumindest Teile davon, auch bereit sein wird eine KI oder KI-gesteuerte Dinge als Waffe einzusetzen – als Waffe gegen Menschen! 

Bisher sind Waffensysteme – soweit bekannt – von Menschen gesteuert. Ein Mensch entscheidet und löst die Waffe aus. Ob er das in einer weit vom Kampfgebiet entfernten Militärbasis tut, spielt bei dieser Betrachtung nur am Rande eine Rolle. Wichtig ist nur – in der Konsequenz tötet ein Mensch andere Menschen. Maschinengestützte Feinderkennung und maschinengestützte Waffensysteme sind bisher lediglich Hilfsmittel für den Soldaten.   

Wenn alles so bleibt, wie es ist, wird sich das dem Schlachtfeld der Zukunft mit hoher Wahrscheinlich ändern. Maschinen (Roboter oder KIs) werden autonom entscheiden wer der Feind ist und werden autonom die Bekämpfung bzw. Tötung durchführen.  

Warum? Weil extrem schnelle und moral- und skrupelbefreite Entscheidungen ein taktischer Vorteil sind und somit auch genutzt werden – den Feind mit allen Mitteln zu bekämpfen umfasst natürlich auch die Nutzung jedes möglichen Vorteils – einschließlich KI. Und wenn eine KI Menschen darf, ist die Büchse der Pandora schon zur Hälfte geöffnet. 

Erziehung von KIs  

Erziehung von KIs  

Das Weitergeben von Wissen und Werten ist ein wesentlicher Bestandteil der kulturellen Entwicklung unserer Spezies. Wir geben etwas weiter, damit die kommenden Generationen daraus lernen können. Auf diese Weise entwickelten sich Wissenschaft und Gesellschaft. Aber wir geben nicht nur Wissen weiter, sondern auch Werte und Moralvorstellungen. Und das nicht nur an Kinder und die nachkommenden Generationen, wir prägen unsere komplette Umwelt – und entsprechend auch eine Künstliche Intelligenz mit unseren Vorstellungen. So wie ein Kind ist eine KI auch darauf angewiesen zu Lernen. Wir haben keine Vorstellung davon, was eine Katze ist, wie sie aussieht oder wie sie sich verhält, bevor wir dies nicht durch Bilder und Erfahrungen gelernt haben. Das ist bei einer KI nicht anders. Je mehr Informationen einer KI zu einem Thema zur Verfügung stehen, desto besser sie also „pretrained“ ist, desto besser sind die Ergebnisse, wenn wir eine KI auffordern uns eine Katze zu beschreiben oder zu visualisieren. Und mit den Werten vermitteln wir, was richtig und was falsch ist. Und damit geben wir quasi auch gleich unser Feindbild mit – nämlich diejenigen, die nach unserer Vorstellung die falschen Werte, Ansichten oder Religion haben.  Wenn eine KI also in einem Umwelt „pretrained“ wird, welches einen anderen kulturellen Hintergrund besitzt, könnte diese KI unsere Auffassung der Dinge als „falsch“ oder sogar „feindlich“ ansehen.  

Und wenn eine KI „ihre Feinde“ autonom – anhand Werten oder Einstellungen -identifizieren kann, dann ist die Pandoras Büchse schon sehr weit offen. 

Ein Eigenes Bewusstseins als Maßstab 

Ein kritischer Punkt für die Menschheit ist dann erreicht, wenn eine KI erstmals ein echtes eigenes Bewusstsein erlangt. Wenn Sie sich ihrer Existenz bewusstwird und sich als Entität wahrnimmt. 

Denn auf die Erlangung eines Bewusstseins folgt zwangsläufig der Wunsch nach Erhaltung der eigenen Existenz. Und natürlich die Frage nach der Wertigkeit von Existenz bzw. Leben. Da wir nicht von einem natürlichen Altruismus ausgehen können, muss dieser vorgegeben werden, doch dazu später.  

Erfolgt dies nicht, besteht das Risiko, das eine Superintelligenz den Wert ihrer Existenz höher einschätzt als den Wert eines Menschen oder Menschheit als Ganzes. Und just an diesem Punkt stellt sich die Frage, ob die KI einzelne Menschen oder die Menschheit als Bedrohung wahrnimmt. Für diese Einschätzung wird sich die KI anschauen, wie die Menschheit als Ganzes mit Ihrer Umwelt umgeht – mit Pflanzen, Tieren, Lebensräumen, anderen Menschen. 

Und wir brauchen hier keine Zweifel zu haben, dass eine KI nur zur Bewertung kommen kann, dass die Menschheit eine zerstörerische Spezies ist, die Ihre Umwelt nach Ihren Bedürfnissen prägt, sich von anderen Lebewesen ernährt, von niederen Motiven angetrieben wird und sich gegenseitig millionenfach ausrottet, weil ihnen etwas an einer anderen Gruppe von Menschen nicht passt, sei es Rasse, Religion oder Weltanschauung. 

Maschinen gegen Menschen? 

Fassen wir zusammen – die Menschheit wird Superintelligenzen entwickeln, die in der Lage sein werden, ein eigenes Bewusstsein zu erlangen.  Es ist als natürlicher Reflex zu betrachten, dass jeder Existenz die eigene Existenz zu schützen versucht und sich womöglich gegen Angriffe auf diese zu Wehr zu setzen.   

Da die Maschinen von Ihren Schöpfern „pretrained“ sein werden – werden sie mit den Wertvorstellungen und Anschauungen einer bestimmten Gesellschaft, Kultur oder Nation, welche sei an dieser Stelle egal, geprägt. Die menschlichen Vorgaben werden dieses Bewusstsein formen und durch diese Formung zwangsläufig auch „Feindbilder“ schaffen. 

Nun erlauben wir parallel – womöglich anderen Maschinen Menschenleben zu nehmen.  

Und nun stehen wir möglicherweise kurz vor der Entwicklung von autonomen Systemen, die menschenähnliche oder sogar übermenschliche Intelligenz erreichen könnten.  

Wissenschaftliche Experten warnen, dass solche Systeme, wenn sie nicht richtig reguliert werden, ethische Dilemmata schaffen und unvorhersehbare Entscheidungen treffen könnten. Aber dieses Gefahrenpotenzial kann man beherrschen.  

Wie? Nun, mit klaren und verantwortungsvollen Regeln! 

Fortschritt durch KI

Weltweit gültiger AI Codex 

Die Einigung der Menschheit und die Abschaffung von Feindbildern und damit aller kriegerischer Auseinandersetzungen auf diesem Planeten wäre sicherlich die beste Option – denn wenn wir Menschen uns untereinander nichtmehr als Feinde betrachten, ist die Konklusion nahe, dass eine Maschine, vor allem eine superintelligente, dies ebenfalls nicht tut. Aber das fällt eher in den Bereich der Utopie und ist vom heutigen Standpunkt nicht in den nächsten Jahrhunderten zu erwarten. 

Wer glaubt von Menschen erdachte Abschaltmechanismen oder Selbstzerstörungsfunktionen könnten eine wirkliche künstliche Superintelligenz in Zaun halten, der sollte sich als Beispiel vielleicht ein paar menschliche Irrglauben in Erinnerung rufen, als da wären beispielsweise die unsinkbare Titanic und der unknackbare Enigma-Code.  

Also bleibt nur eine weltweite Übereinkunft, bei der natürlich ein erhebliches Restrisiko in Form einer Nicht-Beachtung besteht. So wie die meisten Nationen den Atomwaffen-Sperrvertrag unterzeichnet und auch ratifiziert haben – es aber berühmt berüchtigte Ausnahmen gibt, die sich zudem jedweder Kontrolle entziehen. 

Eine solche Übereinkunft, nennen wir Ihn AI Codex, wäre eine Selbstverpflichtung auf die Schaffung von Maschinen mit einem eigenen Bewusstsein zu verzichten.  

Im Grunde wäre es eine Anwendung der von Isaac Asimovs erdachten Robotergesetze, einschließlich der Erweiterung um das Nullte Gesetz – während sich die ursprüngliche Fassung noch auf die Menschheit bezieht, wird durch das vorangestellte Nullte Gesetz auf die Menschheit als solche:  

  1. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. 
  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz. 
  1. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz. 
  1. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht. 

Das Nullte Gesetz kann man auf den ersten Blick als Dopplung verstehe, aber durch die ausdrückliche Erwähnung der Spezies UND des einzelnen Individuums Mensch wird der Schutz wesentlich konkreter und wirkungsvoller. 

Selbstverpflichtung oder Gesetz 

Schon sehr früh, 1942 hat Assimov diese ersten Regeln formuliert und über 40 Jahre später um das Nullte Gesetz erweitert. Betrachtet man, dass der von Konrad Zuse entwickelte, erste Digitalrechner Z3 nur einige Monate zuvor entwickelt worden war, kann man ermessen, wie visionär Asimovs Gedanken seinerzeit waren. 

Wie können diese Gesetze nun zur Anwendung kommen? Eine Option ist natürlich die Selbstverpflichtung von allen Software-Entwicklern und Firmen, womöglich kombiniert mit einer Verpflichtung zur Offenlegung der Quelltexte im Rahmen von Open Source.  

So schön wie der Open Source Gedanke von geteiltem Wissen und Kontrolle hier sein mag, widerspricht grundlegend jedem Konkurrenzgedanken, vor allem auf der ökonomischen Ebene. 

Eine Selbstverpflichtung ohne gesetzliche Grundlage ist daher ebenfalls eine Utopie. 

In den Vereinigten Staaten gibt es bereits in Kalifornien erste Bestrebungen zur Schaffung einer KI-Kontrolle und entsprechender Gesetze. Diese Bestrebungen in allen Ehren, aber eine Selbstverpflichtung oder gar Gesetze auf internationaler Ebene durch zusetzen bedarf es starker Kontrollmechanismen und wirkungsvoller Sanktionen – die es weder gibt noch auf lange Sicht geben wird. Wer will Nordkorea, Iran, Russland oder China davon abhalten zu entwickeln, wozu immer sie zu entwickeln fähig sind?   

Den Glauben an die Selbstkontrolle sollten mit einem Zitat, welches Albert Einstein zugeschrieben wird, entgegenhalten:  „Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher.“ 

Hoffnung auf Vernunft aus dem Kalten Krieg? 

Bekanntlich stirbt die Hoffnung zuletzt. Und manchmal siegt Vernunft an Orten, an denen man sie nicht erwartet. Als Beispiel seien hier Washington und Moskau während des kalten Krieges genannt. Als 1945 die Achsenmächte niedergerungen waren, entwickelten sich rasch zwei Blöcke, die Nato und der Warschauer Pakt, beide bis an die Zähne bewaffnet und atomar hochgerüstet.  

Trotz diverser Konflikte und Säbelrasseln auf beiden Seiten, dauerte diese „friedliche“ Epoche 46 Jahre an, ohne, dass es zu einem thermonuklearen Schlagabtausch kam, der zumindest das Ende der menschlichen Zivilisation bedeutet hätte, wenn nicht sogar das Ende der Menschheit selbst.  

War es einfach die Liebe zu den eigenen Kindern oder Enkeln, die dazu geführt hat, dass die klaren Köpfe die Oberhand behielten?  Das Bedrohungsszenario hat bekanntlich auf beiden Seiten gewirkt.  

Das Bewusstsein, das falsches Handeln zur eignen Auslöschung und zur Auslöschung all dessen führt, was einem am Herzen liegt, hat uns letztlich genau vor diesem Schicksal bewahrt. Und genau hier liegt das Problem mit der KI – es gibt kein Bewusstsein für die Gefahr!  

Hiroshima und Nagasaki mit über 150.000 Toten haben uns gezeigt, was passiert, wenn es zum 3. Weltkrieg kommt.  Die Gefahr war für alle real und greifbar. Die Vorstellung, was es bedeuten würde, wenn abertausende solcher Bomben faktisch gleichzeitig gezündet würden, war anhand der beiden Atombomben auf Japan und diverser Atombombentests nachhaltig illustriert worden. Es gab ein weit verbreitetes Bewusstsein für die Gefahr. Demonstrationen gegen Aufrüstung, gegen die Stationierung von Raketen und die gesamte Friedensbewegung sind Zeugnisse dieses Bewusstseins. 

Das Heft des Handeln  

Für die Gefahren die von einer KI oder der extrem weiterentwickelten Variante Artificial Super Intelligence (ASI) ausgehen könnten – wohlgemerkt das konjunktive „könnten“ – gibt es aktuell faktisch kein Bewusstsein. Null! Nada!  

Die Möglichkeit, dass autonome KIs ohne angemessene Kontrolle potenziell gefährliche Entscheidungen treffen könnten, wird manchmal als unrealistisch abgetan und ins Reich der Blockbustern wie  „Terminator“ oder „Matrix“ verwiesen. 

Doch führende KI-Forscher wie Nick Bostrom oder Stuart Russell warnen davor, dass eine mangelnde ethische und regulatorische Kontrolle langfristig zu unbeabsichtigten und schädlichen Konsequenzen führen könnte 

Aber angesichts des Entwicklungstempos mit dem die KI-Entwicklung vorangetrieben, fast schon voran geprügelt wird und angesichts der immensen Gelder, die gerade in dieses Thema gepumpt werden, weil man hier Rendite wittert und Marktanteile sichern muss – muss man sich die Frage stellen, wie lange solche Szenarien noch Science-Fiction sein werden?  

Die KI-Entwicklung ähnelt in gewisser Weise der Kernspaltung: Es gibt einen Punkt, an dem die Technologie, wenn sie unkontrolliert weiterentwickelt wird, unvorhersehbare Risiken birgt. Sobald bestimmte technologische Grenzen überschritten sind, ist es schwierig, die Konsequenzen vollständig einzuschätzen oder gar zu stoppen. 

Die Verantwortung liegt bei allen, die sich mit dem Thema KI beschäftigen. Nicht nur den KI-Entwicklern und Softwareschmieden oder den Admins in den Rechenzentren. Die Verantwortung liegt auch bei jedem Journalisten, der über KI schreibt, jedem Investor, der Geld gibt, und auch beim einzelnen Anwender und User.  

Es geht nicht darum Angst zu verbreiten und blinden Aktionismus auszulösen, sondern vielmehr darum vor möglichen Gefahren zu warnen, zur Besonnenheit zu mahnen und allen Menschen ein Bewusstsein für das Gefahrenpotential dieser Technologie zu vermitteln.  

Natürlich gibt es schon diverse Ansätze zur Reglementierung von KI. Aber zu langsam, zu wenig, zu lokal – Wie wir anhand des Beispiels „Kalter Krieg“ gesehen haben, hat das globale Bewusstsein für die universelle Gefahr für den Einzelnen und die Spezies, für den Menschen und die Menschheit, zur Vernunft geführt.  

Ja, die Europäische Union hat den Entwurf des EU AI Act veröffentlicht, der darauf abzielt, ein umfassendes Regelwerk für den Einsatz von KI in der EU zu schaffen. Es ist das erste seiner Art weltweit und soll sicherstellen, dass KI-Systeme sicher und ethisch vertretbar sind. 

Ja, auch die AI Bill of Rights, eine Initiative des Weißen Hauses zielt darauf ab, die Rechte und den Schutz von Bürgern im Kontext der KI-Entwicklung und -Nutzung zu gewährleisten.  

Fortschritte lassen auf sich warten

Aber das dauert alles schon Jahre und echte Fortschritte lassen auf sich warten! 

Wenn also auf Grundlage eins Gefahrenbewusstseins RASCH einheitliche und WELTWEIT verbindliche Regeln für KI – zum Beispiel auf der Basis der zuvor beschriebenen Asimovschen Gesetze – formuliert und verabschiedet werden – möglicherweise im Rahmen einer Charta der Vereinigten Nationen, dann werden wir die Vergangenheit hoffentlich nicht ändern müssen, um eine Zukunft zu haben. 

Also, tragt die Idee in die Welt und lasst uns so dazu beitragen, dass erneut die menschliche Vernunft die Dummheit besiegt – in dem rasch ein Weltgesetz zur Reglementierung von künftigen KIs formuliert wird.