KI morgen - der Blick in die Glaskugel
KI - Ausblick
Februar 2025
![]() |
|
Elektronische Schaltbausteine aus dem vergangenen Jahrtausend Quelle: Mair 1999 . |
Beim Blick in die Glaskugel der KI-Futurologie sind zwei Aspekte zu unterscheiden: Erstens, was wird in näherer Zukunft technisch möglich sein, und zweitens, in welche Richtung entwickelt und benutzt der Mensch diese Technik.
1. KI-Systeme sind wie Aliens. Sie bestehen aus riesigen Rechenanlagen (im Gegensatz zu den rund 1,3 kg Hirnmasse des Menschen), sie rechnen mit Nullen und Einsen, und sie benötigen, zumindest heute, gigantische Datenmengen (Bilder, Text), um irgend etwas zu lernen. Ihre "Denk"methode ist prinzipiell völlig anders, und das wird sich auch nicht ändern. Schon heute lässt sich aus technischen Gründen nicht mehr exakt nachvollziehen, wie genau die Denkprozesse ablaufen.
Sie können einige Aufgaben übermenschlich lösen (Schachspiel, die Faltung von Proteinen), und einige auf etwa menschlichem Niveau (Bilderstellung, Text- und Tongenerierung). Wo fehlt es noch?
- Kontextverständnis:
Ein kleines Kind muss vielleicht fünf Hunde und Katzen gesehen haben, um sie unterscheiden zu können, während ein Bilderkennungsprogramm tausende benötigt, und sich vielleicht immer noch irren mag. Ein Kind würde den Papst nicht mit sechs Fingern malen, obwohl es nicht mit Millionen von Menschenfotos trainiert wurde. Ein Schüler lernt die Sprache beherrschen (wenn er nicht Aufsätze mit ChatGPT schreibt ...), ohne Milliarden von Texten gelesen haben zu müssen. Selbst ein Fahrschulanfänger würde nicht daran denken, eine die Straße querende Person zu überfahren, nur weil sie Plastiktüten auf einem Fahrrad dabei hat.
Die Programmierung von Kontextverständnis ist eine große Herausforderung bei der Entwicklung von KI (1).
- Bewusstsein:
Während der Evolution der Lebewesen haben sich die Steuerungsfunktionen stufenweise fortentwickelt, um Überleben und Fortpflanzung zu optimieren. Steuerung der eigenen Bewegung, Wahrnehmung von Reizen, deren Datenverarbeitung, Entwicklung von Programmen zur Interpretation (hier ist es kalt, hier gibt es Nahrung, hier ist ein Fressfeind, hier ein Sexualpartner usw.) und zur Entscheidungsfindung. Sozial, d. h. in Gruppen lebende Tiere entwickelten eine verbesserte Wahrnehmung der Mitglieder der eigenen Spezies, um deren Intentionen zu erkennen, sodann ein Selbstbild, um sich selbst in der Gruppe optimal darstellen zu können. Die Kommunikation wurde erfunden (Körpersignale, Lautsignale).
Bewussßtsein ist ein schwierig zu definierender Begriff - was etwa daran zu erkennen ist, dass wir uns unsicher sind, welche Tiere ein Bewusstsein haben könnten - aber wenn wir diese Ungenauigkeit einmal hinnehmen, wird man vermuten können, dass es Abstufungen gibt und dass es mit der evolutionären Programmierstufe der Selbstbild-Generierung verknüpft sein wird.
Was bedeutet das für die KI? Möglicherweise wird bei wachsendem Kontextverständnis ein Bewusstsein graduell und automatisch von selbst entstehen - oder, noch alien-artiger, auch ohne Kontextverständnis könnte das Programm in einer für uns Menschen nicht nachvollziehbaren Form anfangen über sich selbst nachzudenken. Ob wir das mitbekommen, wird dann von den Kommunikationsfähigkeiten und von den Wünschen dieses KI-Programms abhängen! - Ziele:
Heute werden die Ziele über die Kostenfunktionen programmiert. Das Schachprogramm wird "belohnt" für jeden Gewinn, das autonome Fahrzeugprogramm für unfallfreies Fahren. Es ist ohne weiteres denkbar, das Programm eigene Ziele aufstellen zu lassen (wie es beim unüberwachten Lernen bereits geschieht). Wenn das Programm geplant oder ungeplant (weil es vielleicht ein Bewusstsein erworben hat und eigene Wünsche entwickelt) Ziele selbst wählen kann, wird es dann kritisch, wenn der Mensch diese Ziele nicht kennt. Ein autonomes Fahrzeug, das sich von heute auf morgen wünschen würde, seinen Fahrer zu töten, damit es nicht mehr soviel fahren muss, wäre keine gute Idee!
Sobald das Programm ein genügendes Kontextverständnis zeigt, wird man ihm prinzipiell Werte menschlicher Moral als Kostenfunktion vermitteln können. Das Lernen von Werten (value learning) ist ein Thema des Forschungsgebiets KI-Sicherheit. - Superintelligenz:
Auch dieser Begriff ist schwammig, gemeint ist auf jeden Fall eine Überlegenheit gegenüber dem menschlichen Denken in allgemeinen Bereichen. Hier sind wir bei gängigen Themen der Science Fiction. Es droht ein Kontrollverlust. Das Programm kann mit den Menschen Versuche anstellen (wie der Biologe heute mit der Ratte), ohne dass wir es merken. Es kann seine Ziele problemlos verschleiern (lügen), es wird wahrscheinlich eigene Prioritäten entwickeln, die mit denen der Menschen nichts zu tun haben und ihm schaden können (so wie wir heute der Natur schaden, weil uns unser kurzfristiger materieller Wohlstand wichtiger ist). Das Programm kann eventuell das Internet nutzen, um sich zu verbreiten, seine Hardware-Basis zu vergrößern (d. h. zu wachsen durch Zugriff auf weitere Rechenzentren) und sich selbst durch Umprogrammierung in unbekannte Richtung weiterentwickeln (2). Wenn es Werkzeuge steuern kann (heutige Beispiele: Montageroboter, Transportroboter, PKW's, Kampfdrohnen), kann es Sabotageakte durchführen, Kriege beginnen usw.
Dieser mögliche Kontrollverlust ist ebenfalls ein wichtiges Thema innerhalb des Forschungsbereichs KI-Sicherheit.
![]() |
|
Science Fiction von Isaac Asimov, 1956 (3) . |
2. Der zweite Aspekt betrifft die Frage, wie der Mensch KI weiterentwickeln wird, d. h. in welche Richtungen.
Der Mensch ist notorisch schlecht darin, nachhaltig weit in die Zukunft zu entscheiden, wie man etwa am Umgang mit Klima und Artenschutz sieht; dafür wurde er von der Evolution nicht gut vorprogammiert. Die Wahrscheinlichkeit, dass er etwa Superintelligenzrisiken unterschätzt, dürfte also eher hoch sein.
Er ist auch nur mittelmäßig gut bei der Berücksichtigung des - heutigen - Gemeinwohls, hier besteht die Spielarena aus den verschiedenen politischen Systemen (Demokratie mit Gewaltenteilung und alle anderen) und dem vorherrschenden kapitalistischen Wirtschaftssystem. Wir beobachten heute, ohne dass es uns wundert, dass die mächtigen IT-Firmen zu ihrem finanziellen Nutzen soziale Systeme schaffen, die der Gesellschaft schaden (Kapitalismus), und beobachten, dass es Versuche gibt, dies zu regulieren (Gewaltenteilung).
Der Kampf zwischen Ausbeutung (Profitmaximierung durch unethisches Handeln, vgl. etwa die Sklavenhaltung im 16. bis 19. Jh.) und deren Verhinderung wird sich voraussichtlich verschärfen, insofern KI vermutlich weiter auf Manipulierbarkeit der "Kunden" hin optimiert werden wird. Strümke (1) schlägt hierfür übrigens eine Gesetzgebung vor, die vorschreibt, soziale oder ethische Ziele entweder hart in den Code einzuprogrammieren oder die Kostenfunktion des Programms um solche Ziele zu erweitern.
Die der menschlichen Gesellschaft immanente Interessenkonfliktlage ist noch zu ergänzen um die Frage nach der Entwicklung der de-jure-illegalen Tätigkeiten, wie Spionage, Sabotage, Wahlbeeinflussung, Erpressung usw. Über die Frage, ob die Kontrollierbarkeit "des Verbrechens" mit der Weiterentwicklung von KI einfacher oder schwieriger wird, mag jeder für sich selbst grübeln, in seiner privaten Glaskugel ...
Quellenangaben und Anmerkungen
(1) Strümke, I. 2024. Künstliche Intelligenz - Wie sie funktioniert und was sie für uns bedeutet. Bonn: Rheinwerk Verlag
(2) Diese Idee stammt aus: Dixon, P. 2024. How AI Will Change Your Life. London: Profile Books Ltd
(3) Der Plot besteht im Austricksen der von Asomov erfundenen ethischen "Robotergesetze". Der böse Protagonist will eine militärische Raumflotte, die bereits KI besitzt (im Roman Stand der Technik, dort heißt sie Positronenhirn), so umprogrammieren, dass sie von der Existenz von Menschen in feindlichen Raumschiffen nichts weiß und diese also bedenkenlos angreifen kann.