__________________________________ Das Buch: "Dilemma - Warum wir unsere Ressourcen zerstören, obwohl wir es doch besser wissen"

______________________________________________ Zweite Auflage; G.Mair, Novum Verlag, 2023

KI bedarf der Regelsetzung

 

KI - Risiken für die Gesellschaft

Februar 2025

                                                      Logo des Europäischen Gerichtshofs



Die meisten Erfindungen werden gemacht, um Wohlstand, Reichtum oder Macht zu erhöhen. Dies gilt für den Pflug, die Dampfmaschine, die Impfung oder die Kampfdrohne, um nur einige Beispiele aus verschiedenen Bereichen zu nennen. Gerade bei größeren Erfindungshöhen ist historisch allgemein bekannt, dass nicht alle (in einem Land, auf der Erde) gleichmäßig profitieren - meist gibt es Gewinner und Verlierer. 

Für die meisten privatwirtschaftlichen Anwendungen der KI, also Automatisierungen und Entscheidungshilfen in Verwaltung, Buchhaltung, Datenanalyse, produzierendem Gewerbe usw., wird wie bei früheren IT-Anwendungsprogrammen gelten, dass die besten Anbieter den höchsten Profit machen, es Verschiebungen im Arbeitsmarkt geben mag und häufig der allgemeine Wohlstand steigt - so weit, so unkompliziert.

Aber es lohnt sich, in die dunklen Ecken zu schauen. Nicht erst morgen, wenn das übermenschlich intelligente Superhirn die Menschheit auszurotten droht (das schaffen wir vielleicht auch allein), sondern bereits heute.

Einige kennen vielleicht den Science-Fiction-Autor Isaac Asimov, der in den 1950ern seine Robotikgesetze erfand, darunter: Ein Roboter darf Menschen nicht schaden und nicht zulassen, dass Menschen Schaden nehmen.
Zur KI-Ethik gibt es zahlreiche Beiträge; 2019 wurde eine Metastudie für ethische Richtlinien durchgeführt (1), die fünf Prinzipien als wichtigste nennt:

  • Wohltätigkeit
  • Nicht-Boshaftigkeit
  • Autonomie (für den Menschen)
  • Gerechtigkeit
  • Erklärbarkeit


Die ersten vier kommen auch in der analogen Ethik vor.
Man kann leicht Beispiele von heutigen Programmen finden, wo diese Prinzipien verletzt werden oder zumindest zweifelhaft sind.

  • Wenn ChatGPT einem Schüler hilft, seine Aufsätze zu schreiben, verschlechtert das seine Sprachbildung, welche ja Anlass für das Schreiben von Aufsätzen ist. Das ist nicht wohltätig.
  • Wenn ein Anwendungsprogramm es nahezu unmöglich macht, die ungewollte Herausgabe privater Daten abzulehnen, ist dies boshaft. Das Training von bilderzeugenden Programmen mit Millionen von Bildern, deren Urheberrechte missachtet wurden, dürfte ebenfalls nicht als freundlicher Akt zu betrachten sein. Beides ist Thema juristischer Auseinandersetzungen.
    Wenn soziale Medien unanständige Umgangsformen (wie mobbing) fördern, kann man das als unabsichtliche Boshaftigkeit des Mediums interpretieren.
  • Wenn Werbung zu Produkten oder zu politischen oder anderen Meinungen so personalisiert wird, dass der Empfänger wirksam manipuliert wird, verringert dies die Autonomie des Menschen in seiner eigenständigen Entscheidungsfreiheit.
    Es gibt zahlreiche Untersuchungen, dass Kinder und Jugendliche den sozialen Medien suchtartig verfallen können, und dies ihre soziale Entwicklung erheblich schädigen kann. Australien hat deshalb seit 2025 den Gebrauch sozialer Medien für Kinder und Jugendliche unter 16 Jahren verboten.
    Sollte sich die Gewohnheit einbürgern, Suchmaschinen-Anfragen (die Quellenangaben liefern) durch Chatbot-Anfragen (die auf unbekannte Trainingsdaten und Kostenfunktionen basieren) zu ersetzen, könnte die Fähigkeit, Daten auf Plausibilität selbst zu überprüfen, abnehmen, genau so wie die Fähigkeit zu kochen statistisch abnimmt, wenn es mehr Fertiggerichte gibt. Ein subtiler Schubs (nudge) in die geistige Unselbständigkeit, insofern auch ein Eingriff in die Autonomie.
  • Wenn Anwendungsprogramme zur Kreditvergabe, zur Beurteilung von Verbrechensrisiken oder zur Gesundheit eine unbeabsichtigte Bias (systematische Verschiebung) haben, die sachfremd nach Geschlecht, Ethnie usw. priorisiert, so ist dies ungerecht.
  • Die europäische Datenschutzgrundverordnung gesteht das Recht auf Information bei Erhebung persönlicher Daten zu, aber wer hat schon einmal den Anbieter seines sozialen Mediums danach gefragt? Und würde er eine sinnvolle Antwort erhalten? Aber bei der Erklärbarkeit geht das Problem noch tiefer, denn wir haben oben gesehen, dass bei Programmen subsymbolischer KI der Mensch (der Programmierer) gar nicht mehr direkt weiß, wie und warum das Programm entscheidet. 


Bei öffentlichen Programmen, also z. B. sozialen Systemen oder Chatbots, gibt es meines Erachtens zwei Hauptprobleme.

Das erste resultiert aus der Tatsache, dass die entsprechenden Firmen mit der Werbung sehr viel Geld verdienen, diese sind der wirtschaftliche Treiber. Deshalb optimieren sie die personalisierte Werbung, und optimieren per KI-Interaktionsgestaltung die Aufenthaltsdauer des Nutzers - er wird süchtig gemacht in Bezug auf Nutzerzeit (er sieht viele Kurzvideos, er sieht und klickt viele Posts) und in Bezug auf die Inhalte (käufliche Produkte). Dies ist heute in weiten Teilen legal. Die Firma kümmert sich - siehe oben - nicht um die gesellschaftlichen Schäden, die sie damit anrichtet, da dies für ihr Geschäftskonzept irrelevant ist. Man kann dies als Wirtschaftskrieg (Profit gegen Lebensqualität) sehen, so wie die Opiumkriege Mitte des 19. Jhs. zwischen Großbritannien und China, in dem ersteres die Zollfreiheit auf Opium erzwang, um es billiger nach China einführen zu können, oder wie die Konfrontation zwischen Tabakindustrie und um die Gesundheit ihrer Bürger besorgten Staaten, oder wie der Kampf um die Eindämmung von Rauschgift.   

Das zweite Problem liegt in der durch KI immer stärker perfektionierten Meinungsbeeinflussung, am prominentesten in Bezug auf politische Meinungen.
Der Mensch ist ein triebgesteuertes Tier mit erst kürzlich - in den letzten hunderttausenden von Jahren - ausentwickeltem Großhirn, und so verhält er sich auch: Sein Verhalten im Autopilot-Modus ist primär durch Emotionen gesteuert, das bewusste Nachdenken und selbst Entscheiden kommt erst in Folge (siehe auch Soziale Evolution und Zivilisation 2.0).
Das erklärt, warum emotional verpackte Informationen (etwa das Foto einer "süßen" Katze oder eines "armen" Kindes) primär eindrucksvoller wirken als die rein sachliche Information (etwa ein Text "seltener Frosch in den Philippinen ausgestorben" oder "Dürre in Somalia hat Hungersnot ausgelöst"). Videos, die Lustigkeit, Status, Familienbeziehungen, Sex, aber auch Hass und Hetze vermitteln, sind deshalb a priori attraktiver als reine Informationsvideos. Die Auseinandersetzung mit Fakten und die Beurteilung von Wahrheitsgehalten ist nicht sexy, um es einmal einfach zu formulieren.
Zudem ist der Mensch sozial vorgeprägt, sich in einer Gruppe zu verhalten (wir und die anderen, mein Fußballclub und die Gegner, mein Land und die anderen usw.), und das geht auch nicht immer gut, wie Ausschreitungen in Fußballstadien und Kriege zeigen. So erklärt sich die leichte Erzeugbarkeit von "Echokammern", Räumen im sozialen Netz, wo nur eine Meinung gebetsmühlenartig verstärkt wird und die andere Meinung verteufelt.   
Wahlwerbung gab es schon immer, aber die Verwendung immer perfekterer, die emotionale Vorprägung des Menschen ausnutzender Propagandamethoden, die die Gruppe (hier: politische, religiöse oder weltanschauliche Gruppierung) in den Fanatismus führen, beschädigt die Fähigkeit des Menschen, rationale freie Willensentscheidungen zu treffen und z. B. eine friedliche Sachauseinandersetzung mit dem politischen Gegner zu suchen. Dies ist für demokratische Systeme, die auf der friedlichen Auseinandersetzung basieren, tödlich, und es entwickelt den Menschen wieder zurück in Richtung zum rein emotional getriebenen Tier - auch keine glänzende Idee, würde man meinen.

Wie sieht das in der Realität aus, wie reagiert die Gesellschaft und die Politik?

2014-2016 machte die Firma Cambridge Analytica in zahlreichen US-amerikanischen Wahlkämpfen, darunter dem Präsidentenwahlkampf 2016 und im Brexit-Wahlkampf in Großbritannien, personalisierte Werbung für die jeweils entsprechende Lobbygruppe. Nachträglich stellte sich heraus, dass dafür illegal Millionen von Facebook-Datensätzen verwendet worden waren, wofür Facebook (heute Meta) 2019 rund 5 Mrd. US-$ Strafe zahlen musste, sowie 2022 über 700 Mio US-$ wegen Verbraucherklagen. Das Interessante: Es ging nicht um die personalisierte Wahlwerbung an sich - die war erlaubt - sondern "nur" um die Verwendung illegal erworbener persönlicher Daten.

Der Cambridge-Analytica-Skandal ist inzwischen ja Geschichte - heute kann die KI Persönlichkeitsprofile aus Sozialen-Medien-Daten selbst prognostizieren. Wahlbeeinflussung mit legalen und illegalen Mitteln ist inzwischen als allgemeine Bedrohung wahrgenommen. Und wie soll bewertet werden, wenn ein bislang neutrales Informationsaustausch-Medium wie Twitter (heute X) nach Besitzerwechsel zu einer Wahlkampfbeeinflussungsmaschine umgebaut wird?

Die Eu hat frühzeitig mit der 2024 beschlossenen KI-Verordnung (2) reagiert, die verschiedene Risikostufen definiert.

  • Es gibt "verbotene Praktiken", darunter fallen die unterschwellige Manipulation, die Schlechterstellung einzelner Menschen oder sozialer Gruppen, die Bewertung von Personen nach ihrem Verhalten im Internet, das Straftat-Profiling und einiges anderes.
  • Es gibt "Hochrisiko-KI-Systeme", dazu gehören Biometrie, kritische Infrastruktur, Bildung, Personalmanagement, öffentliche Dienste, Strafverfolgung, Migration, demokratische Prozesse. All diese Systeme sind berichtspflichtig und stehen unter Aufsicht.


Das liest sich ganz ordentlich, aber man wird sehen müssen, wie sich die Praxis entwickelt. Werden die Internetgiganten mit ihrer hohen Entwicklungsgeschwindigkeit den rechtlichen Kontrollen immer voraus sein? Wird sich das EU-Recht durchsetzen lassen? Die KI-Verordnung kann man als Schutz für Menschenrechte und für Demokratie, als Schutz vor unkontrollierter Manipulation lesen. Die oben genannten gesellschaftlichen Risiken sind auf jeden Fall erkannt.

Zuletzt sei ein Risiko wiederholt, das bereits auf der ersten Seite genannt wurde: Wenn der Energiehunger der KI weiterhin mit der jetzigen Beschleunigung wächst, kommt ein gewaltiger neuer Summand zur Beschleunigung des Klimawandels zu den bereits vorhandenen treibhausgaserzeugenden Sektoren hinzu.


Die folgende Seite begibt sich in den Bereich der Spekulation: Wie wird sich KI weiterentwickeln?




Quellenangaben und Anmerkungen
(1) Strümke, I. 2024. Künstliche Intelligenz - Wie sie funktioniert und was sie für uns bedeutet. Bonn: Rheinwerk Verlag
(2) EU Artificial Intelligence Act, 2024, https://artificialintelligenceact.eu/de/





nächste Seite: KI - Ausblick
vorherige Seite: KI - Geschichte