Künstliche Intelligenz - Risiken

Karl Hans Bläsius

Anwendungen der KI bieten sehr viele Chancen, können aber auch Risiken beinhalten. Hier wird auf einige dieser Risiken eingegangen, die erhebliche Auswirkungen auf Menschen oder sogar auf die Menschheit als Ganzes haben können. Hier betrachtete Risiken:
  • Überwachung, Bewertung und Manipulation
  • Autonome Waffensysteme
  • KI in Frühwarnsystemen für nukleare Bedrohungen – Atomkrieg aus Versehen
  • Superintelligenz
Überwachung, Bewertung und Manipulation

Mit Hilfe automatischer Bilderkennung und automatischem Sprachverstehen ist ein umfangreiches Überwachen von Menschen oder der gesamten Bevölkerung eines Staates möglich. Vor diesem Risiko hat Joseph Weizenbaum bereits in seinem 1977 erschienenen Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ gewarnt. Er schreibt darin, dass die Künstliche Intelligenz das Potential besitzt, die Überwachung zu einem Massenprodukt zu machen.

Die Analyse von Fotos von Personen kann mit unterschiedlichen Methoden und unterschiedlichen Zielsetzungen erfolgen. Mögliche Zielsetzungen sind:

  • Verifikation von Personen
  • Identifikation von Personen (z.B. Gesichtserkennung, Stimme)
  • Bestimmung persönlicher Eigenschaften

Nicht nur Fotos können für solche Aufgaben herangezogen werden, sondern auch Videos und Tonaufnahmen.

Besonders problematisch ist das automatische Bewerten von Menschen und das Bestimmen von Charaktereigenschaften, wobei grundsätzlich ein besonders hohes Missbrauchspotenzial besteht (Artikel „Bestimmung persönlicher Eigenschaften“).

Umfangreiche Überwachung und Bewertung können recht leicht zu Manipulationen verwendet werden und gefährden damit unsere Freiheit und bedrohen unsere Demokratien.

Autonome Waffensysteme

Große Fortschritte im Gebiet „Künstliche Intelligenz“ (KI) haben auch zu entsprechenden Fortschritten in der Militärtechnik geführt. Insbesondere könnten selbständig agierende Roboter auch für militärische Zwecke eingesetzt werden. Auf der Basis einer automatischen Bilderkennung mit guter Objektklassifikation könnten feindliche Ziele automatisch identifiziert und attackiert werden. Der Einsatz von autonomen Waffen (z.B. Killerrobotern) gilt als dritte große Revolution in der Kriegsführung, nach der Erfindung des Schießpulvers und der Entwicklung von Nuklearwaffen. Weitere Informationen hierzu:

Zur Unterstützung einer Kampagne zum Verbot autonomer Waffen hat das Future of Life Institute (www.futureoflife.org) im November 2017 einen knapp achtminütigen Film „Slaughterbots“ veröffentlicht, im dem die Risiken autonomer Waffen verdeutlicht werden. Auch wenn der Film als Science Fiction angesehen werden kann, sind die Techniken für eine Realisierung heute bereits vorhanden.

KI in Frühwarnsystemen für nukleare Bedrohungen – Atomkrieg aus Versehen

Wenig bekannt sind die Gefahren, die von immer mehr KI in militärischen Frühwarnsystemen zur Erkennung von Angriffen mit Nuklearwaffen ausgehen können. Die Erwartungen, die bei Frühwarnsystemen in die KI gesteckt werden, können dabei nicht erfüllt werden. Aufgrund einer unsicheren und unvollständigen Datengrundlage können weder Menschen noch Maschinen im Falle von Alarmmeldungen sicher entscheiden. In Zusammenhang mit den Nuklearstreitkräften hing das Leben der gesamten Menschheit in der Vergangenheit in einigen Fällen von der Entscheidung eines einzelnen Menschen ab. Weder ein Mensch noch eine Maschine sollte eine solche Fähigkeit haben. Um über diese Gefahren zu informieren, sind die Seiten www.atomkrieg-aus-versehen.de eingerichtet worden.

Superintelligenz

Die aktuellen Erfolge auf dem Gebiet der Künstlichen Intelligenz (KI) haben auch die Diskussionen über eine Superintelligenz angeheizt, also die Frage, ob es möglich ist, Computerprogramme zu entwickeln, die dem Menschen bezüglich Intelligenz weit überlegen sind. Wenn es möglich ist, ein System zu entwickeln, das in nahezu allen Bereichen das menschliche Intelligenzniveau erreicht, dann kann in einem weiteren Schritt durch eine Intelligenzexplosion eine Superintelligenz entstehen, die die menschliche Intelligenz bei weitem übersteigt. In einigen Artikeln und Büchern werden verschiedene alternative Szenarien für das Entstehen einer Superintelligenz behandelt. Viele KI-Forscher gehen davon aus, dass noch in diesem Jahrhundert eine Superintelligenz entstehen wird. Wichtige Bücher von Forschenden in diesem Bereich sind:

  • Nick Bostrom: Superintelligenz – Szenarien einer kommenden Revolution. Suhrkamp Verlag, 2014
  • Stuart Russel: Human Compatible – Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält. Mitp Verlag, 2020
  • Murray Shanahan: Die technologische Singulariät, MSB Matthes & Seitz Berlin, 2021
  • Max Tegmark: Leben 3.0 – Mensch sein im Zeitalter Künstlicher Intelligenz. Ullstein Verlag, 2017