* * *
- Autor: Maximilian Wittmann
- Rubrik/Kategorie: Künstliche Intelligenz (KI)
- Geschätzte Lesezeit des Artikels: 7 Minuten, Starke Künstliche Intelligenz

Hallo liebe Leser, Technologie-Begeisterte und digitale Stöberer!
Ich freue mich über euren Besuch auf meinem TechBlog! Ihr lest heute bereits den vierten Artikel aus der Rubrik „KI“. Nach der allgemeinen Einführung in den Themenkomplex Künstliche Intelligenz, den Blog-Artikeln zu den Vorteilen und Schattenseiten der KI geht es spannend weiter:
Heute klären wir den Unterschied zwischen „Schwacher“ und „Starker“ Künstlicher Intelligenz. Im Detail gehen wir den folgenden Fragen auf den Grund:
-
-
- Droht womöglich technologische Singularität? Schafft sich der Mensch durch starke Künstliche Intelligenz auf lange Sicht selbst ab?
- Wovor warnen renommierte Wissenschaftler und Tech-Visionäre aus dem Silicon Valley?
- Was ist der Unterschied: „Schwache und starke Künstliche Intelligenz“?
- Wie ist denn der heutige Stand der Technik?
-
Das alles und mehr im heutigen Blog-Eintrag. Viel Spaß beim Lesen!
Die Entwicklung künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist.
Stephen Hawking, britischer theoretischer Physiker und Astrophysiker1
Was hat den weltweit bekannten und herausragenden Wissenschaftler Stephen Hawking zu dieser These veranlasst? Schwierig zu sagen. Was feststeht, ist, dass er nicht der einzige prominente Mahner im Hinblick auf die Konsequenzen von KI ist. Elon Musk hat auf Twitter Folgendes mitgeteilt:
„Der Wettbewerb um die Vorherrschaft in KI auf nationaler Ebene wird meiner Meinung nach der wahrscheinlichste Auslöser des Dritten Weltkriegs.“
Elon Musk, CEO von Tesla & SpaceX2
„Mooooment mal“, werdet ihr euch vielleicht denken. Sprechen wir von dem Elektroauto-Visionär, mehrfachen Unternehmensgründer und Multi-Millionär. Ja, genau von dem sprechen wir. Hier findet ihr übrigens seine Biographie*.
Und der polarisierende CEO aus dem Silicon Valley sagt auch: Künstliche Intelligenz sei „more dangerous than nukes“3 – also gefährlicher als Atombomben. Eine ziemlich steile These, die ihm sowohl Kritik als auch Lob eingehandelt hat.
Musk, der sonst nicht unbedingt als Aushängeschild für staatliche Technologie-Regulierung von sich reden gemacht hat, spricht sich aktiv für eine klare Regulierung im Falle KI aus. Regierungen müssten diese pro-aktiv vorantreiben, und standardisierte und bindende Regeln für den Umgang festlegen4.
Auch wenn von unerwarteter Quelle geäußert, finde ich diese Aussage prinzipiell richtig. Das Thema Kontrolle (Black Box) bei der Einführung von KI als auch die Notwendigkeit von verbindlichen Regelwerken haben wir im letzten Blog-Beitrag ebenfalls als wichtigen Handlungsbedarf herausgestellt.
Der Tesla-CEO* legt sogar noch nach und sagt, dass KI seiner Meinung nach „ein fundamentales Risiko für die Existenz der menschlichen Zivilisation“ darstellt4 .
Ausprägungen der Künstlichen Intelligenz
Das klingt ja förmlich so, als würden wir tatsächlich Gefahr laufen, durch eine intelligentere Spezies verdrängt zu werden? Im Volksmund oder an Stammtischen hört man dann vielleicht den Ausspruch, dass „uns die Roboter übernehmen und unterdrücken werden“.
Spaß beiseite – läuft uns KI den Rang ab und schaffen wir uns tatsächlich selbst ab*, ohne es zu merken? Ist eine starke Künstliche Intelligenz die nächste Stufe der Evolution? Um dies beantworten zu können, schauen wir uns am besten eine wichtige Unterscheidung der Künstlichen Intelligenz an:
„Schwache“ KI
Beginnen wir mit der sogenannten „Schwachen“ KI: Diese beschreibt eine Künstliche Intelligenz, welche den Menschen beim Lösen von klar abgegrenzten, konkreten Aufgaben– und Problemstellungen hilft5.
Das beinhaltet z. B. die Erkennung von bestimmen Mustern, Formen, Personen, Katzen usw. auf Bildern. Ein ähnliches Beispiel habt ihr bereits im zweiten Blog-Eintrag kennengelernt. Dort habe ich euch gezeigt, wie die KI mittels überwachten Maschinellen Lernverfahren ein Zahnrad auf Bildern erkennen kann. Weitere Beispiele sind:
- Ein KI-Bot, welcher Schach spielt*
- Zeichenerkennung
- Spracherkennung
- Kauf-Empfehlungen
- Steuerung von Produktionsanlagen
- Navigations-Systeme, Vorschläge zur Korrektur bei Such-Anfragen
- Expertensysteme6
- Automatisiertes Fahren
Ihr fragt euch nun vielleicht: Was haben all diese Beispiel gemeinsam? Die Antwort: Die KI-Systeme wurden speziell für die jeweilige Anwendung und Aufgabe entwickelt6 und lösen bestimmte Probleme: Ein Schach-spielender KI-Bot hat z. B. hervorragende Kompetenzen und Fähigkeiten in der Domäne des Schach-Spiels.
*
Setzt man eben jene KI auf ein anderes konkretes Problem ein – z. B. auf das Erkennen von Schildern im Straßenverkehr – ist die KI vollkommen aufgeschmissen. Der Grund – abgesehen von einem tatsächlich selbstlernenden KI-System beim Reinforcement Learning* – ist der Folgende:
Die KI ist nicht mit Daten zu Verkehrs-Schildern trainiert worden. Am Anfang ist ein derartiges System also „dumm“7. Während sie im Schach vielleicht den menschlichen Weltmeister schlagen könnte (ja, das wurde tatsächlich bereits geschafft), fehlt dieser KI jeglicher Kontext für die andere Domäne.
Die schwache KI ist aber im Stande, automatisiert spezifische Problemstellungen sogar besser als der Mensch zu lösen8.
- 1997: DeepBlue besiegt Schachlegende Kasparov
- Der IBM-Supercomputer Watson schlägt 2011 menschliche Gegenspieler in der TV-Quiz-Sendung Jeopardy
- Reinforcement Learning* ermöglicht es 2013, dass eine von DeepMind entwickelte KI mehrere Atari-Spiele besser spielt als Menschen (Falls du wissen willst, wie Künstliche Neuronale Netze funktionieren, empfehle ich dir meinen kostenlosen Mini-Online-Kurs*)
- 2016: Google’s AlphaGo besiegt in einem der kompliziertesten strategischen Brettspiele den Go-Meister Lee Se-Dol
- Große Fortschritte in der Rechenkapazität5 und im Hinblick auf die Speicher-Technologie
- Bessere Methoden und Algorithmen des Maschinellen Lernens zur Analyse von großen Datenmengen (z. B. Neuronale Netze*, Convolutional Neural Networks*,…)
- Im Zeitalter von Big-Data: Die schier unendliche Menge an Daten (Verfügbarkeit) und die Möglichkeit, diese Daten zu verwenden

*
„Starke Künstliche Intelligenz“
Technologische Singularität
Philosophen, Wissenschaftler und Zukunftsvisionäre beschäftigen sich schon lange mit dem Thema starke Künstliche Intelligenz und Superintelligenz. Der Schwede Nick Bostrom* hat Letztere wie folgt beschrieben: „[…] as an intellect that is much smarter than the best human brains in practically every field, including scientific creativity, general wisdom and social skills”10.
Dieses System wäre also eine Steigerung der starken Intelligenz und wäre dem Menschen in allen Bereichen überlegen. Solche Systeme wären flexibel und würden nicht mehr nur reaktiv, sondern pro-aktiv handeln. Es ranken sich viele Mythen und Prognosen bezüglich der Super-Intelligenz.
Der Zeitpunkt, an dem sich Maschinen mittels künstlicher Intelligenz quasi unkontrollierbar selbst verbessern, wird als technologische Singularität bezeichnet13. Ab diesem Tag sei laut Zukunfts-Forschern die Zukunft des Menschen nicht mehr vorhersehbar.
Einige Zukunfts-Forscher (z. B. Raymond Kurzweil) schätzen sogar, dass wir die technologische Singularität in circa 25 Jahren erreichen.
Laut Bostrom würden die Risiken einer technologischen Singularität enorm und für die Menschheit existenziell bedrohlich sein. Er zweifle stark daran, ob eine Super-Intelligenz der menschlichen Bevölkerung friedlich gegenüber stehen würde13. Die menschliche Spezies würde dann in einem Dilemma stecken. Dem Statistiker I. J. Good zufolge wäre zu befürchten, dass eine hoch-intelligente KI die letzte Erfindung sein wird, die der Mensch machen wird14.
Andere Futuristen argumentieren, dass der rasante Fortschritt der KI und die Entwicklung einer Super-Intelligenz uns mehr nützen als schaden würde. Manche glauben, dass die menschliche Lebenserwartung sich verlängern könnte und träumen sogar von der biologischen Unsterblichkeit.
Schauen wir, was Stephen Hawking zu diesem Thema gesagt hat:
Einige Menschen behaupten, Computer würden niemals in der Lage sein, echte Intelligenz zu entwickeln, was auch immer das sein mag. Doch wenn komplizierte chemische Moleküle im Menschen so zusammenwirken können, dass sie diesen mit Intelligenz ausstatten, dann sehe ich nicht ein, was ebenso komplizierte elektronische Schaltkreise daran hindern sollte, Computer zu intelligentem Verhalten zu befähigen.
FAZIT & AUSBLICK
Bleibt dran in der <<Rubrik KI>> und verpasst auf keinen Fall die zukünftigen Posts zu den folgenden Themen:
- Maschinelles Lernen: Welche unterschiedlichen Arten gibt es? Welche Anwendungsfälle gibt es zum Beispiel für das Reinforcement Learning*?
- Coding von KI-Algorithmen: Welche Programmiersprachen, Software-Suiten und „Framework/Libraries“ sind am populärsten für die Entwicklung von Maschinellen Lern-Algorithmen?
- Praxisreihe Programmierung: Dein erstes KI-Projekt: Bilderkennung mittels Neuronalen Netzen –> Lasst uns Objekte auf Bildern erkennen
-
- Basics und Grundlagen für dein erstes KI-Projekt
- Neuronale Netze: Wie sind sie aufgebaut und wozu werden sie benutzt? Was ist ein Modell? (Diese Fragen beantworte ich dir gerne: HOL DIR HIR MEINEN KOSTENLOSEN MINI-KURS ZU KÜNSTLICHEN NEURONALEN NETZEN*)
- Schritt-für-Schritt programmieren wir in der Programmiersprache Python mit den Framework/Libraries Keras & Tensorflow unser erstes neuronales Netz.
- Anwendung auf den NIST-Datensatz
- Erkennen von Objekten mittels Machine Learning
-
Danke für das Lesen des Beitrags und bis zum nächsten Post.
Euer Maximilian
PS: Teilt mir gerne eure Gedanken zum Thema KI, zur Singularität und zu diesem Artikel mit. Wie viele Jahre ist die Singularität oder eine „KI-Super-Intelligenz“ eurer Meinung nach noch entfernt? Stimmt ihr den mahnenden Worten von Stephen Hawking und Elon Musk zu?
Habt ihr weitere Anmerkungen oder konkrete Themen-Wünsche für zukünftige Artikel in der Kategorie Künstliche Intelligenz? Ich bin gespannt auf eure Meinungen und euren Input.
PPS:
Euch hat der Artikel gefallen? Ihr möchtet in Zukunft keine Blog-Beiträge mehr verpassen und automatisch über neue Artikel zur KI, Robotik, Industrie 4.0, 3D-Druck,… informiert werden? Außerdem wollt ihr exklusive Rabatte auf meine Online-Kurse* und Bücher erhalten? Dann abonniert gerne hier meinen Newsletter:
Interessante und passende Buch-Empfehlungen zu diesem Artikel:
- Nick Bostrom: Superintelligenz: Szenarien einer kommenden Revolution*
- Bostrom und Strasser: Die Zukunft der Menschheit: Aufsätze*
- Tegmark und Mania: Leben 3.0: Menschsein im Zeitalter Künstlicher Intelligenz*
- Bartneck et al.: Ethik in KI und Robotik*
- Vivien Suchert: Das vermessene Ich: Von Selbstkontrolle, Optimierungswahn und digitalen Doppelgängern*
Quellen dieses Blog-Artikels sowie empfohlene Lektüre:
1 Doberstein, E.: Künstliche Intelligenz: Was Unterscheidet Uns Noch Von Maschinen? Stadtbibliothek Ludwigsburg. https://stabi.ludwigsburg.de/site/Ludwigsburg-Stadtbibliothek-Responsive/get/documents_E1774456931/lb/Stadtbibliothek/Pdf-Dokumente/Fit%20im%20Netz/Ku%CC%88nstliche%20Intelligenz%20Was%20unterscheidet%20uns%20noch%20von%20Maschinen.pdf. Zuletzt geprüft am 21.11.2019.
2 Jansen, J. (2017): Gefährliche Innovation: Elon Musk Warnt Vor 3. Weltkrieg Durch Künstliche Intelligenz. FAZ. https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/elon-musk-tesla-chef-warnt-vor-kuenstlicher-intelligenz-15182958.html. Zuletzt geprüft am 21.11.2019.
3 Metz, C. (2018): Mark Zuckerberg, Elon Musk And The Feud Over Killer Robots. The New York Times. http://cs.brown.edu/courses/csci1800/sources/2018_06_09_NYT_MarkZuckerbergElonMuskAndTheFeudOverKillerRobots.pdf. Zuletzt geprüft am 21.11.2019.
4 Rixecker, K. (2017): „Gefährlicher Als Atombomben“: Elon Musk Fordert Frühzeitige Regulierung Von Künstlicher Intelligenz. t3n. https://t3n.de/news/gefaehrlicher-atombomben-elon-839045/. Zuletzt geprüft am 21.11.2019.
5 von der Gracht, H. A. et al. (2018): Wertschöpfung Neu Gedacht: Von Humanoiden, KI’s Und Kollege Roboter. KPMG AG Wirtschaftsprüfungsgesellschaft. https://www.researchgate.net/publication/327221974_Wertschopfung_neu_gedacht_Von_Humanoiden_KI’s_und_Kollege_Roboter. Zuletzt geprüft am 21.11.2019.
6 Carl von Ossietzky Universität Oldenburg (2008): Künstliche Intelligenz. Informatik und Gesellschaft 2008/2009. Carl von Ossietzky Universität Oldenburg. http://www.informatik.uni-oldenburg.de/~iug08/ki/impressum.html. Zuletzt geprüft am 21.11.2019.
7 Kuhlen, J. et al. (2018): Grundwerte In Der Digitalisierten Gesellschaft. Der Einfluss Künstlicher Intelligenz Auf Freiheit, Gerechtigkeit und Solidarität. D64. Zentrum für Digitalen Fortschritt. https://d-64.org/wp-content/uploads/2018/11/D64-Grundwerte-KI.pdf. Zuletzt geprüft am 21.11.2019.
8 Zimmermann, H. und Frank, D. (2019): Hintergrundpapier. Künstliche Intelligenz Für Die Energiewende: Chancen Und Risiken. GERMANWATCH. https://germanwatch.org/sites/germanwatch.org/files/K%C3%BCnstliche%20Intelligenz%20f%C3%BCr%20die%20Energiewende%20-%20Chancen%20und%20Risiken.pdf. Zuletzt geprüft am 21.11.2019.
9 Hecker, D. et al. (2017): Zukunftsmarkt Künstliche Intelligenz. Potenziale Und Anwendungen. Fraunhofer-Allianz Big Data. https://www.iais.fraunhofer.de/content/dam/bigdata/de/documents/Publikationen/KI-Potenzialanalyse_2017.pdf. Zuletzt geprüft am 21.11.2019.
10 Kukla, S. (2017): Von Schwacher Und Starker Künstlicher Intelligenz. OIP. https://www.oip.netze-neu-nutzen.de/blog/show/4. Zuletzt geprüft am 21.11.2019.
11 Ardelean, S., Käferbock, S. und Kropf, N.: Einführung In Die Kognitionswissenschaften & Die Künstliche Intelligenz. https://www.uibk.ac.at/psychologie/mitarbeiter/leidlmair/einfuehrung_in_die_ki.pdf. Zuletzt geprüft am 21.11.2019.
12 Conrad, C. S. (2017): Künstliche Intelligenz – Die Risiken Für Den Datenschutz. In: Datenschutz und Datensicherheit – DuD (41, 12): 740-744. https://link.springer.com/article/10.1007%2Fs11623-017-0870-4. Zuletzt geprüft am 21.11.2019.
13 Katzlberger, M. (2018): Singularität, Was Ist Das Eigentlich? Katzlberger. Artificial Creativity. https://katzlberger.ai/2018/09/27/singularitaet-was-ist-das-eigentlich/. Zuletzt geprüft am 21.11.2019.
14 Vowinkel, B. (2016): Künstliche Intelligenz: Kommt Die Technologische Singularität. Humanistischer Pressedienst hpd. https://hpd.de/artikel/kommt-technologische-singularitaet-13480. Zuletzt geprüft am 21.11.2019.
15 Hawking, S. (2001): Das Universum In Der Nußschale. Hoffmann und Campe. S. 173.
16 Seng, L. (2018): Maschinenethik Und Künstliche Intelligenz. In: Handbuch Maschinenethik. https://www.researchgate.net/publication/325730414_Maschinenethik_und_Kunstliche_Intelligenz. Zuletzt geprüft am 21.11.2019.
* = Affiliatelinks/Werbelinks
Starke Künstliche Intelligenz; Starke KI; Singularität

Ein Gedanke zu “Starke Künstliche Intelligenz: Schaffen wir uns selbst ab?”