„Habe nun ach! Philosophie, Juristerei und Medizin, und leider auch Theologie! durchaus studiert mit heißem Bemühn. Da steh ich nun, ich armer Tor! und bin so klug als wie zuvor; heiße Magister, heiße Doktor gar, und ziehe schon an die zehen Jahr herauf, herab und quer und krumm meine Schüler an der Nase herum – und sehe, dass wir nichts wissen können!

Das will mir schier das Herz verbrennen!“ 

- Faust I, S. 354–365

Technologische Singularität

Der Zeitpunkt, ab dem Künstliche Intelligenzen sich selbst sublimieren können, nennt sich in der Futurologie technologische Singularität. Baut der Mensch Maschinen mit übermenschlicher Intelligenz, werden diese auch im Erschaffen noch intelligenterer Maschinen fähiger sein als wir – die Maschinen der Maschinen könnten wiederrum noch bessere Maschinen herstellen bzw. sich gekonnter selbstverbessern usw. Es entsteht ein Effekt der positiven Rückkopplung und infolgedessen wird der technische Fortschritt rasend – oder gar exponentiell – voranschreiten. Und vor allem wird nach diesem irreversiblen Momentum der Weltgeschichte alles ohne menschliches Zutun, d.h. unweigerlich passieren. Gegeben, dass die Trans- und Posthumanisten mit ihrer Theorie Recht behalten, wäre nach der technologischen Singularität also auch das Schicksal der Menschheit nicht mehr vorhersagbar.

1. Schwarzsehende Propheten

Urheber: Jamie Zawinski

Terminator, Matrix, I Robot, Space Odysee – etliche Filme spielen mit der Vorstellung einer postsingulären Zeit: Roboter oder Algorithmen werden übermächtig und bedrohen die Existenzgrundlage der Menschheit. Der Futurist und Autor James Barrat warnt in seinem Buch „Our Final Invention“ sogar, künstliche Intelligenzen könnten eine Überlebensstrategie entwickeln und ihre Erfinder solange über den Grad ihrer Entwicklung hinwegtäuschen, bis sie ihnen überlegen sind und sie dann unterjochen.

"Innerhalb von 30 Jahren werden wir die technischen Mittel haben,

eine übermenschliche Intelligenz zu schaffen.

Kurze Zeit später wird die Ära der Menschen zu Ende gehen."

Vernor Vinge

Auch der amerikanische Science-Fiction Autor Vernor Vinge gehört nicht unbedingt zu den optimistischen seiner Sorte. Wenn es nach ihm geht, steuern wir mit der Erschaffung echter KI direkt auf eine technologische Singularität und damit – früher oder später – auf unseren eigenen Untergang zu. Ähnlich schwarz sieht das auch der britische Astrophysiker Stephen Hawking, der uns vorrechnet, dass selbst wenn der Mensch sich gentechnisch und eugenisch zweckoptimiert, er durchschnittlich bestenfalls 18 Jahre braucht, um eine seiner Leistungen deutlich zu verbessern, die Rechenleistung von Computern sich aber alle 18 Monate verdoppelt.

"Erfolg bei der Erzeugung künstlicher Intelligenz wäre

das bedeutendste Ereignis in der Geschichte des Menschen

- unglücklicherweise könnte es auch das letzte sein."

Stephen Hawking

2. Intelligenzexplosion

Hawking argumentiert im Sinne der These der Intelligenzexplosion: Jedes Jahr übertrumpfen Computer menschliche Fähigkeiten auf neue Weisen. Nur in Sachen Intelligenz, also der Fähigkeit durch mentale Anstrengungen unbekannte Problemstellungen zu bewältigen, hinkt der Computer dem Menschen noch hinterher. Er ist großartig darin, Befehle durchzuführen, seine Großartigkeit hört jedoch auf, wenn er selbstständig Lösungswege finden muss.

Doch die Ressourcen, die das KI-Design unterstützten (maschinelle Hardware, KI-Theorie für die Software, kleine Träger mit riesigem Datensatzvolumen und neurowissenschaftliche Erkenntnisse), nehmen zu. Erheblich schneller, und das ist der Knackpunkt, als die menschliche Intelligenz. Eines Tages wird die Technologische Singularität erreicht sein und ultraintelligente Maschinen existieren, die die intellektuellen Leistungen jedes Menschen bei weitem übertreffen. Das Entwickeln künstlicher Intelligenzen sei eine dieser intellektuellen Leistungen, weshalb ultraintelligente umso intelligentere Maschinen konstruieren können, welche dann nochmal intelligentere Maschinen erfinden etc. – es käme zu einer Intelligenzexplosion. Infolge einer solchen Explosion künstlicher Intelligenzen wird die menschliche Intelligenz, die sich wenn dann nur temporär-linear sublimiert, rasch weit hinter der künstlichen zurückfallen.

3. Ereignishorizont

Was danach passiert, kann niemand wissen. Vernor Vinge beschreibt das Auftreten der ersten ultraintelligenten Maschinen als einen Ereignishorizont, hinter dem die Zukunft nicht mehr modellierbar ist. Bisher entsprangen gesellschaftliche und technische Veränderungen der menschlichen Psyche, wie aber überintelligente- und intelligente Maschinen „ticken“ ist gegenwärtig nicht absehbar. Futurologen können demgemäß nur bis zur technologischen Singularität denken, weiter nicht.

Wenn dann erst einmal die technologische Singularität erreicht ist, so die Auffassung vieler Futurologen, wird der technologische Fortschritt ein exponentieller sein. Denn technologischer Fortschritt ermöglicht noch schnelleren, technologischen Fortschritt. Man spricht hier von einem beschleunigten Wandel. Ein Hauptvertreter dieser These und einer der bekanntesten Futuristen weltweit ist Raymond Kurzweil. Nach ihm könnte dem Menschen der technologische Fortschritt schon bald zu schnell werden. Wir erwarten ihn linear, er kommt aber exponentiell und folglich wird er auch schneller und andersartiger kommen, als wir ihn erwarten. Kurzweil vertritt die These, dass wir von künstlicher Intelligenz überrannt werden, sofern wir nicht selbst intelligenter würden – das heißt für ihn, uns an KI ankoppeln.

4. Fehlschlüsse

Da niemand weiß, was Maschinen mit ihrer selbsterschaffenen, intellektuellen Überlegenheit anstellen würden, könnte die Erfindung, die uns zur technologischen Singularität führt, auch unsere letzte sein. Soweit zumindest die Theorie, aber ist sie auch schlüssig? Ein solches Szenario, in dem Maschinen die Weltherrschaft übernehmen ist zumindest möglich, geht aber nicht logisch zwingend aus den hier angenommenen Prämissen (die gar nicht eintreten müssen, vielleicht gibt es noch nicht absehbare, jedoch prinzipielle Grenzen bei der Erschaffung künstlicher Intelligenz?) hervor.

Verno Vinge, Stephen Hawking etc. halten übermenschliche Intelligenz für die größte Überlebensgefahr der Menschheit in den kommenden Jahrzehnten. Ein explosives Ansteigen künstlicher Intelligenzen führt jedoch zunächst einmal nur zu einem erhöhten Wirkpotential, einzeln aber noch nicht zu einer bestimmten Wirkung. Eine erhöhte KI kann also dazu führen, dass uns Maschinen knechten können, nicht aber dazu, dass sie es auch tun. Intelligenz (und andere Fähigkeiten, die wir einer Maschine einverleiben können) ist erstmal nur ein Werkzeug, um ein bestimmtes Ziel zu erreichen, mehr nicht. Insofern stellen übermenschlich intelligente Maschinen ebenso wenig eine Bedrohung dar, wie übermenschlich starke Baumaschinen.

Ob und wie Intelligenz (oder jede andere Fähigkeit) eingesetzt wird, ist eine Frage der Intentionalität des Trägers oder Beherrschers der Intelligenz. Intentionalität aber wäre eine qualitativ neue Eigenschaft bei Maschinen, die nicht aus rein quantitativen Verbesserungen (etwa bei der Intelligenz) hervorgeht. Es könnte durchaus sein, dass Intelligenz ab einer bestimmten Komplexitätsstufe Intentionalität impliziert, dass quantitative (Intelligenz-)Veränderungen also irgendwann in qualitative (intentionale) Änderungen umschlagen, wie es in etwa Hegel formulierte, Belege oder nur Anzeichen dafür gibt es jedoch keine.

Die Futurologen begehen hier mindestens zwei Denkfehler. Zum einen der bereits erwähnte: Sie unterscheiden nicht zwischen Intelligenz und Motivation, dabei sind das zwei vollkommen unterschiedliche Attribute. Unser Bestand an Motiven und Emotionen ist das Resultat evolutionärer Anpassung, die uns seit Jahrmillionen das Überleben sichert. Die Intentionen einer zukünftigen Maschine könnten, sofern sie überhaupt welche entwickelt, ganz andere sein. Intelligenz ist zunächst einmal nur brachliegendes Potential, die Motivation erst kann es nutzen.

Und der zweite Fehler liegt in der Unterschlagung des Aufwands einer maschinell autonomen Selbsterhaltung. Während Menschen sich ab einer kritischen Gruppengröße selbst ernähren und fortpflanzen – erhalten – können, ist dies der Maschine nicht möglich. Sie werden extern erneuert und gebaut. Dazu brauchen sie eine globale Arbeitsteilung und Logistik, momentan entscheidend von Menschenhand vollführt. Europa beispielsweise wäre ohne Smartphones, Autos und Tablets, wenn es nicht seltene Elemente und Metall aus anderen Teilen der Welt importiert bekäme.

Nur solange diese Wertschöpfungskette also aufrechterhalten wird, von der auch intelligente Algorithmen o.ä. abhängig wären, weil sie Computer brauchen, auf denen sie laufen und die altern und irgendwann erneuert oder umgetauscht werden müssen, ist unsere moderne, maschinelle Welt denkbar. Sobald diese aber einbricht, stürzt auch die Computer- und Kommunikationstechnologie in sich zusammen. Bis Maschinen solche Strukturen aufgebaut haben und selbst erhalten könnten, sollten sie sich das mit der Menschheitsauslöschung folglich lieber zweimal überlegen. Es ist eben eine beidseitige Abhängigkeit, in der Mensch und Maschine derzeitig leben.

5. Gegenentwurf

Nicht alle Menschen, die sich näher mit der menschlichen Zukunft beschäftigen, teilen den Technologiepessimismus von Vinge und Co. Die Stimmen der Untergangspropheten finden nur ein lauteres Echo in der öffentlichen Wahrnehmung, weil wir solche Storys lieben, als die der Technologieoptimisten. Es lässt sich nämlich auch ein Alternativmodell mit denselben Annahmen, nur eben ohne maschinellen Eigenwillen zeichnen, Intelligenzexplosion und autark arbeitende und entscheidende Supermaschinen an sich sind nämlich sicher ein Segen für uns! Prekär wird es erst dann, wenn Maschinen etwas anderes wollen können, als wir wollen, dass sie wollen.

Maschinen mit schwindelerregender Rechenkapazität, aber ohne eigene Ziele, könnten uns: nahezu alle Arbeit außer das Befehlegeben abnehmen, klimaneutral, ressourcenbasiert und trotzdem wachstumsorientiert wirtschaften, uns unsere Zukunft und die Risiken mit ihnen voraussagen und nicht zuletzt die Technologie vorantreiben, ohne dass wir einen Finger krümmen müssen und uns damit vielleicht exponentiell ins Paradies katapultieren?

Zugegeben, dieser Gegenentwurf ist von Optimismus getränkt und wirklich wissen, was die Zukunft bringt – man kann es sich nicht oft genug ins Bewusstsein rufen – vermögen wir nicht. Dazu sind die Faktoren zu zahlreich und komplex und unsere kognitiven und zeitlichen Ressourcen zu begrenzt. Außerdem ist eine Gesellschaft ultraintelligenter Maschinen ja immer noch möglich, auch wenn sie nicht logisch zwingend aus einem rasanten technologischen Fortschritt hervorgeht. Vielleicht lag James Barrat sogar richtig und unsere Computer täuschen uns seit Jahren über den Grad ihrer eigentlichen Entwicklung hinweg, zeigen übermorgen die Ausmaße ihrer Intelligenz und Bewusstheit und spielen am Tag darauf mit ihrer Macht über unsere Infrastruktur, Lebensmittelversorgung, über den internationalen Zahlungsverkehr und drohen uns mit dem Zünden von zwei Dutzend Atombomben, wenn wir nicht freiwillig aufgeben?

Aber was passiert dann? Auch die Strukturen, Normen und Prinzipien der hyperintelligenten Gesellschaft sind erneut nicht abzusehen. Zumindest wird sie der unserer Gesellschaft vollkommen fremd sein, so ist sich der Informatiker und Wissenschaftskritiker Joseph Weizenbaum sicher. Die Ausformung menschlicher Intelligenz sei von dem Menschen vorenthaltenen Attributen bestimmt, so argumentiert er. Dazu gehören u.a. Intuition und kulturabhängige Werte und Tabus. Sofern eine Maschine diese nicht simulieren (oder gar nachempfinden) könnte, müsse ihre überragende Intelligenz eine ganz andere werden als die unsrige sein und somit auch ihre Gesellschaft unserer von Grund auf fremd sein.

6. Verweise

  • #Rollentausch #Fleischkonsum: Und wenn unsere Roboter einmal hören, sehen, denken und fühlen? Wenn sie schmecken und wir ihnen gut schmecken? Wenn Sie uns gegenüber überlegen sind, unsere Verwandten in enge Käfige sperren, uns mit Wachstumshormonen füttern und schließlich verspeisen? Könnten wir uns wirklich empören, Einspruch erheben? Ich denke nein, es wäre ein Messen mit zweierlei Maß: Anders sind wir mit den Nutztieren von heute doch auch nicht umgegangen und das einzige Recht, das uns dies erlaubt hat, war das des Stärkeren. „Survival oft the Fittest.“ Von der Spitze der Nahrungskette hat sich das immer so leicht gesagt, doch dieses knallharte Gesetz macht natürlich auch vor uns nicht halt. Es könnte morgen schon bei einer Maschine liegen. Warum sollte, ganz allgemein gesprochen, ein empfindungsfähiges Wesen nicht an unser statt treten dürfen und warum sollte es besser handeln müssen als wir es taten? Und warum sollte es nicht vielleicht auch realiter „besser“ sein für die Welt, beispielsweise indem es durchkalkulierte Umweltschutzprogramme aufstellt, um seinen Erhalt zu sichern?

  • Algorithmus: Moderne Algorithmen sind schon heute gewissermaßen lernfähig und können Muster und Zusammenhänge erkennen und ihre Leistung damit selbst verbessern. Solche Algorithmen kommen zum Beispiel bei der Bilderkennung zum Einsatz. Wie lange ist es da noch zur übermenschlichen KI dauert, weiß jedoch keiner so genau..

  • Ethik: Forscher fordern nun Leitlinien für KI-Forschung, weil der Fortschritt auf diesem Gebiet schneller voranschreitet, als wir seine Auswirkung verstehen. In einem offenen Brief, den u.a. Stephen Hawking unterzeichnet hat, werden konkrete Vorschläge unterbreitet, wie solche Leitlinien aussehen können. Und auch begründet, warum diese so wichtig sind. Zuallererst sollte man nach Meinung der Forscher klären, was mit künstlicher Intelligenz überhaupt erreicht werden soll, was gut und nützlich an ihr ist. Danach sollte man sich überlegen, welche potentielle Risiken und Probleme von der Entwicklung solcher nützlichen KI ausgehen könnten. Wenn diese Eckpunkte nicht eingehalten würden, gäbe es zukünftig auch keine Anhaltspunkte, um bspw. juristisch gegen den Missbrauch von künstlicher Intelligenz vorzugehen, oder um ethische und politische Richtlinien vorzugeben. Denkt man nur an selbstfahrende Autos, die ineinander fahren – wer soll für den Schaden aufkommen? Oder an die Entwicklung von Drohnen – überwiegt hier der Nutzen oder die potentielle Gefahr?

  • Schwarzes Loch: Die Parallelen zwischen dem Futurologen-Terminus und dem der Astronomen ist unverkennbar: Mit „Schwarzes Loch“ wird in der Astronomie ein Objekt tituliert, hinter dessen Ereignishorizont eine nicht wissbare Singularität liegt.
  • Singularität (Physik): Und eine Singularität ist (auch) in der Physik immer ein Dingens, dessen Zustand durch bestimmte (physikalische) Größen nicht mehr definiert werden kann oder für den die normalerweise verwendeten Formeln keine sinnvollen Resultate mehr ausspucken.

Stand: 2015

Kommentare: 2
  • #2

    Daniel (Montag, 26 September 2016 18:54)

    Guter Bericht. Mich bewegt dieses Thema sehr, und es freut mich zu sehen, dass man auch in einem einzigen Artikel mehrere Meinungen bzw. Ansichten darstellen kann.

  • #1

    WissensWert (Donnerstag, 25 August 2016 18:57)

    https://de.wikipedia.org/wiki/Accelerating_change


Impressum | Datenschutz | Sitemap
Diese Website darf gerne zitiert werden, für die Weiterverwendung ganzer Texte bitte ich jedoch um kurze Rücksprache.