Immer wenn ich über künstliche Superintelligenz (ASI – Artificial Superintelligence) nachdenke, muss ich an diesen charmanten Dialog aus dem Filmklassiker Ghostbusters denken:
Egon Spengler: «Kreuze die Strahlen nicht.»
Peter Venkman: «Warum?»
Egon Spengler: «Das wäre schlecht.»
Peter Venkman: «Ich bin mir nicht ganz sicher, was gut und schlecht ist. Was meinst du mit ’schlecht‘?»
Egon Spengler: «Stell dir vor, alles Leben, wie du es kennst, würde augenblicklich aufhören und jedes Molekül in deinem Körper würde mit Lichtgeschwindigkeit explodieren.»
Apropos totale Protonenumkehr – ASI verspricht, die Realität selbst neu zu gestalten.
Um diese Auswirkungen wirklich zu verstehen, müssen wir zunächst den Philosophen Nick Bostrom zu Rate ziehen, den Intellektuellen, der das Buch «Superintelligence» geschrieben hat. Bostrom definiert diese monumentale Intelligenz wie folgt: «Ein Intellekt, der in praktisch allen Bereichen, einschliesslich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Kompetenzen, viel intelligenter ist als die besten menschlichen Gehirne.» Ziemlich intelligent, oder?
Aber das reicht noch nicht aus, um zu verstehen, wie intelligent wir hier eigentlich sprechen. Um wirklich zu verstehen, wie ASI aussehen wird, müssen wir den Blog WaitButWhy.com zu Rate ziehen. Dort wird der Sprung erklärt, den wir machen werden, wenn wir von schwacher künstlicher Intelligenz (ANI – Artificial Narrow Intelligence) über allgemeine künstliche Intelligenz (AGI – Artificial General Intelligence) zu künstlicher Superintelligenz (ASI) gelangen:
Es dauert Jahrzehnte, bis das erste KI-System eine niedrige allgemeine Intelligenz erreicht, aber schliesslich ist es soweit. Ein Computer ist in der Lage, die Welt um sich herum genauso gut zu verstehen wie ein vierjähriger Mensch. Plötzlich, innerhalb einer Stunde nach Erreichen dieses Meilensteins, entwickelt das System die grosse Theorie der Physik, die die allgemeine Relativitätstheorie und die Quantenmechanik vereint, etwas, was kein Mensch bisher endgültig geschafft hat. 90 Minuten später ist die KI zu einer ASI geworden, die 170’000 Mal intelligenter ist als ein Mensch.
Eine Superintelligenz dieser Grössenordnung können wir nicht einmal ansatzweise begreifen, genauso wenig wie eine Hummel die keynesianische Wirtschaftstheorie verstehen kann. In unserer Welt bedeutet «klug»” einen IQ von 130 und «„dumm» einen IQ von 85 – wir haben kein Wort für einen IQ von 12’952.
Selbst diese anschauliche Erklärung reicht noch nicht aus, um zu vermitteln, wie unvorstellbar intelligent ASI im Vergleich zu Menschen sein wird. Hoffentlich wird diese Grafik, die ebenfalls von WaitButWhy stammt, dem besser gerecht:
Wie du sehen kannst, stellt diese Grafik die relative Intelligenz dar. Aber ASI ist so unglaublich intelligent, dass es weit über diese Skala hinausgeht. Stell dir das so vor: Denke an die kognitive Kluft zwischen einer einzelligen Amöbe und dem Genie Albert Einstein und du kratzt gerade einmal an der Oberfläche.
Ja, wir sprechen hier von dieser unglaublichen Intelligenz.
Okay, na und? Denkst du vielleicht. Warum ist das überhaupt wichtig?
Es ist aus vielen Gründen wichtig.
Hier ist ein Grund: Die grössten und profitabelsten Organisationen der Welt wetteifern darum, ASI zu erreichen. Und sie investieren riesige Summen, um dieses Rennen zu gewinnen. «Die weltweit grössten Technologieunternehmen erhöhen ihre Investitionsausgaben drastisch, um im Bereich der künstlichen Intelligenz die Führung zu übernehmen. Microsoft, Amazon, Alphabet und Meta werden laut Prognosen im Jahr 2025 zusammen mehr als 344 Milliarden Dollar ausgeben, hauptsächlich für den Bau von Rechenzentren zur Unterstützung von KI-Modellen, berichtet die Japan Times», so MezhaMedia.com.
The Motley Fool hält selbst diese gigantische Zahl für eine Unterschätzung. «Laut einer Analyse von McKinsey könnten die Ausgaben für KI-Infrastruktur bis 2030 6,7 Billionen Dollar erreichen.»
Unabhängig von der tatsächlichen Investitionssumme nimmt Meta dies besonders ernst. Sein CEO, Mark Zuckerberg, wirft nicht nur riesige Summen in die Erlangung der technischen Intelligenzdominanz. Er hat es sich zur Aufgabe gemacht, die besten Köpfe einzustellen – okay – abzuwerben, um seine Konkurrenten in Sachen Intelligenz zu übertrumpfen.
So kontextualisiert The Verge Zuckis machiavellistische Rekrutierungsstrategie: «Die meisten Schlagzeilen konzentrierten sich bisher auf die atemberaubenden Vergütungspakete, die Zuckerberg anbietet, von denen einige weit in den achtstelligen Bereich reichen. Wie ich bereits zuvor berichtet habe, ist die Einstellung der besten KI-Forscher wie die Verpflichtung eines Star-Basketballspielers: Es gibt nur sehr wenige von ihnen und man muss tief in die Tasche greifen. Ein typisches Beispiel: Zuckerberg hat im Grunde genommen 14 Instagrams bezahlt, um Alexandr Wang, den CEO von Scale AI, abzuwerben.» Doch diese unglaublichen Summen erzählen nur einen Teil der Geschichte.
Um die Bedeutung von ASI besser einschätzen zu können, sollte man sich vor Augen führen, dass viele glauben, dass ihre Verwirklichung die sogenannte Singularität auslösen wird. Ray Kurzweil beschreibt dies in seinem 2005 erschienenen Buch «The Singularity Is Near» wie folgt: «Die Singularität ist eine zukünftige Periode, in der das Tempo des technologischen Wandels so rasant und seine Auswirkungen so tiefgreifend sein werden, dass das menschliche Leben irreversibel verändert wird.»
Vernor Vinge drückt es in seinem 1993 erschienenen Buch «The Coming Technological Singularity» noch eindrucksvoller aus: «Innerhalb von dreissig Jahren werden wir über die technologischen Mittel verfügen, um übermenschliche Intelligenz zu schaffen. Kurz darauf wird die Ära der Menschheit zu Ende sein.» Vinge mag sich mit seinem Zeitplan irren, aber sein Verständnis der Bedeutung der ASI sollte nicht unterschätzt werden. Hier sind nur einige Dinge, die die ASI leisten könnte:
1. Ein Heilmittel für jede Krankheit finden.
2. Den Tod beseitigen.
3. Unendlichen Überfluss schaffen.
4. Die Vergangenheit wiederauferstehen lassen.
5. Alles Wissen vereinen.
Hier ist eine weitere Möglichkeit, das Potenzial von ASI zu erkennen. Seit Jahren vermeiden die Nationen der Welt einen nuklearen Weltuntergang durch gegenseitig garantierte Zerstörung (MAD – Mutually Assured Destruction). Im Grunde genommen hat die Androhung verheerender Vergeltungsmassnahmen jedes Land auf der Erde davon abgehalten, Raketen aufeinander abzufeuern.
ASI ist gefährlicher als jedes Atomwaffenarsenal. Warum?
Wer ASI als Erster erhält, kann jede beliebige Waffe – atomar oder anderweitig – entwickeln und herstellen und dann intelligente Systeme entwerfen, um sicherzustellen, dass er für immer vor Vergeltungsmassnahmen geschützt ist.
Kein Wunder, dass die grössten Unternehmen der Welt und ihre Regierungen KI nachjagen. Um unsere Situation in filmischen Begriffen auszudrücken: Stell dir einfach die Zerstörung vor, die entstanden wäre, wenn die Ghostbusters den Stay Puft Marshmallow Man nicht hätten aufhalten können. Das ist die Art von Macht, die ASI eines Tages ausüben könnte.
Wenn das passiert, wen wirst du dann anrufen?

(via The AI Philosopher)




«Dravens Tales from the Crypt» bezaubert seit über 15 Jahren mit einer geschmacklosen Mischung aus Humor, seriösem Journalismus – aus aktuellem Anlass und unausgewogener Berichterstattung der Presse Politik – und Zombies, garniert mit jeder Menge Kunst, Entertainment und Punkrock. Draven hat aus seinem Hobby eine beliebte Marke gemacht, welche sich nicht einordnen lässt.







