Wie wurde aus der Simulationhypothese eine ernstzunehmende Theorie der Wissenschaft?
Dieser Artikel ist ein Auszug aus meinem Buch „Die Matrix-Hypothese“, der aufzeigt, wie das durch Hollywood inspirierte Konzept der Matrix durch die Simulationshypothese in die Wissenschaft einzog und eine viel diskutierte Theorie wurde. Dabei ist die Vorstellung, dass wir in einem virtuellen Konstrukt leben, uralt. Schon in der vedischen Lehre kennt man die Vorstellung von Maya und beschreibt damit die „kosmische Illusion“ welche Platon mit seinem Höhlengleichnis zu umschreiben versuchte, als er sich gegen den Materialismus zur Wehr setzte.
Obwohl sich Demokrits Materialismus mit Beginn der Aufklärung durchzusetzen schien, hat sich eine philosophische und wissenschaftliche Frage über die Jahrhunderte hinweg gehalten: Was ist die wahre Natur der Realität? Leben wir in einem rein materiellen Universum, oder könnte es sein, dass unsere Existenz eher einer hoch entwickelten Simulation bzw. einer virtuellen Realität ähnelt? Das war schon der prinzipielle Diskurs zwischen Platon und Demokrit – auch wenn Platon keine Computersimulation als Analogie anführen konnte. Daher musste er sich dem Höhlengleichnis bedienen. Die Simulations-Theorie setzte exakt dort wieder an, wo wir in Griechenland stehen geblieben waren.
„Die Simulationshypothese ist nur die moderne Version einer alten philosophischen Frage: ‚Was ist die Natur der Realität?‘“
Elon Musk
Die Simulations-Theorie von Whitworth
Brian Whitworth, Informatiker und Philosoph, hat sich auf eine nachdenklich stimmende Erkundung dieser tiefgreifenden Problematiken begeben, indem er den konventionellen Materialismus in Frage stellte und in die faszinierende Welt der Simulationshypothese vordrang. Er war sicher nicht der erste prominente Wissenschaftler, aber einer, der sich in der Neuzeit Gehör verschafft hat. Schon Rudolf Steiner, Itzhak Bentov, Stanislav Grof oder David Bohm waren grundlegend auf einer ähnlichen Spur – um hier nur ein paar andere Namen zu nennen.
Der Materialismus, die vorherrschende Weltanschauung, welche die physische Welt als die ultimative Realität ansieht, ist seit langem der Eckpfeiler des wissenschaftlichen Verständnisses des Universums. Whitworth wirft jedoch kritische Fragen zu den Grenzen dieses Paradigmas auf, die in Teilaspekten bereits von vielen Quanten- und Experimentalphysikern artikuliert wurden. Er verweist auf all die paradoxen Phänomene, die sich einer Erklärung in einem rein materialistischen Paradigma entziehen. Die Natur des Bewusstseins, die Feinabstimmung der physikalischen Konstanten und die rätselhafte Verschränkung bzw. die damit assoziierte „spukhafte“ Wechselwirkung von Ereignissen über riesige Entfernungen im Universum stellen allesamt eine Herausforderung für die Vollständigkeit des Materialismus dar.
Die Simulationhypothese von Bostrom
Jede Theorie beginnt mit einer ersten Hypothese, die einen grundsätzlichen Gedankensprung macht. Im Mittelpunkt von Whitworths Untersuchung steht die Simulationshypothese, ein Konzept von Nick Bostrom, welches in den letzten Jahren an Bedeutung gewonnen hatte. Sie besagt, dass unser Universum eine sorgfältig ausgearbeitete, computergenerierte Simulation sein könnte, die einer hochentwickelten virtuellen Realität ähnelt.
Aus dieser Perspektive ist die physische Welt, die wir im Alltag wahrnehmen, nicht die grundlegende Realität, sondern vielmehr ein Konstrukt, eine digitale Schöpfung einer möglicherweise hoch entwickelten Intelligenz oder Entität. Der mutmaßliche Ursprung ist nur die naheliegendste Annahme, die ein Wissenschaftler postuliert, der die klassischen Betrachtungsweisen aus der Antike ignoriert. Doch diese grundsätzliche Tendenz erkennen wir bei vielen anderen Vertretern dieser Theorie. In der Wissenschaft gilt es als unschicklich, sich auf religiös konnotierte Philosophien zu beziehen.
„Es gibt einen Computerbetreiber, einen Systemmanager, der die Simulation durchführt, und wir alle sind Figuren in dieser Simulation.“
Rich Terrile
Um diese hypothetische Idee einer simulierten Realität zu untermauern, vertiefte sich Whitworth in das Gebiet der digitalen Physik, die davon ausgeht, dass das Universum im Wesentlichen als ein rechnerisches System funktioniert. Konzepte aus der Digitalphysik, wie die Informationstheorie und die diskrete Raumzeit, bieten eine überzeugende Herleitung, durch welche man den Kosmos als eine komplexe Simulation betrachten kann. Anders ausgedrückt: Da man herausfand, dass es keine beliebig kleinen Portionen von Zeit, Energie oder Raum gibt, sondern exakt quantisierbare „Mindestmengen“, wird eine Berechnung erst möglich – so wie in einer Computersimulation aus Gründen der mathematischen Berechenbarkeit (bzw. auf Basis einer limitierten Rechenkraft des Prozessors) alle virtuellen Elemente in begrenzte Bausteine und Bits zerlegbar sein müssen.
Zusammenfassend ist die Arbeit von Brian Whitworth und seinen Vertretern, die vor ihm kamen und jenen, die seinen Ansatz weiterführen, die wissenschaftliche Unterfütterung der Simulationshypothese. Diese bildet den Ausgangspunkt, dass in der modernen Naturwissenschaft überhaupt wieder damit angefangen wurde, ein Derivat der antiken Realitätsmodelle zu diskutieren. Diese Simulationshypothese, die zunächst von Nick Bostrom formuliert wurde, ist so simpel wie bestechend in ihrer Logik, da die Fragestellung rein mit mathematischen Wahrscheinlichkeiten arbeitet. Daher handelt es sich um einen Ansatz, den selbst der materialistische Verstand leicht nachvollziehen kann. Schauen wir uns diese Hypothese genauer an, bevor wir gemäß Whitworths Prinzip nach weiteren physikalisch objektivierbaren Indizien fahnden, die ein solches Theorem untermauern könnten.
Das Argument von Nick Bostrom
Nick Bostrom ist ein schwedischer Philosoph und Professor, der für seine Arbeit in verschiedenen Bereichen bekannt ist. Er wurde am 10. März 1973 in Helsingborg, Schweden, geboren und ist weltweit anerkannt für seine Erforschung zukünftiger Technologien, deren Auswirkungen, der darin implizierten Ethik im Kontext künstlicher Intelligenzen und eben seiner Entwicklung der Simulationshypothese.
„Das Argument, dass wir in einer ‚Matrix‘ leben, läuft auf Folgendes hinaus: Wenn wir uns nicht selbst zerstören, werden wir irgendwann eine Simulation schaffen, die von der Realität nicht mehr zu unterscheiden ist.“
Rich Terrile
Die Simulationsargumentation, der Bostrom in seinem Aufsatz mit dem Titel „Are You Living in a Computer Simulation?“ (2003)1 nachging, beruht auf einer philosophischen und probabilistischen Herangehensweise. Der philosophische Ansatz untersucht, inwieweit unsere Realität eine Computersimulation sein könnte, die von einer hoch entwickelten Zivilisation geschaffen wurde. Die Argumentation basiert auf drei Thesen:
- Posthumane Zivilisation: Bostrom geht grundsätzlich davon aus, dass eine fortgeschrittene Zivilisation, wenn sie ein ausreichend hohes technologisches Niveau erreicht, in der Lage wäre, vollständige Universen zu simulieren, einschließlich bewusster Wesen innerhalb dieser Simulationen. Diese Tendenz verdichtet sich mit dem Aufkommen immer neuer Generationen von Prozessoren und letztendlich mit dem Einstieg in die Quantencomputertechnologie. Tatsächlich fabulieren mittlerweile einige Transhumanisten, dass der menschliche Geist zukünftig dauerhaft in eine virtuelle Welt digital umziehen könnte und der Körper damit überflüssig wird.
- Simulierte Realitäten: Angesichts der Fähigkeit, solche Simulationen zu kreieren, ist es wahrscheinlich, dass diese fortgeschrittenen Zivilisationen zahlreiche simulierte Realitäten schaffen würden. Bostrom argumentiert, dass es, wenn solche Simulationen möglich sind, weit mehr simulierte Universen geben würde, als tatsächliche, nicht-simulierte. Er untermauert seine Argumentation damit, dass es praktisch nur zwei Umstände gebe, die verhindern würden, dass die Menschheit in naher Zukunft solche Simulationen erschaffen wird. Entweder wir werden ausgelöscht bzw. fallen einem kosmischen „Reset“ anheim, oder wir verlieren das Interesse an Simulationen. Im zweiteren Falle könnte auch ein ethisches Verbot eine Rolle spielen.
- Wahrscheinlich befinden Sie sich in einer Simulation: Bostroms Schlussfolgerung lautet, dass es, wenn wir davon ausgehen, dass diese beiden ersten Thesen wahr sind, sehr wahrscheinlich ist, dass wir bereits in einer Computersimulation leben, die von einer fortgeschrittenen Zivilisation geschaffen wurde. Mit anderen Worten: Die Zahl der simulierten Realitäten überwiegt bei weitem die Anzahl der nicht simulierten. Damit wird die Probabilität um Dimensionen größer, dass wir bereits in einem virtuellen Konstrukt sind. Im Kontrast dazu stehen die mageren Wahrscheinlichkeiten, dass materielle Umstände dafür gesorgt haben, dass praktisch aus kosmischem Staub heraus sich erste Einzeller und später eine raffiniert konstruierte Biosphäre mit noch komplexeren Lebewesen entwickeln konnten. Das wären epische Zufälle, die gleichzeitig auf perfekte Lebensbedingen getroffen sein müssten.
„Die Chance, dass wir uns in der Basisrealität befinden,
liegt bei eins zu einer Milliarde.“
Elon Musk
Bostroms Argument erhebt nicht den Anspruch, den endgültigen Beweis zu liefern, dass wir in einer Simulation leben. Vielmehr dient es als philosophische Erkundung der Auswirkungen zukünftiger technologischer Möglichkeiten und der statistischen Wahrscheinlichkeit, dass wir in einem virtuellen Konstrukt leben. Dieses Argument hat in der Philosophie, der Wissenschaft und der Populärkultur erhebliche Diskussionen und Debatten entfacht. Bostroms Gedankenansatz hat Fragen über die Natur der Realität, die Existenz einer simulierenden Intelligenz und die Grenzen des menschlichen Wissens aufgeworfen. Diese Hypothese inspirierte eine junge Generation Wissenschaftler, die Anomalien, Paradoxien und sonstige Auffälligkeiten primär aus der Quantenphysik erneut in einen neuen Kontext zu stellen. Hier beginnt der Ansatz von Brian Whitworth und seinen Kollegen, die begannen, unter dem Label „Simulationstheorie“ die Hypothese zu untermauern.
Die Argumente für eine Simulation
Die Simulationshypothese bleibt ein spekulatives Theorem, da sie besagt, dass unsere Realität ein simuliertes Konstrukt sein könnte, das von einer höher entwickelten Intelligenz oder Zivilisation geschaffen wurde. Die Mutmaßungen bezüglich des Ursprungs, bzw. wer oder was die Matrix kreiert hat, sind zwar logisch naheliegend – basierend auf der Realität innerhalb der Simulation, die wir kennen – dennoch bleibt das Konzept hochspekulativ. Daher muss die plausibelste Annahme, aus dem Konstrukt heraus betrachtet, nicht die final Zutreffende sein. Was die Maya geschaffen hat, muss im Inneren der Matrix kein greifbares Äquivalent haben.
Was außerhalb des Konstruktes ist, lässt sich im Endeffekt nicht aus der Matrix heraus beweisen. Erst wenn ein Bewusstsein es schafft, die „Simulation“ zu verlassen – quasi der Höhle Platons zu entkommen – wird das Individuum eine konkrete Vorstellung haben. Dennoch wird die Person nie zurückkommen und den „Mitgefangenen“ einen objektivierbaren Beweis liefern können – maximal verbale Beschreibungen, für die eventuell keine konzeptionellen Entsprechungen in der virtuellen Welt existieren. Der Kontext einer wie auch immer gearteten Intelligenz oder Zivilisation als Schöpfer dieser Realität ist daher rein hypothetisch.
Grenzen der Beschreibbarkeit
Selbst wenn die Naturwissenschaft niemals das Konstrukt von außen beschreiben kann, sondern nur auffällige Phänomene, die von einer nichtmateriellen Natur der Realität zeugen, so existieren immerhin ein paar substanzielle Hinweise. Möglicherweise beabsichtigte der Schöpfer der Maya, tatsächlich eine physische Welt zu emulieren. Es scheint mir jedoch so, als ginge Er dabei ein paar Kompromisse ein, die bspw. eine Berechenbarkeit erleichtern, oder Er installierte Hintertüren, die es erlauben, die Einsteinschen Gesetze der Raum-Zeit zu umgehen – wie die Limitierung der Lichtgeschwindigkeit. Hier sind die wichtigsten wissenschaftlichen Hinweise und Anomalien, von denen wir uns einige genau anschauen werden:
- Quantisierung der Energie: Wie schon erwähnt, gibt keine unbegrenzt kleinen Mengen an Zeit, Energie oder Raum. Die Quantisierung der Energie im Quantenbereich, bei der die Energieniveaus nicht kontinuierlich, sondern diskret sind, spiegelt perfekt ein digitales System wider, in dem ebenfalls Daten in diskreten Einheiten gespeichert werden. Damit benötigt das Universum eine begrenzte Menge an Datenmaterial und wird dadurch erst „computisierbar“ – man könnte ebenso „simulierbar“ oder „berechenbar“ sagen.
- Welle-Teilchen-Dualismus: Das Phänomen, dass Teilchen wie Elektronen sowohl wellenförmiges als auch teilchenförmiges Verhalten zeigen, stellt klassische Vorstellungen von der Realität in Frage. In einer Simulation könnte diese Dualität durch den zugrunde liegenden Code entstehen, der die Handlungsweise der Teilchen steuert. Das klingt erstmal nicht sonderlich spektakulär, aber am praktischen Beispiel erläutert, sprengt es vollständig die materielle Illusion. Darauf werden wir noch im Detail eingehen. (Siehe dazu auch das „Delayed-Choice Quantum Eraser“-Experiment)
- Planck–Länge und Planck-Zeit: Die Planck-Länge und Planck-Zeit sind extrem kleine Längen- und Zeiteinheiten, die in der Physik als grundlegend gelten. Manche behaupten, dass ihre Existenz auf eine fundamentale Pixelierung oder Granularität der Raumzeit hindeuten könnte, was mit der Idee eines simulierten Universums übereinstimmt. Genau wie es diskrete Energiemengen gibt, so sind auch alle anderen Elemente unserer physischen Realität in „digitale“ und damit „simulierbare“ Einheiten formatiert.2
- Quantenverschränkung: Die Quantenverschränkung, bei der sich Teilchen unabhängig von ihrer Entfernung sofort gegenseitig beeinflussen können, wird oft als rätselhaft angesehen. Das hat damit zu tun, dass verschränkte Elementarteilchen, wie Photonen, Lichtjahre voneinander entfernt sein können, aber dennoch ohne Zeitverzögerung miteinander interagieren. Das ist innerhalb des Einsteinschen Paradigmas nicht möglich, weil der Informationsaustausch maximal mit Lichtgeschwindigkeit in einem physischen Universum reisen kann – zumal es ohnehin kein erkennbares Medium gibt, über welches die verschränkten Quanten ihre Zustände abgleichen. Der Weg bzw. die Methodik, wie sie kommunizieren, liegt nicht innerhalb der physischen „Bühne“ – daher muss die Kausalität außerhalb des Raum-Zeit-Konstrukts liegen bzw. auf einer anderen Ebene oder Dimension der Matrix. Auch das schauen wir uns im Detail an, wenn wir über „Non-Lokalität“ sprechen.3
- Quantencomputer: Die Entwicklung von Quantencomputern, die auf den Prinzipien der Überlagerung und Verschränkung beruhen, lässt vermuten, dass komplexe Berechnungen auf eine Weise effizient durchgeführt werden können, in der sich bestimmten Aspekte der Quantenphysik widerspiegeln. Dies wirft Fragen über die Beziehung zwischen dem Quantenbereich und der Rechenleistung eines simulierten Universums auf. Aus einer herkömmlichen Betrachtung heraus verfügen Quantencomputer über eine nahezu unbegrenzte Rechenkapazität. Damit existiert ein Werkzeug, das hochkomplexe Simulationen prinzipiell erlaubt. Es wirft sogar die Frage auf, ob es ineinander verschachtelte Konstrukte gibt – praktisch eine Matrix in einer Matrix.4
- Informationstheorie: Einige Wissenschaftler argumentieren, dass sich das Verhalten des Universums, insbesondere auf der Quantenebene, eleganter mit den Begriffen der Informationstheorie erklären ließe, bei der das Universum als ein riesiges Informationsverarbeitungssystem betrachtet wird. Dies entspricht der Vorstellung einer simulierten Realität, in der Informationen von grundlegender Bedeutung sind.
- Das holographische Prinzip: Das holographische Prinzip5 besagt, dass alle Informationen in einem dreidimensionalen Raum an dessen zweidimensionaler Grenze kodiert werden können. Dies deutet darauf hin, dass unser 3D-Universum eine Projektion oder Simulation aus einer 2D-Quelle sein könnte, was grundsätzliche Spekulationen über die Natur unserer Realität aufwirft. Dieser Ansatz wurde u.a. von Itzhak Bentov verfolgt, der mit seinem Klassiker „Stalking the Wild Pendulum“6 Pionierarbeit leistete, die Realität als virtuelles Konstrukt zu interpretieren.
- Anomalien in der kosmischen Hintergrundstrahlung: Einige Forscher haben über Anomalien in der kosmischen Mikrowellen-Hintergrundstrahlung (CMB) berichtet, die als Nachleuchten des Urknalls gilt. Diese Anomalien könnten als Artefakte eines simulierten Universums angesehen werden. Der Urknall als solcher ist im rein materialistischen Sinne ein Mysterium – später mehr dazu.7
- Feinabstimmung der physikalischen Konstanten: Die präzisen Werte bestimmter physikalischer Konstanten, die oft als „Feinabstimmung“ des Universums bezeichnet werden, deuten nach Ansicht mancher Wissenschaftler darauf hin, dass der Kosmos mit bemerkenswerter Präzision entworfen wurde. In einem simulierten Universum könnte dies auf eine absichtliche Gestaltung zurückgeführt werden. Man redet in solchen Fällen oft von „Intelligent Design“.8
„Durch meine wissenschaftliche Arbeit bin ich mehr und mehr zu der Überzeugung gelangt, dass das physikalische Universum mit einem so erstaunlichen Einfallsreichtum zusammengesetzt ist, dass ich es nicht einfach als bloße Tatsache akzeptieren kann.“
Paul Davies
Diese Auffälligkeiten, die sich zumeist erst in den letzten hundert Jahren deutlich zeigten, lassen sich nur schwer in einem rein materialistischen Paradigma erklären. Solche Anomalien passen besser in ein spirituelles Konzept der Realität respektive in ein virtuelles Konstrukt à la Maya. Damit bekommt die Simulationshypothese ihren wissenschaftlichen Unterbau. Lassen Sie uns daher ein paar Argumente näher beleuchten, indem wir beim Urknall anfangen, denn mit dem soll ja bekanntlich alles begonnen haben.
„Je mehr ich das Universum untersuche und die Details seiner Architektur studiere, desto mehr Beweise finde ich dafür, dass das Universum in gewisser Weise gewusst haben muss, dass wir kommen würden.“
Freeman Dyson
- Nick Bostrom, „Are You Living in a Computer Simulation?“ Philosophical Quarterly 53 (2003): 243-255. ↩︎
- Max Planck, „Naturgesetze und Hypothesen“ Verhandlungen der Deutschen Physikalischen Gesellschaft, 13, 138 (1911). ↩︎
- Nicolas Gisin and Rob Thew, „Quantum communication,“ Nature Photonics 1, 165–171 (2007). ↩︎
- David Deutsch, „Quantum theory, the Church–Turing principle and the universal quantum computer,“ Proceedings of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 400, 97-117 (1985). ↩︎
- Juan Maldacena, „The Large N Limit of Superconformal Field Theories and Supergravity,“ Advances in Theoretical and Mathematical Physics 2, 231-252 (1998). ↩︎
- Bentov, I. (1977) „Stalking the Wild Pendulum: On the Mechanics of Consciousness“ New York: Dutton. ↩︎
- Penzias, A. A. & Wilson. R. W. (1965) „A Measurement of Excess Antenna Temperature at 4080 Mc/s,“ The Astrophysical Journal 142, 419-421. ↩︎
- Carter, B. (1974) „Large Number Coincidences and the Anthropic Principle in Cosmology“ in „Confrontation of Cosmological Theories with Observation“ editiert von M. S. Longair. ↩︎
0 Kommentare