Was bedeutet der Welle-Teilchen-Dualismus im Kontext der Simulations-Theorie
In diesem Auszug aus meinem Buch „Die Matrix-Hypothese“ geht es um das Phänomen des Welle–Teilchen–Dualismus im Kontext der Simulations–Theorie. Diese Anomalie ist neben der Nonlokalität eines der wichtigsten physikalischen Indizien für die These, dass unsere Realität ein virtuelles Konstrukt sein könnte. Auf Basis von populären Hollywoodproduktionen kennen wir dieses Konzept in der Neuzeit unter dem Begriff „Matrix“. Jedoch habe ich bereits in früheren Artikeln detailliert erklärt, dass diese Vorstellung bereits in der Hermetik, den vedischen Schriften und sogar in Platons Höhlengleichnis zu finden ist, um nur die wichtigsten historischen Philosophien aufzuzählen, welche die Welt als ein Simulacrum betrachten.
Definition des Welle-Teilchen-Dualismus
Der Welle-Teilchen-Dualismus ist ein grundlegendes Konzept der Quantenmechanik, das die duale Natur von Quantenteilchen, wie Elektronen und Photonen, beschreibt. Das Theorem besagt, dass diese Quanten sowohl wellenartige als auch teilchenartige Eigenschaften aufweisen können, je nachdem, wie sie beobachtet oder gemessen werden. Diese Dualität stellt die klassische Vorstellung in Frage, dass es sich bei Quantenteilchen ausschließlich um winzige, lokalisierte Einheiten mit bestimmten Positionen und Charakteristika handelt. Wenn bspw. Elementarteilchen wie Elektronen oder Photonen nicht beobachtet oder gemessen werden, können sie ein wellenförmiges Verhalten zeigen. Diese wellenartige Charakteristik wird durch eine mathematische Funktion beschrieben, die als „Wellenfunktion“ oder „Wahrscheinlichkeitsamplitude“ bezeichnet wird. Die Wellenfunktion stellt wiederum die Wahrscheinlichkeitsverteilung dar, wo das Teilchen bei einer Messung vermutlich anzutreffen sei. Man redet in der Quantenphysik daher auch von „Unschärfe“.
„Elektronen sind nicht so einfach, wie wir sie gerne hätten. Sie sind eher wie Geister als Teilchen.“
David Mermin
Wenn sich mehrere Teilchen in einer Überlagerung von Zuständen befinden, können ihre Wellenfunktionen miteinander interferieren, wodurch Muster konstruktiver und destruktiver Interferenz entstehen, ähnlich wie bei Wasserwellen, die sich überlagern. Interferenzmuster können in experimentellen Anordnungen wie dem Doppelspaltexperiment beobachtet werden, bei dem Teilchen, die zwei Schlitze passieren, ein Interferenzmuster auf einem Bildschirm erzeugen, was darauf hindeutet, dass sie sich wie Wellen verhalten.
Wenn Teilchen im selben Szenario beobachtet oder gemessen werden, zeigen sie wiederum teilchenähnliches Verhalten. Zu diesem Zeitpunkt sind ihre Eigenschaften stärker lokalisiert und eindeutig. Durch den Akt der Messung oder der Beobachtung kollabiert die Wellenfunktion der Quanten, wodurch es einen bestimmten Zustand oder Ort „wählt“. In solche Fällen erkennt man deutlich sogenannte Klumpenmuster auf dem Schirm der Doppelschlitzbarriere. Sobald es betrachtet wird, „benimmt“ sich das Quantum eher wie ein klassisches Objekt mit einer definierten Position und exakten Eigenschaften.
Diese Anomalie, dass Elementarteilchen sich anders verhalten, wenn sie begutachtet werden, als wenn sie unbeobachtet sind, klingt im ersten Moment recht unspektakulär. Doch lassen Sie sich nicht täuschen. Man braucht zunächst ein konkretes Beispiel, um den Unterschied klar zu veranschaulichen. Dazu werde ich die Geschichte des Doppelspaltexperimentes erläutern, und wie es durch technische Möglichkeiten immer wieder erweitert wurde, um dem tieferen Mysterium auf die Schliche zu kommen.
Aus Perspektive der Simulations-Theorie
Aus der Perspektive der Simulations–Theorie bzw. der Simulationshypothese1 von Nick Bostrom drängt sich ein initialer Verdacht auf. Jedoch gab es Anfang des 20. Jahrhunderts noch keine solche Hypothese. Erst mit dem Aufkommen moderner Computersysteme und der damit verbundenen Möglichkeit, virtuelle Räume zu simulieren, ergaben sich gewisse Parallelen. Je komplexer die virtuellen Modelle sind und je mehr Objekte in einer solchen Computersimulation berücksichtigt werden müssen, desto mehr Rechenaufwand verlangte das Konstrukt. Daher ist es sinnvoll, nur die Bereiche vollständig zu berechnen (rendern), die auch beobachtet werden.
Diese gerenderten Ausschnitte ergeben sich in 3D-Simulationen durch den virtuellen Beobachter – im Falle einer VR-Brille ist das der Sichtbereich, der durch den Blickwinkel des Users optisch in der Brille visualisiert wird. Alle anderen Objekte und Elemente der Simulation, die sich außerhalb des Blickwinkels befinden, werden nicht gerendert bzw. vollständig berechnet. Sie sind nur „potenziell“ bzw. wahrscheinlich vorhanden, bis man sie wieder anschaut. Dementsprechend sind sie nicht „virtuell physisch“ und daher keine gepixelten Objekte. Das spart jede Menge Prozessorkapazitäten und erlaubt es, komplexere Simulationen zu erschaffen, ohne die rechnerischen Limitationen des verfügbaren Computersystems zu sprengen.
„Die Doktrin, dass die Welt aus Objekten besteht, deren Existenz unabhängig vom menschlichen Bewusstsein ist, steht im Widerspruch zur Quantenmechanik und zu den experimentell ermittelten Fakten.“
Bernard d’Espagnat
Verdacht auf Energieeffizienz
Ein ähnliches Prinzip der Energieeffizienz könnte ebenfalls bei den Elementarteilchen vorliegen. Jedes einzelne Photon präzise zu berechnen, ist möglicherweise auch in unserer mutmaßlichen Matrix zu aufwendig und rechenintensiv. Daher wird den kleinsten Elementen eine Wellenfunktion der Wahrscheinlichkeit gegeben, bis sie beobachtet werden. Das läuft nach dem Prinzip ab, dass die Matrix sich quasi Arbeit und Prozessorressourcen spart, solange kein Beobachter hinschaut. Wenn jedoch eine Messung/Observation stattfindet, dann muss die Illusion, der stets und ständig physischen Objekte und damit der materiellen Welt erhalten bleiben. Sobald ein Bewusstsein den Elementarteilchen genauer auf die Finger schaut, kollabiert ihr Wellenmuster und sie verhalten sich wieder wie „Gegenstände“ – so wie sich virtuelle Objekte in klar definierte Pixel verwandeln, sobald man sie in einer 3D-Simulation betrachtet.
„Das Universum hört auf zu existieren,
wenn man es nicht betrachtet.“
John A. Wheeler
Dieser initiale Verdacht der Energieeffizienz und die Parallelen zur Simulationshypothese tauchten erst später auf. Zunächst hatte es die Wissenschaft nur mit einer merkwürdigen Anomalie zu tun, die sich in den mathematischen Berechnungen der Quantenphysik zeigte. Die von Heisenberg postulierte „Unschärfe“2 basiert auf diesem Prinzip. Doch schauen wir uns das Doppelschlitzexperiment genauer an, damit wir das Phänomen besser verstehen können. Demnach lässt sich die Frage des Zen-Meisters, ob es ein Geräusch gibt, wenn im Wald ein Baum umfällt, aber niemand da ist, um es zu hören, klar verneinen. Ausgehend von der Quantenphysik wäre der Ton nur potenziell vorhanden, weil er auf den Schwingungen von nur „wahrscheinlichen“ Teilchen basiert.
- Nick Bostrom, „Are You Living in a Computer Simulation?“ Philosophical Quarterly 53 (2003): 243-255. ↩︎
- Werner Heisenberg, „Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik“ („On the Perceptual Content of Quantum Theoretical Kinematics and Mechanics“), Zeitschrift für Physik 43, 172-198 (1927). ↩︎
0 Kommentare