Astronomie
Kommentare 15

Böse Doppelgänger: Die Physik des Multiversums

avatar
Franziska Konitzer
Autorin
avatar
Karl Urban
Moderator

Wir Menschen sind nichts Besonderes: Wir leben auf keinem besonderen Planeten, wir befinden uns in einer ganz und gar gewöhnlichen Galaxie. Ist dann wenigstens  unser Universum etwas ganz Besonderes, das es so  nur einmal gibt?

Normalerweise machen die harten Naturgesetze der Physik spannenden Ideen aus der Science Fiction eher einen Strich durch die Rechnung: Beamen? Geht nicht, gibt’s nicht. Reisen mit Überlichtgeschwindigkeit? Kann man sich abschminken, ist rein physikalisch unmöglich. Und was ist mit dem bösen Doppelgänger, der im Paralleluniversum nebenan nur darauf lauert, die Herrschaft übers Multiversum an sich zu reißen?

In dieser Folge des AstroGeo-Podcast erzählt Franzi die Geschichte der Parallelwelten, Paralleluniversum, den Vielen Welten und dem Multiversum: Tatsächlich kennt die Physik nicht nur eine Art von Parallelwelt – sondern gleich mehrere! Leben wir tatsächlich in einem vor lauter Universen nur so blubbernden Multiversum? Gibt’s irgendwo da draußen vielleicht wirklich einen bösen – oder, noch viel schlimmer: einen guten! – Doppelgänger von uns allen? Vielleicht besteht das Paralleluniversum nebenan aus einem gigantischen Schwarzen Loch und sonst nichts? Und gibt es sie überhaupt?

Weiterhören bei Astrogeo

Weiterführende Links

Quellen

Episodenbild: Keith Williamson (flickr.com), CC BY 2.0 DEED

15 Kommentare

  1. Lieber guter/böser Karl (und alle anderen in allen potentiellen Universen), bei dieser Folge aber vor allem: Liebe Franzis aller Universen, ob mit oder ohne Bienchensocken, ob Früh- oder Spätaufsteher!

    Ich höre euch beiden immer gerne zu, und diesmal aber sogar ganz, ganz besonders gerne. Franzi, das war großartig erzählt! Ich werde das schamlos von dir stehlen (ok, mit Quellenangabe 😉 ) und so im Unterricht erzählen, wenn mal wieder die Frage nach Multiversen kommt (und die kommt wie das Amen im Gebet jedes Jahr wieder mal bei mir im Astronomieunterricht). Die Idee mit den Leveln am Multiversentheorien finde ich erzähldidaktisch übrigens super 🙂

  2. Hendrik sagt

    Hallo ihr beiden,
    bei dem Infinite-Monkey-Theorem musste ich an die „Library of Babel“ denken, kennt ihr die schon?
    Es ist eine virtuelle, (fast) endlose Bibliothek: es gibt hexagonale Räume, davon haben jeweils 4 Wände ein Regal mit 5 Reihen und je 32 Büchern. Jede vorstellbare Zeichenfolge (bis zu 3200 Zeichen) kommt irgendwo vor.. wäre sie wirklich endlos, würde sie also quasi jedes Buch der Welt, jedes Skript, jede Notiz enthalten.. aber auch mit der Begrenzung auf 3200 Zeichen findet man so ziemlich alles… demnach in irgendeinem Buch mit Sicherheit den Satz „astrogeo ist der beste podcast aller universen“ oder auch „der boese karl traegt einen bart“ 😉

    Sucht einfach selbst mal danach 🙂

    https://libraryofbabel.info/

  3. Marcus Munzlinger sagt

    Hi! Ich bin ja total geflasht von der Folge. Was ist eigentlich mit der Theorie, dass wir in einem schwarzen Loch leben & entsprechend jedes schwarze Loch ein eigenes Universum darstellt? Ist das eine Variante der Multiversums-Theorie?

    Ich finde ja „Level 2“ aufgrund der erstaunlich einfachen Argumentation der „Viele-Welten-Theorie“ auch faszinierend. Hierzu eine Verständnis-Frage: So wie ich es abgespeichert habe, ist es beim Doppelspalt-Experiment doch IMMER so, dass die Wellenfunktion zerfällt, sobald der Detektor die Photonen zählt, die durch den Spalt huschen (right?). Aber dann verstehe ich den Ansatz der Viele-Welten-Theorie nicht, dem nach ja unsere Messung dann nicht mehr den Kollaps der Wellenfunktion bewirkt, sondern wir einfach in der Welt der kollabierten Welle leben & sie deshalb auch messen. Offensichtlich aber erwirken wir ja durch Messung eben doch den Kollaps? Wahrscheinlich bin ich da im Verständnis irgendwo falsch abgebogen, sorry…

  4. Oliver sagt

    Hallo,

    vielen Dank für diese Folge der man auch als Laie gewachsen ist. Einen hab ich noch.. Es soll ja mathematisch bewiesen worden, sein das wir in einer drei dimensionalen Projektion einer zwei dimensionalen leben. Das wiederum könnte bedeuten das wir ähnlich einem Open World Spiel in einer Programmierung leben. Die Parallel Dimensionen wären dann Abwandlungen im Source Code.

    • Marcus Munzlinger sagt

      Hi Oliver! Weißt Du, wer das wo wie „bewiesen“ haben will? Ich kenne einige Ausführungen darüber, dass sich unsere Welt prinzipiell als Programm schreiben ließe und darauf aufbauend dann die Argumentation, dass das uns physikalisch Unverständliche der Welt schlicht linguistische Grundfigurationen der Programmiersprache seien, die wir als Programmierte nicht nachvollziehen können. Aber das sind alles Ausführungen im Konjunktiv, von einem mathematischen Beweis ist mir noch nichts untergekommen.

      Ansonsten erscheinen mir die „Wir leben in einem Computer-Programm“ Gedankengänge ja ziemlich als Theologie 2.0, also die Erklärung von allem und allen durch einen Scchöpfungsakt, anstatt durch eine Gottheit dann eben durch eine Programmierung. Da erscheint mir „Level 3“ von Franzi, also das Multiversum, doch noch irgendwie, naja, „intuitiver“, also dass die Dinge halt so sind wie sie sind, weil wir in der einen entsprechenden Welt in einer unendlichen Menge von Welten mit unendlichen Möglichkeiten leben. Und dieser Ansatz ist mit der kosmischen Inflation als Ausgangspunkt ja auch nicht völlig aus der Luft gegriffen.

  5. Bernd sagt

    Hallo, erstmal vielen Dank für euren Podcast. Ihr macht wirklich einen tollen Job!
    Die Folge Parallel-Universen war besonders interessant. Verknüpft man diese Theorien mit dem Thema Zeitreisen eröffnen sich ganz neue Möglichkeiten. Nimmt man z.B. an, man macht ein Zeitreise und hierdurch entsteht eine Abspaltung eines Universums (also Level 2?), so könnte man damit ja erklären, warum das Großvater-Paradoxon kein Problem wäre, oder? Eine Zeitreise-Folge wäre übrigens auch mal spannend.
    Vielen Dank für den Podcast. Macht weiter so!

  6. Martin Holzherr sagt

    Ideen über nicht beobachtbare Multiversen liegen mit Sicherheit ausserhalb einer Erfahrungswissenschaft und damit auch ausserhalb einer Physik, die als Naturwissenschaft (Wissenschaft der Natur in der wir leben) aufgefasst wird.
    Ideen über Multiversen sind dagegen kein Problem für eine Physik, die man als Form der Mathematik auffasst, denn in der Mathematik muss nur alles logisch konsistent sein, existieren muss es nicht oder besser gesagt, es genügt, wenn es auf dem Papier existiert.
    Dass gerade im späten 20. und frühen 21. Jahrhundert so viel über Multiversen oder auch die Stringtheorie diskutiert wird bedeutet letztlich nichts anderes als dass die heutige Physik immer stärker von der Mathematik bestimmt wird.
    In der Mathematik gibt es fast beliebig verrückte Dinge wie etwa das, was man eine normale Zahl nennt (Zitat Wikipedia: „ Eine Zahl heißt also normal, wenn in ihrer Ziffernfolge jeder Ziffernblock vorkommt und Ziffernblöcke gleicher Länge gleich häufig auftreten.“). In der Mathematik wurde bewiesen, dass die meisten reellen Zahlen, die meisten nicht abbrechenden und nicht periodisch werdenden Dezimalzahlen also, normal sind. Konkret gilt für jede normale Zahl folgendes: „Irgendwo in der Folge der Dezimalstellen muss in einer normalen Zahl das Werk von Shakespeare beginnen und auch wieder enden . Bemerkung: dies gilt unter der Voraussetzung, dass man immer zwei Ziffern der Dezimaldarstellung als Buchstabencode interpretiert.

    Fazit: Die meisten Menschen halten Mathematik für trockene Materie. Doch in Wirklichkeit enthält Mathematik die allergrössten Phantasiekonstrukte.

    • Marcus Munzlinger sagt

      Hallo Martin Holzherr, das stimmt natürlich alles was sie schreiben! Aber: Hängt diese immer stärkere Beherrschung der Physik durch die Mathematik nicht doch auch mit immer mehr Beobachtungen zusammen, die nach einer Erklärung verlangen, die aber nicht komplett über weitere Beobachtungen erreicht werden kann?

      Die Urknall-Theorie deckt sich mit Beobachtungen größtenteils, generiert aber spezifische Probleme – etwa bei der beobachtbaren Verteilung von Materie – woraus dann die Theorie der „kosmischen Inflation“ abgeleitet wird; bis hierhin zwar theoretische Physik, die aber doch recht eng auf die beobachtbare Natur aufbaut. Wenn nun aber eine aufgrund der Beobachtungen angenommene Inflation mathematisch unendlich sein muss und daraus das Multiversum logisch folgt, dann geht die Annahme zwar aus unmittelbar einem theoretisch-mathematischen Konstrukt hervor, das aber einen Vorschlag für ein konkretes Problem der beobachtenden Astronomie macht.

      Ähnlich auch die Viele-Welten-Theorie, die sich ja auch um die Erklärung eines konkreten Phänomens der Quantenphsyik kümmert, recht notgedrungen mit mathematischen Mitteln, denn wie auch bei der kosmischen Inflation stehen wir an der unmittelbaren Grenze unserer Fähigkeiten zur Beobachtung. Mithin ist die immer stärkere Beherrschung der Physik durch die Mathematik Ausdruck dessen, wie weit die Menschheit per Beobachtung bereits fortgeschritten ist – und wir derzeit nur mit der Mathematik in diesen Feldern weiter kommen.

  7. Hendrik sagt

    Nochmal hallo,

    ist es versteckte Werbung oder warum spricht Franzi den Vornamen von Douglas Adams konsequent wie den Namen einer Parfümerie-Kette aus? 😉

  8. Hier ein paar Kommentare zur Sendung.

    Bei Level 1 hat jeder der beiden Sprecher wenigstens einmal von einer sehr kleinen Wahrscheinlichkeit gesprochen, in einem der vielen Universen eine Dopplung unserer Welt (mit kleinen Abwandlungen wie dem „bösen“ Doppelgänger) zu finden. Das zeigt, wie schwer vorstellbar die Unendlichkeit ist. Tatsache ist, dass unter den impliziten Voraussetzungen der Schlussfolgerung die Wahrscheinlichkeit eins (also nicht klein!) ist, dass eine identische Kopie unserer Welt existiert, ebenso ist die Wahrscheinlichkeit eins, dass bis auf winzige Abweichungen gleiche Kopien existieren, usw. Alles was möglich ist, wird mit Wahrscheinlichkeit eins verwirklicht!

    Die implizite Voraussetzung ist, dass für ein endliches Teiluniversum nur endlich viele Zustände (z.B. Quantenzustände) möglich sind. Da das Gesamtuniversum nur seit endlicher Zeit existiert, ist der Teilchenhorizont endlich (d.i. der maximale Abstand, von dem aus seit dem Urknall ein kausales Signal den „zentralen“ Beobachter hätte erreichen können, in unserem Universum sind das aktuell 46,5 Milliareden Lichtjahre, die Hälfte des Durchmessers von 93 Milliarden Lichtjahren), d.h. in jedem der durch einen Teilchenhorizont begrenzten Teiluniversen konnten seit dem Urknall nur endlich viele Gesamtzustände angenommen werden. Das Gesamtuniversum ist unendlich, also muss jedes überhaupt mögliche Teiluniversum (also Universum mit Wahrscheinlichkeit > 0) irgendwo realisiert sein, und zwar nicht nur einmal (das wären ja nur endlich viele Teiluniversen, die den gesamten unendlichen Raum nicht ausfüllen könnten) sondern unendlich oft! Es gäbe also jede Version von Karl Urban nicht nur einmal, sondern in identischer Kopie unendlich viele mal. Darunter natürlich auch böse Doppelgänger (Voraussetzung ist nur, dass das möglich ist…) und engelhaft brave.

    Dass dies richtig ist, lässt sich schön am Beispiel der Affen mit den Schreibmaschinen veranschaulichen, denn da ist klar, dass die Voraussetzung endlich vieler Zustände innerhalb endlicher Zeit pro Affe erfüllt ist. Eine Tastatur hat typisch an die hundert Zeichen (darunter zweimal das Alphabet, die Zahlen, Satzzeichen, Zwischenraum, diverse Klammern und Sonderzeichen, im Deutschen noch Umlaute, in anderen Sprachen Akzente). Sagen wir, jeder der unendlich vielen Affen tippt zufällig 1.000.000 Zeichen. Shakespeares Romeo und Julia besteht aus ca. 30.000 Wörtern à durchschnittlich 5 Buchstaben. Wenn jedes der 100 Zeichen auf einer Schreibmaschine mit gleicher Wahrscheinlichkeit getippt wird, ist die a priori Wahrscheinlichkeit einer jeden Sequenz von 150.000 Buchstaben 100^(-150.000)=10^(-300.000) (zehn hoch -300.000). Eine dieser Sequenzen enthält natürlich den Urtext von Romeo und Julia mit allen Satzzeichen, Klammern etc. Und 150.000 Sequenzen weichen in einem Zeichen von dieser Sequenz ab, 150.000^2 in zwei Zeichen, usw. Es gibt auch Sequenzen, die, sagen wir mal, die ersten zehntausend Zeichen von Romeo und Julia enthalten und danach nur unsinnige Zeichenabfolgen. Oder zehntausend Zeichen irgendwo aus der Mitte. Die weitaus meisten Texte der Affen sind natürlich völlig unlesbare Aneinanderreihungen von Buchstaben, Zahlen, Satzzeichen, etc.

    Aber da es nur endlich viele verschiedene „Texte“ aus einer Million Zeichen gibt, müssen unsere unendlich vielen Affen, die per Zufall unendlich viele Texte dieser Länge generieren, alle möglichen Texte erzeugen und zwar jeden sogar unendlich oft; denn wenn jeder einzelne nur endlich oft vorkäme, dann wäre die Gesamtmenge der Texte endlich… Die Wahrscheinlichkeit, den Text von Romeo und Julia unter allen diesen Texten zu finden, beträgt also 100%. Kleine Wahrscheinlichkeiten treten nur auf, wenn endliche Teilmengen aller Texte betrachtet werden: Die Wahrscheinlichkeit, dass eine beliebige herausgegriffene Sequenz von 150.000 Zeichen der Text von Romeo und Julia ist, ist tatsächlich extrem klein (eben ungefähr 10^(-300.000), eine Zahl deren ausgeschriebene Dezimaldarstellung länger ist als der Text von Romeo und Julia und die aus lauter Nullen und einer einzigen 1 ganz weit hinter dem Komma besteht).

    Es gibt übrigens eine nette Variante: Die Zahl π ist transzendent, d.h. unter anderem, dass ihre Ziffern sich nicht periodisch wiederholen. Viele Mathematiker glauben, dass die Ziffernfolge sich statistisch wie eine Folge echter Zufallszahlen verhält. Mit zwei aufeinanderfolgenden Ziffern der Dezimaldarstellung kann man eine Zahl zwischen 00 und 99 kodieren, also eines von hundert Zeichen. Damit wird die Ziffernfolge von π zu einer unendlich langen Buchstaben- bzw. allgemeiner Zeichenfolge (die als der Output von unendlich vielen Affen interpretiert werden könnte…). Wenn die Vermutung zur Zufälligkeit der Ziffernfolge von π stimmt, dann enthält diese natürlich auch irgendwo den Text von Romeo und Julia, ebenso wie den aller anderen Werke der Weltliteratur (natürlich auch Stuß wie Konsalik…) und zwar beliebig oft und in unvorhersehbarer Aneinanderreihung mit großen Bereichen sinnlos erscheinender Zeichenfolgen.

    Zu Level 2 hat Franziska Konitzer gesagt, dass die verschiedenen Welten, die in der Wellenfunktion des gesamten Universums realisiert sind, nicht miteinander kommunizieren können. Wenn man dazu David Deutsch, einen der Verfechter der Viele-Welten-Interpretation befragt, dann bekommt man die Antwort, dass die Welten natürlich miteinander wechselwirken, was die Interferenzerscheinungen im Doppelspaltexperiment bewiesen. Wir können ja tatsächlich einige mikroskopische Superpositionen beobachten (Doppelspalt: ein Teilchen interferiert mit seinem Doppelgänger, der durch den anderen Spalt ging). Mit den makroskopischen Superpositionen tun wir uns schwer, weil da die sogenannte Dekohärenz dafür sorgt, dass die verschiedenen Zweige der Wellenfunktion effektiv nicht mehr miteinander interferieren.

    Übrigens löst die Viele-Welten-Interpretation das Problem des „Kollapses der Wellenfunktion“ nicht dadurch, dass Wellenfunktionen nicht mehr kollabieren würden. Die einzige Wellenfunktion, die nicht kollabiert, ist die des gesamten Universums. Und die kann niemand für irgendwelche Berechnungen verwenden. Erstens ist sie nicht bekannt und zweitens zu kompliziert. Wellenfunktionen für einzelne Quantenteilchen sind handhabbar und bei Berechnungen beliebt. Und die muss man natürlich auch in der Viele-Welten-Interpretation kollabieren lassen. Ein Beispiel: An einem Quantenteilchen (z.B. einem Atom mit Gesamtspin 1/2) werden nacheinander zwei Messungen vorgenommen: erst eine Spin-Messung in einer festen Richtung per Durchgang durch einen Stern-Gerlach-Magnet, dann eine Ortsmessung durch Auftreffenlassen auf einen Schirm. Interessiert ist man daran, wie die Wahrscheinlichkeitsverteilung der Teilchen mit Spin +1/2 auf dem Schirm ist. Um das zu berechnen, muss man erst aus der Anfangswellenfunktion die Wahrscheinlichkeit für Spin +1/2 in der vorgegebenen Richtung bestimmen. Danach die bedingte Wahrscheinlichkeit für Teilchen mit dieser Spin-Ausrichtung, an einem bestimmten Flächenelement des Schirms aufzutreffen. Aber für diese zweite Rechnung kann man nicht die Ausgangswellenfunktion verwenden, sondern muss die Eigenfunktion zum Spin +1/2 in der vorgegebenen Richtung nehmen, die nach der ersten Messung vorliegt. Das aber ist eine aufgrund der ersten Messung kollabierte Wellenfunktion. Nimmt man was anderes, erhält man nicht die richtige Wahrscheinlichkeitsverteilung… Diese Rezeptur ist völlig unabhängig von der Interpretation der Quantenmechanik.

    Und natürlich könnte man den Kollaps durch die erste Messung (oder gar beide) auch in der Kopenhagener Interpretation der QM vermeiden. Das geht, indem man die Beschreibung nicht auf das Teilchen beschränkt, sondern den Messaparat (also den Stern-Gerlach Magnet) in die Wellenfunktion mit einbezieht. Dann ist das Ergebnis der Messung (vor Kenntnisnahme durch den Experimentator) eine Superposition aus dem Spin-(+1/2)-Zustand des Atoms mit dem Messgerät im Zustand, der den Spin +1/2 anzeigt (z.B. durch Sichtbarmachung der Bahn des Atoms) und dem Spin-(-1/2)-Zustand des Atoms mit dem Messgerät im Zustand, der Spin -1/2 anzeigt. Die Spin-Messung hat also kein konkretes Ergebnis. Tatsächlich hat nur das System aus Atom und Messgerät eine Wellenfunktion, also einen quantenmechanischen Zustand. Weder das Atom allein noch das Messgerät allein haben einen Zustand. (Das ist übrigens bei Schrödingers Katze ganz analog.) Will man die Beschreibung auf das Atom reduzieren, weil einen das Messgerät nun nicht wirklich so interessiert, dann muss man den sogenannten heisenbergschen Schnitt machen. Der liefert eine der Wellenfunktionen des Atoms und einen Messwert für den Spin. Das ist der Kollaps der Wellenfunktion, also nicht unbedingt ein dynamischer Vorgang. Der genaue Zeitpunkt des heisenbergschen Schnitts bleibt unbestimmt. Er muss dann stattgefunden haben, wenn eine Messung ein eindeutiges Messergebnis geliefert hat.

    Amüsant ist bei der Schrödingerschen Katze die Überlegung, was denn mit der Superposition passiert, wenn wir etwa einen Veterinär heranziehen, der nach Öffnen der Box die Katze genauer untersucht, falls sie tot ist. Er könnte dann z.B. feststellen, dass sie aufgrund der abgesunkenen Körpertemperatur schon mindestens eine halbe Stunde tot ist. Wird dann durch die Messung, die das Öffnen der Box bedeutet, die Wellenfunktion eine halbe Stunde früher kollabiert? Oder ist die beim Öffnen der Box schon seit einer halben Stunde tote Katze bis zum Öffnen Teil einer Superposition geblieben, die mit Wahrscheinlichkeit größer oder gleich 1/2 eine lebendige Katze enthielt? (Schrödinger nahm eine Halbwertszeit von einer Stunde an, so dass die Überlebenswahrscheinlichkeit der Katze innerhalb der ersten Stunde des Experiments auf 50% sank.)

    Level 3, das Multiversum, unterscheidet sich von den beiden anderen dadurch, dass die Naturkonstanten in den Parallelwelten nicht mehr die gleichen sein müssen. Die Frage ist also weniger die nach Ähnlichkeiten der Universen (Doppelgänger) sondern eher die nach Unterschieden, etwa, ob in einem Paralleluniversum überhaupt Leben möglich und wie wahrscheinlich das ist. Allerdings sind meine Kommentare zu den ersten beiden Leveln schon so lang, dass ich die zum dritten, die eher noch umfangreicher werden dürften, auf ein anderes Posting verschiebe…

  9. Die Fortsetzung…

    Kommen wir zum Level 3, dem Multiversum.

    Hier begann die Erzählung damit, dass Alan Guth die Idee der Inflation entwickelte, um das „Problem“ zu lösen, dass wir in Experimenten keine magnetischen Monopole sehen. Es wurde auch sehr schön erläutert, dass die Inflation das Horizont- und das Flachheitsproblem der Kosmologie löst, zwei echte Probleme. Die Strahlung des Mikrowellenhintergrunds aus zwei um 10 Grad am Himmel voneinander entfernt liegenden Flecken kommt aus räumlichen Gebieten, die zur Zeit der Abstrahlung (380000 Jahre nach dem Urknall) noch jenseits ihrer jeweiligen Teilchenhorizonte lagen, also kausal nicht miteinander wechselwirken konnten. Wieso haben sie annähernd die gleiche Temperatur? Gleichheit der Temperaturen zweier Körper entsteht, wenn sie miteinander hinreichend lange wechselwirken können, um ins thermische Gleichgewicht zu kommen. Das gesamte Volumen unseres heutigen Kosmos (bis zum aktuellen Teilchenhorizont) bestand zur Zeit der Entkopplung des Mikrowellenhintergrunds von der Materie (als der Kosmos durchsichtig wurde) aus ca. 1000 nicht kausal zusammenhängenden Teilvolumina. Aus allen diesen empfangen wir Strahlung der gleichen Temperatur (bis auf kleine Fluktuationen). Die Inflation löst dieses Problem dadurch, dass kurz (d.i. 10^(-35) Sekunden) nach dem Urknall ein Teilvolumen, viel kleiner als ein Proton, anfing, sich exponentiell auszudehnen (warum, darauf komme ich noch). Dieser Teilbereich war im thermischen Gleichgewicht, denn er war so klein, dass selbst die Zeit seit dem Urknall ausgereicht hatte, ihm eine feste Temperatur (so um die 10^30 Grad) zu verleihen. Beim schnellen Ausdehnen sank die Temperatur, aber eben überall mit gleicher Rate. Die exponentielle Ausdehnung dauerte nur sehr kurz (bis 10^(-33), maximal 10^(-30) Sekunden) und führte zu einer „Größe“ des Universums (die hier durch den Expansionsskalar in der Kosmologie definiert wird, der den Teilchenhorizont damals um einen Faktor von mehr als 10^10 überschritt, denn durch die Inflation wuchs die sich ausdehnende Blase schneller als der Teilchenhorizont eines Beobachters in ihrer Mitte) von ca. Kürbisgröße im minimalen Fall und mehr als der Größe des Sonnensystems bei der längeren Phase der Ausdehnung.

    Zurück zu den magnetischen Monopolen. Nicht erklärt wurde in der Sendung, warum deren Abwesenheit ein Problem darstellt, und es wurde m.E. auch nicht so ganz klar gesagt, wieso die Inflation das Problem löst. Zunächst einmal haben wir ja in der maxwellschen Elektrodynamik eine Theorie, in der keine magnetischen Monopole auftreten. Quellen elektrischer Felder sind Ladungsdichten, Quellen magnetischer Felder sind Stromdichten. Ladungen sind elektrische Monopole, Ströme aber erzeugen höchstens Dipolfelder, also gibt es keine magnetischen Monopole. Allerdings ließen sich die Maxwell-Gleichungen zwanglos um magnetische Ladungsdichten und Ströme erweitern, wenn man je magnetische Monopole entdecken würde. Theoretisch sind sie reizvoll, weil Dirac mal bewiesen hat, dass die Existenz eines einzigen magnetischen Monopols ausreichen würde, die Quantisierung der elektrischen Ladung zu erklären, d.h. die Tatsache, dass alle Ladungen von Elementarteilchen ganzzahlige Vielfache einer Elementarladung sind.

    Obwohl das Fehlen von magnetischen Monopolen in der Alltagsphysik kein Kopfzerbrechen verursacht, dachte Alan Guth um 1980, dass es in unserem Kosmos ein Problem gebe, weil wir keine solchen Monopole beobachten und wollte das mit der Idee der Inflation lösen. Warum? Dahinter stand der Gedanke der Vereinheitlichung von Wechselwirkungen. Wir kennen drei Wechselwirkungen, für die wir auch Quantenfeldtheorien haben, nämlich die starke, die schwache und die elektromagnetische Wechselwirkung. (Für die vierte Wechselwirkung, die Gravitation, haben wir keine Quantenfeldtheorie.) Jede der drei Wechselwirkungen hat eine dimensionslose „Kopplungskonstante“, die etwas über ihre Stärke aussagt. Die stärkste ist, wen wunderts, die starke Wechselwirkung, dann kommt die schwache und die schwächste (aber immer noch viel stärker als die Gravitation) ist die elektromagnetische. Allerdings nur auf kurze Distanzen. Die starke und schwache Wechselwirkung fallen mit der Entfernung viel schneller ab als die elektromagnetische, die auf große Entfernungen größere Kräfte ausübt als die beiden anderen (wir können magnetische Felder herstellen, die über mehrere Meter Eisenteile anziehen oder in Goldzähnen Induktionsströme erzeugen, von der starken Wechselwirkung sieht man schon einen Mikrometer vom Atomkern entfernt nichts mehr).

    Interessant ist nun, dass die Kopplungsstärke der drei Wechselwirkungen in Teilchenkollisions-Experimenten von der Energie abhängt, also gar nicht konstant ist. Die der starken Wechselwirkung nimmt mit zunehmender Energie ab, die der schwachen auch, aber langsamer, und die der elektromagnetischen Wechselwirkung nimmt zu. Extrapoliert man zu hohen Energien, sieht es so aus, als würden die drei Kurven (Kopplungsstärke als Funktion der Energie) sich in der Gegend von 10^16 Gigaelektronenvolt (GeV) schneiden. Diese Extrapolation ist durchaus gewagt, denn Experimente erreichen keine höheren Energien als etwa 10000 GeV, eine Energie, die immerhin dem zehntausendfachen der Masse eines Protons entspricht. Aber eine Kurve, die zwischen einem und zehntausend GeV bestimmt wurde, auf 10 Billiarden GeV zu extrapolieren, das bedeutet, sie um einen Faktor eine Billion stetig zu verlängern — und dann noch zu erwarten, dass die Vorhersage eines Schnittpunkts dreier solcherart verlängerten Kurven irgendetwas mit der Realität zu tun hat…

    Nichtsdestotrotz wird an die Vereinheitlichung der drei Wechselwirkungen in einer sogenannten grand unified theory (GUT) geglaubt und etwas Unterstützung für die Idee ergibt sich daraus, dass die Vereinheitlichung von elektromagnetischer und schwacher Wechselwirkung tatsächlich gelungen ist, dafür haben Glashow, Salam und Weinberg 1979 den Physik-Nobelpreis erhalten. Denn die Vorhersagen dieser Theorie ließen sich experimentell bestätigen (da reichen Teraelektronenvolt-Energien). Sie besagt, dass oberhalb von Energien von etwa 300 GeV elektromagnetische und schwache Wechselwirkung nicht mehr unterscheidbar sind. Etwa 10^(-12) Sekunden nach dem Urknall betrug die mittlere thermische Energie pro Teilchen in unserer Universumsblase ungefähr jene 300 GeV. Oberhalb der entsprechenden Temperatur (10^15 K), wird die elektroschwache Wechselwirkung vermittelt durch vier masselose Austauschbosonen, unterhalb ist sie in die elektromagnetische Wechselwirkung mit dem (masselosen) Photon als Austauschboson und die schwache Wechselwirkung mit den (massebehafteten) Austauschbosonen W^+, W^- und Z zerfallen.

    Das Ganze wird in der Sprache der Phasenübergänge diskutiert. Oberhalb der kritischen Temperatur hat man eine symmetrische Phase (die im Universum vorliegende „Suppe“ aus Materie [inklusive dunkler] und Strahlung, im Aggregatzustand eines Plasmas); bei einem Wechselwirkungsvorgang kann nicht gesagt werden, ob er elektromagnetisch oder schwach war. Die Symmetrie, die oberhalb der kritischen Temperatur besteht, wird durch eine Symmetriegruppe beschrieben, die unter anderem die Ähnlichkeiten der vier Austauschbosonen aufzeigt. Unterhalb der kritischen Temperatur ist die Symmetrie gebrochen, wir haben unterschiedliche Austauschbosonen, von denen drei vergleichbare positive Massen haben und das vierte masselos bleibt. Der Mechanismus der Symmetriebrechung ist der sogenannte Higgs-Mechanismus und er führt zu den drei massiven Bosonen. Eine Untersymmetrie bleibt ungebrochen, deshalb bleibt das Photon masselos.

    Die deutlich spekulativere grand unified theory postuliert eine ähnliche Symmetriebrechung bei Energien von 10^14 bis 10^16 GeV, entsprechend einer Temperatur von 10^27 bis 10^29 K, die eben 10^(-35) Sekunden nach dem Urknall vorlag. Davor gab es eine symmetrische Phase, in der auch die elektromagnetische Wechselwirkung „aufging“, d.h., es ließ sich bei Teilchenprozessen nicht unterscheiden, ob sie durch elektromagnetische, schwache oder starke Wechselwirkung stattfanden. Nach der Symmetriebrechung gibt es ein separates elektromagnetisches Feld und aus topologischen Gründen (die ich nicht in der Lage bin zu erklären :-), es treten topologische Defekte auf, die als Solitonen, also teilchenartige Anregungen deutbar sind, die nichttriviale Topologie sorgt auch für ihre Stabilität), müssen in den GUTs magnetische Monopole auftreten. Die haben eine riesige Masse (etwa die eines Bakteriums — als Elementarteilchen!) und sollten ungefähr mit 10^14 mal größerer Massendichte auftreten als die Baryonen. Ein Universum mit einer solchen Massendichte hätte sich nicht lange ausgedehnt, sondern wäre unter der Schwerkraft dieser riesenhaften Dichte schnell wieder geschrumpft und wahrscheinlich lange vor der Entstehung von Leben in einem big crunch geendet. Die Inflation vermeidet das dadurch, dass unser Universum aus einem so kleinen Teil des „Überkosmos“ (später das Multiversum) durch superschnelle Ausdehnung entsteht, dass trotz der hohen Anzahldichte von Monopolen sich nicht viele, vielleicht sogar gar keiner, in unserem Universum befinden. Sobald sich das mal ausdehnt, nabelt es sich gewissermaßen vom Überkosmos ab und nichts kann von dem mehr in unser Universum hineinkommen. Experimentell finden könnten wir also bestenfalls die wenigen Monopole, die sich zu Beginn der Inflation in dem superkleinen Keim befanden, aus dem durch Inflation unser Universum wurde; diese sind aber mittlerweile über eine Kugel mit einem Durchmesser von 93 Milliarden Lichtjahren verstreut…

    Wieso führte die Symmetriebrechung zur Inflation? Um das zu erklären, muss ich grob darauf eingehen, wie man (Quanten-)Felder beschreibt. In der schrödingerschen Quantenmechanik ist das Objekt, dessen Kenntnis die Beschreibung eines Systems erlaubt, der Hamiltonoperator, das ist einfach die Gesamtenergie des Systems, bestehend zum Beispiel aus kinetischer und potentieller Energie. Der Operatorenaspekt braucht uns hier nicht zu interessieren, dann haben wir einfach die Hamiltonfunktion, von der ein Bestandteil das Potential der Teilchen ist. In der Feldtheorie nimmt man statt der Hamiltonfunktion gern die Lagrangefunktion, die nicht ganz so leicht physikalisch zu deuten ist (ihr Zeitintegral gibt die Wirkung, die in Vielfachen des planckschen Wirkungsquantums gemessen wird…), die aber auch ein Potential enthält. Dieses Potential ist eine Funktion der Stärke des betrachteten Felds, in unserem Fall ist das das sogenannte Inflatonfeld. Die GUT hat, wie auch die Theorie der elektroschwachen Wechselwirkung, ein Higgsfeld, tatsächlich mehrere. Ob das Inflatonfeld eines der Higgsfelder ist oder ein separates Feld, das weiß ich nicht. Seine Existenz wird in der Theorie postuliert, ein direkter Nachweis ist vorläufig nicht zu erwarten, weil dazu ein Teilchenbeschleuniger nötig wäre, der billiardenfach höhere Energien erreicht als unser größter vorhandener (der Large Hadron Collider, LHC, in Genf).

    In der Quantenmechanik nennt man den Zustand niedrigster Energie, der im Potential des Hamiltonoperators möglich ist, den Grundzustand, in der Feldtheorie heißt der Zustand niedrigster Energie des Feldes, der im vorliegenden Potential (das einen Teil der Lagrangedichte darstellt) möglich ist, Vakuumzustand. Vakuum ist in der Feldtheorie also nicht Abwesenheit eines Feldes sondern heißt nur, dass es sich in seinem niedrigst möglichen Energiezustand befindet. Zustände höherer Energien kann man dann meist durch die Anzahl der in ihnen vorhandenen Teilchen mit bestimmten Kenngrößen wie Frequenz, Wellenzahl, Spin („Quantenzahlen“) beschreiben. Im „wirklich leeren“ Raum haben wir also ein elektromagnetisches Feld, ein Elektronenfeld, ein Neutrinofeld, etc. im Vakuumzustand. Für jedes echte Elementarteilchen ein Feld. In unserem Sonnensystem ist aber keines dieser Felder über größere Bereiche im Vakuumzustand. Von Neutrinos sind wir in unglaublicher Dichte umgeben. Die Elektronendichte dürfte nur in kleinen Volumina im Raum zwischen den Planeten auf null heruntergehen; pro Kubikmeter gibt es aber schon ein paar Elektronen, im Kubikkilometer viele. Das elektromagnetische Feld besteht vielerorts aus einer thermischen Verteilung von Photonen, die von der Sonne ausgesandt wurden. (Und enthält bei niedrigeren Frequenzen den Mikrowellenhintergrund.)

    Die Existenz von Quantenfeldern weist man über ihre Teilchen nach. Das Higgs-Feld, das in der elektroschwachen Wechselwirkung relevant ist, wurde am LHC durch Nachweis einer Anregung über seinen Vakuumzustand (also einen Zustand höherer Energie), das Higgs-Boson, nachgewiesen. Für die theoretische Beschreibung des Higgs-Mechanismus bekamen Englert und Higgs 2013 den Nobelpreis für Physik, nachdem das Higgs-Feld der elektroschwachen Wechselwirkung gefunden war.

    Relevant für das Inflatonfeld ist nun, wie das zugehörige Potential bei Temperaturen oberhalb der Phasenübergangstemperatur aussieht und wie unterhalb. Dazu macht man sich einfache Modelle. Weil quantenmechanische Felder gern komplex sind, lässt sich der einfachste Fall als ein Feld mit zwei reellen Komponenten beschreiben (Real- und Imaginärteil). Nimmt man die zwei Komponenten als x- und y-Achse eines Koordinatensystems, dann sieht das Potential oberhalb der kritischen Temperatur qualitativ aus wie ein Rotationsparaboloid. Wichtig ist nur, dass es rotationssymmetrisch um die z-Achse ist und dass das Minimum bei der Feldstärke null liegt (x=0 und y=0). Der Feldwert im Minimum ist der Vakuumzustand.

    Sinkt nun die Temperatur, so beginnen sich äußere Bereiche des Potentials (das temperaturabhängig ist) abzusenken und es entsteht bei Temperaturen weit unterhalb des Phasenübergangspunkts ein Potential, das aussieht wie ein mexikanischer Sombrero: in der Mitte (auf der z-Achse) ein Maximum, drum herum eine Rinne, in der das Potential minimal ist, dann die Krempe, wo es wieder leicht ansteigt. Ein solches Verhalten ist aus der Theromodynamik bekannt. Bei der kritischen Temperatur selbst, also am Punkt, wo der Phasenübergang stattfindet, haben wir für einen Phasenübergang erster Ordnung noch ein Minimum auf der z-Achse und eine Rinne mit einem Minimum gleicher Tiefe außen herum, dazwischen liegt ein „Potentialwall“. Dass der Phasenübergang erster Ordnung ist, nimmt man an (weil man mit einem Übergang zweiter Ordnung keine vernünftige Übereinstimmung mit Beobachtungsdaten wie den Temperaturfluktuationen des Mikrowellenhintergrunds hinbekommt). Sobald die Temperatur unterhalb des kritischen Werts liegt, wird das „Rinnenminimum“ tiefer als das Minimum in der Mitte. Das heißt, das „echte“ Vakuum ist nun ein Feldzustand, der in der Rinne liegt, während das lokale Minimum beim Feldwert null ein „falsches“ Vakuum ist, mit einer positiven Energiedichte, wenn man die des echten Vakuums auf null setzt. Es ist offensichtlich, dass ein Feldzustand in der Rinne (der durch einen Vektor dargestellt wird) bei einer Rotation des Systems um die z-Achse nach der Drehung einen anderen Winkel mit der x-Achse hat als vorher, d.h. er verändert sich. Er ist nicht invariant unter diesen Drehungen.

    Symmetrie bedeutet Invarianz unter bestimmten (geometrischen) Operationen. Hier ist die Symmetrie die Rotationssymmetrie um die z-Achse. Die ist für das Potential oberhalb und unterhalb der Phasenübergangstemperatur gegeben, nicht aber für den Zustand niedrigster Energie. Der ist oberhalb symmetrisch (ein Punkt auf der z-Achse bleibt unter Rotationen um diese invariant) und unterhalb nicht.

    Das ist übrigens die Definition für spontane Symmetriebrechung in der Physik: die das System beschreibenden Gleichungen haben bzw. die zugrundeliegende Lagrangefunktion hat eine bestimmte Symmetrie und der relevante Zustand (Grundzustand, Vakuumzustand oder, in der statistischen Physik, Gleichgewichtszustand) hat sie nicht mehr. Die Gesamtmenge der relevanten Zustände (also das Minimum der gesamten Rinne) erfüllt wieder die Symmetrie. Ein beliebtes Beispiel ist der Ferromagnetismus: der Hamiltonoperator ist bei Abwesenheit eines äußeren Magnetfelds invariant unter beliebigen räumlichen Drehungen (die Energie eines Magneten hängt nicht von seiner Ausrichtung ab, solange kein äußeres Magnetfeld da ist), aber der Gleichgewichtszustand bei einer Temperatur unterhalb der Curie-Temperatur besitzt eine in eine feste räumliche Richtung orientierte Magnetisierung. Die Richtung ist beliebig, aber sie ändert sich natürlich mit einer Drehung des Magneten. (Und man kann sie verstellen, indem man den Magneten in einem Magnetfeld ummagnetisiert. Schaltet man das Magnetfeld aus, bleibt er aber in die neue Richtung magnetisiert.)

    Zurück zu unserem Inflatonfeld. Das wird nun „danach streben“, in das echte Vakuum überzugehen. Dazu muss es seine Überschussenergie an andere Felder abgeben. In Guths erstem Inflationsmodell tat es das noch ziemlich schnell, was dazu führte, dass viele fast leere Universumsblasen entstanden, für die dann die Inflation zu Ende war und die sich nicht zu einem großen Einzeluniversum verbanden. Das wurde dadurch kuriert, dass man die Modellparameter so änderte, dass es statt einem schnellen Übergang einen sogenannten „slow rollover“ gab. „Slow“ ist hier sehr relativ, denn wie gesagt war die Inflation für unser Universum nach spätestens 10^(-30) Sekunden zu Ende. Das ist ein Billionstel einer Attosekunde. Das Licht legt in einer Attosekunde eine Strecke zurück, die dem dreifachen Durchmesser eines Wasserstoffatoms entspricht, die Zeitdauer des Übergangs eines Elektrons zwischen zwei Energieniveaus in einem mittelgroßen Atom ist ein paar hundert Attosekunden und für die Entwicklung von Messtechniken im Attosekundenbereich wurde 2023, also letztes Jahr, (Anne) L’Huilier, Krausz und Agostini der Physik-Nobelpreis verliehen. Das heißt, es ist nicht leicht, so kurze Vorgänge zeitlich zu messen. Dann einen Vorgang, der billionenmal schneller ist, als langsam zu bezeichnen, mag seltsam erscheinen. Aber bei extrem hohen Energien geht eben alles sehr schnell, auch die langsamsten Prozesse, die vorkommen…

    Während des „langsamen“ Abstiegs des Inflatonfeldes in sein echtes Vakuum liegt eine hohe konstante Energiedichte vor, in der Größernordnung der des falschen Vakuums. Nun ist es in der Feldtheorie so, dass der Energienullpunkt eigentlich Konvention ist, der Absolutwert der Energie eines Vakuums also keine Bedeutung hat. (Man lässt bei der Quantenfeldtheorie von Photonen in Energiebetrachtungen gern die Nullpunktsenergie weg, weil die formal unendlich wird, wenn man über alle Photonenfrequenzen integriert. Diese Unendlichkeit ließe sich aber durch leicht geänderte Quantisierungsregeln von vorneherein vermeiden. Ein Hamiltonoperator, dessen Energieniveaus alle um ein konstantes Vielfaches des planckschen Wirkungsquantums verschoben sind, produziert im klassischen Grenzfall dieselbe Hamiltonfunktion wie der mit unverschobenen Niveaus. Daher entsprechen die quantenmechanischen Energieniveaus nicht absoluten Energien, nur ihre Differenzen sind physikalisch relevant. Die Setzung der Vakuumenergie auf null ist also o.k.)

    Aber die einsteinschen Feldgleichungen, die die Veränderung der Raumzeit im Kosmos beschreiben, enthalten „absolute“ Energien. Eine Erhöhung aller Energien um einen konstanten Betrag würde zu einer wesentlich anderen Dynamik der Ausdehnung des Kosmos führen. Die Hypothese, mit der man nun die Feldtheorie und die einsteinschen Gleichungen verheiraten kann, ist, dass die absoluten Energien die vom Vakuumzustand aus gemessenen sind. Solange der Vakuumzustand unverändert bleibt, hat er dann keine Auswirkungen auf die Gleichungen. Tritt aber ein neuer, tiefer liegender Vakuumzustand auf, hat das im System noch vorliegende alte und jetzt falsche Vakuum eine positive, unter Umständen hohe Energiedichte. Diese steht dann in den einsteinschen Gleichungen als kosmologische Konstante. Stellt sie den dominanten Energiebeitrag im Kosmos dar, führt eine positive kosmologische Konstante zu exponentiellem Wachstum mit der Zeit. (Sie wirkt wie ein „von außen angelegter“ negativer Druck, das Universum wird also durch die Vakuumenergie auseinandergezogen.) Das ist die Inflation.

    Sie hält solange an, wie das Inflatonfeld braucht, um von der riesigen Energiedichte, die nach einem signifikanten Abfall der Temperatur unter die Phasenübergangstemperatur der GUT vorliegt, auf eine Energiedichte nahe null (d.i. die des echten Vakuums) zu kommen. Wohlgemerkt, die Energie des falschen Vakuums geht nicht verloren. Sie wird umgewandelt in andere Energieformen (Quarks, Elektronen, Photonen), die aber ein anderes Verhalten unter der Ausdehnung haben. Alle Energieformen, die nicht Vakuumenergie sind, haben Energiedichten, die mit zunehmender Ausdehnung des Universums abnehmen. Sie treiben nicht die Inflation, sie produzieren nichtnegativen Druck. Die Vakuumenergiedichte ist unter der Ausdehnung konstant, was zu einem negativen Druck führt, der die Inflation treibt.

    Aber in unserem Universum hat die Inflation nach einer billionstel Attosekunde (oder früher) aufgehört, weil das echte Vakuum erreicht war. Dabei hatte das Universum sich um etwa einen Faktor 10^30 ausgedehnt. Danach ließ der Kosmos es mit der weiteren Ausdehnung etwas langsamer angehen, die war nämlich nicht exponentiell und verlief gebremst. Zumindest dachte man das bis 1998, als man herausfand, dass seit ca. 5 Milliarden Jahren das Universum wieder beschleunigt expandiert, woraus man schloss, dass es eine Energieform, die sogenannte dunkle Energie gibt, die sich wie eine positive kosmologische Konstante verhält, und deren (konstante) Energiedichte vor 5 Milliarden Jahren größer wurde als die (abnehmende) Energiedichte von Materie und Strahlung. Perlmutter, Riess und Schmidt bekamen 2011 den Physik-Nobelpreis für die Feststellung der beschleunigten Ausdehnung in Projekten zur präzisen Vermessung der Hubble-Konstante über die Beobachtung bestimmter Supernovae, deren Leuchtkurven theoretisch sehr genau bekannt sind. Eine richtig gute Erklärung für die dunkle Energie gibt es bisher nicht; man hofft natürlich, dass sie nicht daher kommt, dass unser Universum sich wieder in einem falschen Vakuum befindet, denn ob nach Übergang zum echten Vakuum die Bedingungen noch mit Leben verträglich wären, ist nicht so sicher… Andererseits ist diese Energiedichte so winzig, dass sie sehr schwer als eine Vakuumenergiedichte erklärbar ist (frühere Versuche führten zur sogenannten schlechtesten Voraussage der theoretischen Physik, die 120 Größenordnungen zu hoch lag). Auch kennen wir keine Unterwechselwirkung, die sich von einer der drei bekannten abkoppeln könnte…

    Zuletzt sollte ich noch erklären, was das Ganze mit dem Multiversum zu tun hat. Auch scheint ein Begriff wie „ewige Inflation“, der in der Sendung wohl auch erwähnt wurde, in dem von mir vorgestellten Szenario nicht sehr plausibel. Der Punkt ist der folgende: der Übergang vom falschen ins echte Vakuum ist ein quantenmechanischer Vorgang mit probabilistischer Dynamik. Er könnte zum Beispiel mit einem Tunneleffekt beginnen, wenn am Anfang des „slow rollover“ noch eine Potentialbarriere zwischen falschem und echtem Vakuum bestand (das falsche also noch in einem lokalen Minimum des Potentials lag). Das bedeutet, dass eine gewisse „Anlaufzeit“ für den „slow rollover“ nötig ist. In der geht die inflationäre Ausdehnung weiter und es entsteht neues Raumvolumen, in dem das Inflatonfeld noch im falschen Vakuum sitzt. Es zeigt sich, dass der „generische“ Fall (d.h. das wahrscheinlichste Szenario) der ist, in dem die Inflation *mehr* neues Volumen mit falschem Vakuum erzeugt als Volumen mit falschem Vakuum zerfällt. Das heißt, ein Teiluniversum entsteht, in dem die Inflation sehr schnell endet, aber drum herum entsteht gleichzeitig genug Volumen für die Keimbildung von mehr als einem neuen Teiluniversum. Im Überkosmos wird das Volumen immer größer, in dem die Inflation weitergeht (und zwar anscheinend überall so als stünde man am Anfang des Phasenübergangs). In jedem neuen Teiluniversum ist die Inflation zwar schnell vorbei, aber im Überkosmos hört sie nie auf. Das ist die ewige Inflation, die zwar mal anfing aber nie enden wird. Die Zahl der Teiluniversen, die in jedem neuen Zeitabschnitt entstehen können, wächst exponentiell, so dass es heute schon unübersehbar viele geben sollte.

    Hier kommt dann die Stringtheorie ins Spiel. In ihren Anfängen in den 80er Jahren war die Hoffnung der Stringtheoretiker noch, dass diese Theorie nicht nur die Vereinheitlichung von Quantentheorie und Gravitation leisten würde, sondern auch Eigenschaften der Elementarteilchen wie Masse, Ladung, etc. aus den Schwingungseigenschaften der Strings (Fäden), aus denen diese Teilchen bestehen sollten, berechenbar würden. (Die Strings sollten etwa geschlossene Schleifen mit Größen von circa der Planck-Länge sein, aus denen die „Punktteilchen“ Quarks und Leptonen bestünden.) Das Problem war aber, dass man keine einschränkenden Kriterien fand. Es gab nichts, was etwa die Masse des Elektrons auf den Wert, den sie in unserem Universum hat, festlegte. Im Gegenteil, alle Massen schienen möglich. In dieser hoffnungslosen Situation (eine Theorie, die alles als möglich vorhersagt, ist keine physikalische Theorie, denn nur über Unmöglichkeitsaussagen, die experimentell widerlegt werden, kann man eine Theorie falsifizieren — oder daran scheitern, was als Bestärkung der Theorie aufgefasst wird) kam ein Überkosmos wie gerufen, in dem unübersehbar viele Teilkosmen entstehen konnten. Er half, die Parameterlandschaft der Stringtheorie zu „bevölkern“. Wenn alle Kombinationen von Naturkonstanten möglich sind, dann erlaubt eine Theorie, in der viele Teiluniversen mit leicht unterschiedlichen Anfangsbedingungen entstehen, Realisierungen vieler dieser Kombinationen.

    Das gibt dann Universen, in denen die Naturkonstanten unterschiedliche Werte haben. In vielen von denen wäre Leben nicht möglich, weil die erforderliche „Feinabstimmung“ der Naturkonstanten nicht zuträfe, die die Entstehung von Atomen ermöglicht, die chemisch über ihre Elektronenhüllen gebunden sein können. In einem Universum, wo die sommerfeldsche Feinstrukturkonstante 1/100 ist statt 1/137, könnte es vielleicht keine Moleküle aus langen Kohlenstoffketten geben, also kein organisches Leben, das auf der Kohlenstoffchemie basiert. Dass wir in einem Universum leben, in dem die Naturkonstanten so gut zusammenspielen, dass Sternentstehung, Planetenbildung und schließlich Leben möglich sind, lässt sich dann mit dem anthropischen Prinzip erklären: nur Universen, in denen auch Leben möglich ist, können von lebendigen Wesen beobachtet werden. In den anderen ist schlicht niemand, um sie zu beobachten. Oder anders ausgedrückt: die Wahrscheinlichkeit, dass ein beliebig herausgegriffenes Universum lebensfreundlich ist, ist extrem gering; aber die Wahrscheinlichkeit, dass in einem Universum, das von „inneren“ Lebensformen beobachtet wird, die (dimensionslosen) Naturkonstanten Werte haben, die so aufeinander abgestimmt sind, dass in diesem Universum die Entwicklung von Leben möglich war, kann kaum geringer als eins sein. Ob das dann noch eine gewisse Variationsbreite der Naturkonstanten übrig lässt oder sie schon in sehr spezifischen Grenzen bestimmt, das ist weniger klar.

    Die manchmal gehörte Behauptung, in den Teiluniversen seien völlig unterschiedliche Naturgesetze gültig, halte ich für Unsinn. Schließlich beruht die ganze Multiversumsidee auf der Annahme der universellen Gültigkeit bestimmter Gesetze. Keine Symmetriebrechung und kein falsches Vakuum ohne Feldtheorie, keine Inflation ohne einsteinsche Gravitationsgleichung, keine zufälligen Anfangsverteilungen ohne Quantenmechanik. Gewisse fundamentale Gesetze müssen also für alle Universen gelten. Was sich unterscheiden kann, ist der Wert der in diesen Gesetzen auftretenden Naturkonstanten (die von den Anfangsbedingungen des Teiluniversums abhängen mögen, welche aufgrund der Quantenmechanik fluktuieren); manche Gesetze mögen bei Gültigkeit anderer Werte für die Naturkonstanten so verändert scheinen, dass man davon reden kann, dass andere „effektive“ Naturgesetze gelten. Aber für die fundamentalsten Gesetze, jene, die das große Bild quantitativ erklären, muss man wohl annehmen, dass sie in allen Teiluniversen wirken.

    Zuletzt möchte ich noch kurz darauf eingehen, was an den Ideen, die zum Multiversum führen, ordentliche Wissenschaft ist und was eher schwach begründete Spekulation. Es gibt/gab viele Inflationsmodelle, weil durch Änderung der Parameter eines Modells Übereinstimmung mit vielen verschiedenen Szenarien erzielbar ist. Zum Beispiel muss man natürlich die Parameter so wählen, dass die Entstehung der vielen Multipole nicht erst deutlich nach Beginn der Wanderung des Systems in Richtung echtes Vakuum geschieht. Sie müssen vor Auftreten des echten Vakuums oder in der Anfangsphase von dessen Bildung entstehen, denn wenn sie erst spät nach dem Phasenübergang auftreten, können sie durch die Inflation nicht mehr verdünnt werden. Aber von den Modellen mit Inflation sind einige gut in dem Sinn, dass sie nicht zur Erklärung weniger Fakten viele Parameteranpassungen machen müssen, sondern mit wenigen Annahmen viele detaillierte Daten erklären. Ich möchte da etwa auf das Bild 1 in A. Guths Artikel „Eternal inflation and its implications“ (J. Phys. A: Math. Theor. 40, 6811 (2007)) verweisen. Da wird eine Grafik der Temperaturfluktuationen des Mikrowellenhintergrunds gezeigt, mit Messpunkten des WMAP-Satelliten und den Vorhersagen vier verschiedener Theorien, darunter ein Inflationsmodell mit einer großen kosmologischen Konstante. Das sind zwar Fit-Kurven, aber wenn ich mich recht erinnere, hat das Inflationsmodell nur zwei Parameter, von denen der eine zur Einstellung der korrekten Höhe des ersten Maximums, der zweite für seine Breite verwendet wird. Die ganze restliche Kurve mit ihrer oszillatorischen Feinstruktur ist Vorhersage — und sie stimmt ausnehmend gut mit den Messdaten überein. Also sagt ein Modell, das so getunt wurde, dass es das Horizont- und Flachheitsproblem löst, zusätzlich noch die detaillierte Struktur einer Entwicklung des gemessenen Mikrowellenhintergrunds korrekt voraus. Das würde ich als überzeugendes Indiz dafür sehen, dass das Modell ein „Element Wahrheit“ enthält.

    Die Stringtheorie hingegen, die über die Teiluniversen im Wesentlichen sagt „anything goes“, macht so gut wie keine quantitativ überprüfbaren Vorhersagen. Fortschritte in ihrer Entwicklung waren im Wesentlichen mathematischer Natur. Es gab zunächst fünf verschiedenen Stringtheorien. Die kann man mittlerweile als Teile einer einzigen übergreifenden Theorie verstehen. Das Graviton ist als Spin-2-Teilchen in gewisser Weise in der Stringtheorie enthalten. Aber Gravitation als Krümmung der Raumzeit daraus abzuleiten, sieht eher schwierig aus, denn die Stringtheorie arbeitet auf einem flachen (neun- oder zehndimensionalen) Raum. Der Kontakt zur konkreten Physik fehlt, das Ganze ist eher ein philosphischer Rahmen für Physik, aber zu weit, um wirklich wertvoll zu sein. Die wilde Verschiedenheit der Teiluniversen des Multiversums, die man ja aus der Stringtheorie begründen möchte, ist damit rein spekulativ. Genausogut könnten alle Teiluniversen exakt gleiche Naturkonstanten haben, also im Wesentlichen Kopien unseres Universums sein. Level 3 wäre auf Level 1 reduziert (wenn der Überkosmos unendlich wäre).

    • Marcus Munzlinger sagt

      Hallo Klaus Kassner, können Sie das vielleicht noch etwas detaillierter ausführen 🤪 Im Ernst: Ich bin beeindruckt & bedanke mich für das Teilen hier, auch wenn ich große Mühe habe, Ihre Beiträge zu durchdringen, dazu fehlt mir doch einiges an Wissen, aber das ist ja auch eine Leistung von AstroGeo, Laien wie mir solche Themen überhaupt vor Augen zu führen, auch wenn ich vor der inhaltlichen Tiwfe dann kapitulieren muss 😁

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert