Brg und borg st
Stephen Hawkings Ideen
über das Universum
Inhalt
Einleitung 1
Einsteins Relativitätstheorie 3
Die Spezielle Relativitätstheorie 3
Die Allgemeine Relativitätstheorie 4
Quantenmechanik 7
Der Welle/Teilchen-Dualismus 7
Die Unschärferelation 8
Das Universum 10
Anfang - Entwicklung - Zukunft 10
Schwarze Löcher 17
Schluß 21
Quellenverzeichnis 22
Einleitung
Manchmal erinnere ich mich zurück, es muß wohl schon an die zehn Jahre her sein, wie ich abends in meinem Bettchen lag und mir Gedanken über Gott und die Welt oder besser gesagt über Gott und das Universum machte. In meiner (damals noch) kindlichen Phantasie stellte ich mir vor, dem lieben Gott zu begegnen und ihm alle möglichen Fragen zu stellen, auf die er mir dann gewiß Antwort geben würde.
Wie und woraus ist das Weltall entstanden? Was liegt hinter der Grenze dieses Weltalls? Es muß ja eine Grenze haben, schließlich kann es nicht unendlich sein, oder etwa doch?
Fragen über Fragen, die mir zu jener Zeit auf dem Herzen lagen. Einige davon beschäftigen mich auch heute noch. Jetzt allerdings betrachte ich das alles aus einer vollkommen anderen Sicht. Daß ich, zumindest teilweise, schon Antworten darauf erhalten habe, verdanke ich nicht dem lieben Gott, sondern vielmehr den Wissenschaftlern, die sich um die Lösung solch grundlegender Fragen bemühen.
Von all diesen ist Stephen W. Hawking, Jahrgang 1942, sicher als die herausragendste lebende Persönlichkeit zu bezeichnen.
Trotz seiner schweren Krankheit, die sich amyotrophe Lateralsklerose (ALS) nennt und ihn seit über zwanzig Jahren an den Rollstuhl fesselt, setzt er sich noch immer unermüdlich für die Forschung ein. Es ist ihm auch nicht möglich, seine Gedanken niederzuschreiben, weil er seine Hände nicht mehr ausreichend koordinieren kann. Darüber hinaus kann er sich nach einer Kehlkopfoperation im Jahre 1986 nur noch mit Hilfe eines Computers und eines Sprachsynthesizers verständigen, den er mit einem einzigen Finger bedient.
"Wir müssen die Menschen über die modernen Versionen solch grundlegender Konzepte wie Raum und Zeit informieren", schreibt Hawking in seinem Buch Einsteins Traum.
Eine überaus bedeutende Aussage, die die Naturwissenschaften so darstellt, wie sie seiner Meinung nach sein sollten: Eine Wissenschaft, die jeder verstehen kann und die nicht bloß einem kleinen Kreis hochspezialisierter Akademiker zugutekommt. Zu erreichen gedenkt Hawking dieses Ziel durch eine umfassende Theorie, die buchstäblich ALLES erklären können soll. Obwohl er in dieser Hinsicht recht optimistisch ist, glaube ich persönlich nicht, daß schon in naher Zukunft damit zu rechnen ist. Bei der Vereinigung von Allgemeiner Relativitätstheorie und Quantenmechanik könnten sich allerdings schon bald Erfolge einstellen - damit wäre ein wichtiger Schritt in Richtung einer Allumfassenden Theorie getan.
An dieser Stelle muß auch gesagt werden, daß man die Aussagen Hawkings und anderer Wissenschaftler, die sich mit diesem Bereich der Physik beschäftigen, keinesfalls als unantastbar und absolut richtig auffassen darf! Sie liefern uns im Grunde genommen nur Vorschläge, die aber in vielerlei Hinsicht noch verfeinert werden müssen. Des öfteren muß eine Theorie sogar vollständig aufgegeben werden.
Allerdings sollte man daraus nicht schließen, daß die Naturwissenschaften mit Erklärungen esoterischer oder religiöser Natur auf eine Stufe zu stellen sind. Wissenschaftler gehen nämlich auf die Beobachtungen und auf neue Erkenntnisse ein. Mit anderen Worten: Der beobachtete Zustand (nicht irgendein übersinnliches Prinzip) wird den Berechnungen zugrunde gelegt. Diese wiederum stützen sich auf die durchaus verläßliche Sprache der Mathematik. Die Beobachtungsdaten oder die Mathematik selbst in Frage zu stellen, hätte in diesem Fall überhaupt keinen Sinn, weil prinzipiell alles, von der Wissenschaft bis hin zu unserer Gesellschaft, darauf aufgebaut ist.
Das Aufstellen von Zukunftsprognosen ist trotzdem mit Vorsicht zu genießen.
Diese Erfahrung hat Hawking persönlich auf recht eindeutige Weise erleben müssen: Er wollte einmal ein Buch mit Zukunftsprognosen schreiben, von denen sich später fast alle als falsch erwiesen. Dieses Beispiel zeigt, daß man in Bereichen fundamentaler Ungewißheit und ständig neuer Entdeckungen nur mit Maß und Ziel vorgehen darf.
Bevor ich in dieser Arbeit auf Stephen Hawkings Ideen über den Anfang und das mögliche Ende unseres Universums, sowie auf seine Erkenntnisse über Schwarze Löcher eingehe, ist es notwendig, die beiden bedeutendsten Theorien unserer Tage - Einsteins Relativitätstheorie und die Quantenmechanik - in relativ kurzer Form darzulegen. Sofern es mir möglich war, versuchte ich dabei, redundante Information weitestgehend zu vermeiden und "nur" die wichtigsten Inhalte zu vermitteln.
Um den vorgegebenen Rahmen nicht zu sprengen, mußte ich auf die Behandlung einiger interessanter Themenbereiche, die ebenfalls recht gut in diese Arbeit gepaßt hätten, teilweise bzw. zur Gänze verzichten.
Diese wären z. B.: Elementarteilchenphysik, Suche nach der Weltformel, Renormierung, Gottes Rolle beim Schöpfungsakt ("Gottes Plan"), Leben im Universum, Zukunft der theoretischen Physik.
Wer sich näher mit einem dieser Gebiete befassen möchte, sei auf das Quellenverzeichnis verwiesen.
Abschließend sei noch zu bemerken, daß ich mit dieser Arbeit in erster Linie Schüler und interessierte Laien ansprechen möchte, um ihnen einen Einblick in die Kosmologie im allgemeinen und in Hawkings Vorstellungen im besonderen zu geben.
T.
K., Jänner 1995
Einsteins Relativitätstheorie
Die Spezielle Relativitätstheorie
Noch bis zu Beginn dieses Jahrhunderts war es den Physikern nicht gelungen, Newtons Gesetze der Mechanik mit der Maxwellschen Theorie des Elektromagnetismus in Einklang zu bringen. Laut Newton benötigt man nämlich ein Bezugssystem, um eine Bewegung überhaupt feststellen zu können. Maxwell wiederum sprach von der Lichtgeschwindigkeit als konstanter Größe. Die scheinbare Unvereinbarkeit dieser beiden Aussagen wird anhand des folgenden Beispiels deutlich.
Da sich das Licht ( z.
B. das der Sonne) im Weltall ausbreiten kann, nahm man an, daß hierfür ein Medium vorhanden sein müsse, welches als Bezugssystem herhalten konnte. Diesem Medium gab man den Namen "Äther" und die Wissenschaftler der damaligen Zeit (vor allem Albert A. Michelson und Edward W. Morley) machten sich sogleich daran, dessen Existenz nachzuweisen. Dem Michelson- Morley- Experiment lag die Überlegung zugrunde, daß die Geschwindigkeit des Lichts, in verschiedenen Richtungen gemessen, unterschiedlich groß sein müsse - je nachdem, ob es sich in der selben Richtung wie der Äther oder normal zu diesem stehend bewegt.
Die Verwunderung war groß, als man bemerkte, daß der Wert für die Lichtgeschwindigkeit stets gleich blieb. Das Experiment hatte somit genau das Gegenteil von dem gezeigt, was man sich ursprünglich davon erhofft hatte: Es hatte praktisch nachgewiesen, daß nichts für das Vorhandensein eines Äthers spricht.
Es dauerte allerdings noch bis 1905, bis einige Physiker wie H. A. Lorentz, Henri Poincaré und besonders Albert Einstein sich endgültig von der Denkweise Newtons und dem Glauben an einen Äther lösten und eine neue und damals sicher auch provokante Deutung[1]des Michelson- Morley- Experiments unternahmen.
Eine der beiden Hauptaussagen der Speziellen Relativitätstheorie lautet, daß die Naturgesetze in allen unbeschleunigten Bezugssystemen, die sich also gleichförmig und geradlinig bewegen, gleich sind.
Es müssen somit alle Bezugssysteme als gleichwertig angesehen werden. Weiters ist es unmöglich festzustellen, ob ein Himmelskörper sich bewegt oder ob er im Universum stillsteht - schließlich ist alles relativ.
Die zweite wichtige Aussage ist, daß die Lichtgeschwindigkeit im Vakuum einen konstanten Wert annimmt, der unabhängig von der Geschwindigkeit der Quelle und des Beobachters ist.
Dieser Wert (299 792 458 m/s) kann auch nicht überschritten werden. Wenn sich, um ein Beispiel zu nennen, zwei Autos mit einer Geschwindigkeit von je 100 km/h aufeinander zubewegen, so ergibt sich eine Aufprallgeschwindigkeit von 200 km/h (v1 + v2 = v1+2). Nehmen wir jetzt an, daß beide Autos ihre Scheinwerfer eingeschaltet haben und sich die Lichtstrahlen mit je ca.
300 000 km/s nähern. Sie treffen dabei allerdings nicht mit 600 000 km/s aufeinander, sondern bloß mit 300 000 km/s (c1 + c2 = c1 = c2 = c). Auch wenn wir die Geschwindigkeit der Autos berücksichtigen, so ändert das nichts am Ergebnis (v1 + c1 + v2 + c2 = c). Es gibt auch noch einen weiteren Sonderfall, den ich hier erörtern möchte: Würden die Autos mit je 80 % der Lichtgeschwindigkeit zusammenstoßen, dann wäre die Aufprallgeschwindigkeit zwar größer als 80 % von c, sie würde aber trotzdem kleiner sein als c (0,8 c < 0,8 c + c < c).
Wenn sich die Lichtgeschwindigkeit also nicht ändert, so müssen dies andere Werte tun. Am naheliegendsten sind hier wohl die Länge und die Zeit, weil diese beiden in der Formel v = s/t direkt bzw.
indirekt mit der (Licht-)Geschwindigkeit verknüpft sind.
Die Längenkontraktion ist schon durch zahlreiche Experimente bestätigt worden, vor allem in Versuchen mit my-Mesonen. Das sind Teilchen, die in der Atmosphäre durch kosmische Strahlung entstehen. Obwohl sie eine Zerfallszeit von nur 2*10-6 s haben und daher bloß 600 m zurücklegen können, erreichen einige von ihnen die Erdoberfläche. Der Grund liegt darin, daß sie sich beinahe mit Lichtgeschwindigkeit bewegen und der Weg durch die Atmosphäre deshalb verkürzt wird.
Natürlich gibt es auch Beispiele, in denen sich die Zeitdehnung nachweisen läßt.
So vergeht die Zeit in Flugzeugen, die sich entweder mit oder gegen die Rotationsbewegung der Erde bewegen, verschieden schnell. Die Unterschiede spielen sich in solchen Fällen allerdings nur im Nanosekunden-Bereich ab, wodurch deutlich wird, daß das Relativitätsprinzip erst bei großen Geschwindigkeiten (bzw. großen Massen und Energien) richtig zur Geltung kommt. Deshalb arbeiten wir in Bereichen des "täglichen Lebens" auch weiterhin mit den Newtonschen Bewegungsgesetzen. In der Theorie vergeht zwar die Zeit für einen Menschen, der sich in Bewegung befindet, langsamer als für einen ruhenden, doch dieser Wert liegt weit unterhalb jedes meßbaren Bereiches. Es kommt noch hinzu, daß sich die eine Person relativ zur anderen in Bewegungsrichtung verkürzt, aber auch hier kann man den Unterschied nicht wahrnehmen.
Ein weiterer Faktor, der sich mit zunehmender Annäherung an die Lichtgeschwindigkeit deutlich verändert, ist die Masse. Wird ein Körper beschleunigt, so erhöht sich seine Energie. Dieser Energiezuwachs ist allerdings nicht nur auf die gesteigerte Geschwindigkeit zurückzuführen, sondern auch auf den Massezuwachs, den dieser Körper erfährt. Je mehr sich der Körper nun der Lichtgeschwindigkeit nähert, desto größer wird seine Masse und desto mehr Energie wird benötigt, um ihn noch weiter zu beschleunigen. Um die Lichtgeschwindigkeit zu erreichen oder sie gar zu übertreffen, wäre ein unendlich großer Energiewert notwendig. Daß die Photonen ("Lichtteilchen") sich trotzdem mit fast 300 000 km/s durch das Vakuum bewegen können, liegt daran, daß sie keine Ruhemasse besitzen.
Sie sind also masselose "Teilchen" (auf die Welle/Teilchen-Problematik werde ich im Laufe dieser Arbeit noch genauer eingehen), aber sie befinden sich nie in einem Ruhezustand, weshalb die Ruhemasse nur ein fiktiver Wert ist. Anstelle einer Masse besitzen sie Energie, womit wir auch schon bei der nächsten wichtigen Schlußfolgerung Einsteins angelangt wären: Masse und Energie sind äquivalent - Masse kann in Energie umgewandelt werden (was z. B. auf der Sonne geschieht) und umgekehrt. All dies hat Einstein in seiner berühmten Formel E = mc2 sehr anschaulich zum Ausdruck gebracht. Diese Formel sagt auch aus, daß schon sehr kleine Massen riesige Energiemengen freisetzen können, was uns Atombombenabwürfe auf überaus schreckliche Weise demonstriert haben.
Die letzte Konsequenz aus der Speziellen Relativitätstheorie, die ich hier anführen möchte, ist die Verbindung von Raum und Zeit zur vierdimensionalen Raumzeit. Einstein sah Raum und Zeit erstmals als physikalische Größen an, die darüber hinaus noch untrennbar miteinander verbunden sind. Was die Zeitdimension am stärksten von den drei Raumdimensionen unterscheidet, ist die Tatsache, daß wir uns in ihr nur in eine Richtung bewegen können - nämlich von der Vergangenheit in die Zukunft. Wie vorhin schon erwähnt, kann die Geschwindigkeit, mit der wir in der Zeit fortschreiten, verändert werden, allerdings nur innerhalb bestimmter Grenzen: Die Relativitätstheorie verbietet uns, uns in der Zeit rückwärts zu bewegen. Das bleibt vorerst nur den Science Fiction - Autoren vorbehalten.
Die Allgemeine Relativitätstheorie
Nach 1905 machte sich Einstein daran, eine weitere Unvereinbarkeit zwischen seiner Speziellen Relativitätstheorie und den Aussagen Newtons zu untersuchen.
Laut Newton breitete sich die Gravitationskraft nämlich mit sofortiger Wirkung, sprich schneller als das Licht, aus. Dies stand natürlich im Widerspruch zu Einsteins Untersuchungen. Das Ergebnis seiner Berechnungen - die Allgemeine Relativitätstheorie - veröffentlichte Einstein 1916. In dieser bahnbrechenden Arbeit gelang es ihm, die Widersprüche weitgehend zu beseitigen und eine vollkommen neue Theorie der Gravitation aufzustellen. Im folgenden möchte ich nun Einsteins Vorgehensweise in ihren wesentlichen Zügen beschreiben.
Begonnen hat Einstein mit einem Gedankenexperiment: Man stelle sich eine Person vor, die sich mit einem Fahrstuhl nach unten bewegt.
Wenn nun die Beschleunigung des Fahrstuhls der Erdbeschleunigung entspricht, so müßte sich die Person in einem schwerelosen Zustand befinden. Dieser "Versuch" könnte aber auch auf andere Weise gestaltet werden: Angenommen der Fahrstuhl befindet sich im leeren Raum, weitab von jeder Materie, die eine Anziehung auf ihn ausüben könnte. Wenn er nun durch eine fiktive Kraft aufgehoben, also nach oben beschleunigt wird, dann wirkt auf unsere Person eine Kraft, die der Anziehung eines Planeten entspricht. Die Person schwebt jetzt nicht mehr im Fahrstuhl, sondern sie steht (hoffentlich) mit beiden Beinen am Boden. Ein Gegenstand, den sie in der Hand gehalten hat und dann ausläßt, würde auf den Boden fallen, genau wie auf der Erde oder einem anderen Planeten. Es ist dabei übrigens egal, wie groß oder wie schwer der Körper ist - diese Kraft, wir nennen sie Gravitation, wirkt nämlich auf alle Körper gleich.
Der einzige Grund, warum eine Feder trotzdem langsamer fällt als eine Eisenkugel, die in derselben Höhe fallengelassen wird, liegt am Luftwiderstand.
Diese Überlegung führte Einstein zu der Annahme, daß Beschleunigung (bzw. Trägheit) und Gravitation einander entsprechen. Dieses Äquivalenzprinzip stellt auch zugleich die Hauptaussage der Allgemeinen Relativitätstheorie dar. Im Grunde genommen kann man sagen, daß Einstein die Spezielle Relativitätstheorie auf beschleunigte Systeme anwandte und so zu seiner Gravitationstheorie gelangte. Die Gravitation selbst beschrieb er als eine Krümmung der Raumzeit, verursacht durch die Massen und Energien, die sich in ihr befinden.
Die kürzeste Verbindung (Geodäte) auf einer gekrümmten Oberfläche ist eine gebogene Linie, keine Gerade. Zum besseren Verständnis kann man sich ein Flugzeug vorstellen, das angenommen auf der kürzestmöglichen Strecke von Wien nach New York fliegt. Aufgrund der Erdkrümmung ist diese Strecke allerdings nicht gerade, sondern gebogen. Und auf dieselbe Art verhalten sich auch die Planeten, wenn sie um die Sonne kreisen: Sie folgen dem kürzesten Weg in einer gekrümmten Raumzeit - daraus resultieren die Umlaufbahnen.
Um seine neue Theorie zu bestätigen, wandte er sie auf die Berechnung der Umlaufbahn des Merkur, des sonnennächsten Planeten, an. Die Bahnellipse verändert nämlich geringfügig ihren Scheitelpunkt (Perihelwanderung) - eine Tatsache, die dazu führte, daß Newtons Methoden bei der Berechnung versagten.
Einstein jedoch gelangte zum richtigen Ergebnis und erhielt somit einen ersten Nachweis der Korrektheit seiner Aussagen.
Eine weitere Bestätigung fand die Theorie durch die Untersuchung einer Sonnenfinsternis im Jahre 1919. Dabei stellte man fest, daß das Licht von Sternen, die sich hinter der Sonne befinden, abgelenkt wird (schließlich besitzt das Licht, obwohl / oder gerade weil es nur aus Energie besteht, Masseeigenschaften und unterliegt somit der Gravitation).
Doch die Gravitation - oder besser gesagt die Krümmung der Raumzeit - hat auch Auswirkungen auf den Zeitablauf[2]: Je nachdem ob wir uns am Meer oder auf der Spitze eines sehr hohen Berges befinden, vergeht die Zeit verschieden schnell. Um genau zu sein, beschleunigt sich der Ablauf um 10-13 s pro Kilometer über der Meereshöhe. Aufgrund dieses äußerst kleinen Wertes hat dieses Phänomen auf unseren Alterungsprozeß praktisch keinen Einfluß.
Würden wir uns allerdings auf der Sonne aufhalten, könnten wir unsere Lebenszeit um etwa 30 Sekunden pro Jahr verlängern.
Doch kehren wir wieder auf unsere Erde zurück bzw. 20 000 km darüber: In dieser Höhe befinden sich nämlich Navigationssatelliten, welche die Position auf der Erde bis auf wenige Meter genau bestimmen können (für militärische Zwecke ist sogar eine noch höhere Genauigkeit verfügbar). Obwohl die Verkürzung der Zeit durch die Eigengeschwindigkeit der Satelliten teilweise ausgeglichen wird, besteht trotzdem ein Unterschied von 38 Mikrosekunden pro Tag. Um dennoch exakte Standortbestimmungen durchführen zu können, muß der Zeitunterschied dementsprechend korrigiert werden.
Ein weiterer Punkt, den ich erwähnen möchte, ist, daß die Raumzeit durch die Allgemeine Relativitätstheorie zu einer dynamischen Größe wird.
Das heißt also, sie wird von bewegten Körpern und von Kräften beeinflußt, sprich gekrümmt, aber durch ebendiese Verformung beeinflußt sie selbst die Bewegung von Körpern und die Wirkungsweise von Kräften. Die Raumzeit ist nicht länger ein passiver Hintergrund, in dem die Ereignisse stattfinden.
Daß auch so große Denker wie Albert Einstein irren können, zeigt sein Versuch, durch die Einführung der sogenannten kosmologischen Konstante die Gleichungen der Allgemeinen Relativitätstheorie teilweise künstlich zu beeinflussen. Laut seiner Theorie war es nämlich unmöglich, daß das Universum statisch ist - es mußte sich entweder ausdehnen oder zusammenziehen. Einstein war aber so sehr von einem gleichbleibenden Weltall überzeugt, daß er die (immer positiv wirkende) Gravitationskraft durch die kosmologische Konstante ausglich. Erst als Edwin Hubble 1929 beobachtete, daß ferne Galaxien sich fortbewegen, war Einstein von der Expansion überzeugt.
Später nannte Einstein diesen kosmologischen Term "die größte Eselei meines Lebens".
Quantenmechanik
Der Welle/Teilchen-Dualismus
Schon zu Newtons Zeiten waren die Physiker sich nicht darüber einig, ob das Licht nun aus Wellen oder aus Teilchen bestehe. Newton selbst sprach vom Licht aber als Teilchenstrom, und seine damalige Autorität reichte aus, die meisten seiner Kollegen zu überzeugen. Doch seit Beginn des 19. Jahrhunderts wurden laufend Experimente durchgeführt, die diese These entweder zu bestätigen oder zu widerlegen schienen. Es kam zu einer regelrechten Krise in der Physik, die sich dadurch bemerkbar machte, daß oft ein und derselbe Universitätsprofessor sowohl die Teilchen- als auch die Wellennatur des Lichts lehrte.
Im Jahre 1905, als gerade wieder das Wellenbild vorherrschte, veröffentlichte Albert Einstein seine Arbeit über den photoelektrischen Effekt (wofür er 1921 mit dem Nobelpreis ausgezeichnet wurde). Darin konnte er glaubwürdig darlegen, daß das Licht aus einzelnen Energiepaketen (Lichtquanten; später: Photonen) besteht. Bei seinem Versuch ging er dabei folgendermaßen vor: Eine Metallplatte wird mit ultraviolettem, also hochfrequentem Licht bestrahlt. Bei diesem Vorgang lösen sich Elektronen aus der Platte. Verringert man nun die Frequenz des Lichtes, so lösen sich keine Elektronen mehr ab; sogar wenn man die Bestrahlungsdauer beliebig erhöht. Der Grund liegt darin, daß die langwelligen Photonen für solch einen Vorgang einfach zu wenig Energie besitzen.
Wer allerdings dachte, mit diesem Versuch eine ausreichende Erklärung gefunden zu haben, der wurde bald enttäuscht[3]: 1924 schrieb Louis de Broglie in seiner Doktorarbeit von der Wellennatur des Elektrons (!). Dieses hatte bisher stets als Teilchen im klassischen Sinn gegolten. Es ist also durchaus verständlich, daß er beim Prüfungsausschuß auf Skepsis stieß. Erst als Albert Einstein, dem die Arbeit ebenfalls vorgelegt wurde, die darin enthaltenen Ideen lobte, erhielt de Broglie seinen Doktortitel. Drei Jahre später wurde seine Theorie schließlich experimentell bestätigt.
Doch was versteht man eigentlich unter den Welleneigenschaften des Elektrons? Vorhin sprach ich noch von Photonen, jetzt ist auf einmal von Elektronen die Rede.
Um den Leser nicht zu verwirren, möchte ich darauf hinweisen, daß man diese beiden Begriffe keinesfalls verwechseln darf. Photonen sind masselose Teilchen, die sich nur mit Lichtgeschwindigkeit ausbreiten können. Elektronen hingegen besitzen sehr wohl eine Ruhemasse und können sich folglich auch nur langsamer als das Licht bewegen. Darüber hinaus bilden sie die Hülle der Atome. Trotz dieser scheinbar krassen Gegensätze verbindet diese beiden (und auch alle anderen mikroskopischen Objekte) eine Eigenschaft, die sich Dualität von Welle und Teilchen nennt.
Zur Verdeutlichung dieses Begriffes ist das Doppelspaltexperiment recht gut geeignet: Hierbei geht es darum, daß man Elektronen (man könnte genausogut Photonen verwenden!) durch zwei schmale Spalte einer Metallplatte schickt.
Nach der klassischen Vorstellung werden sie also als Teilchen fortgeschickt. Nachdem sie die beiden Öffnungen, durch die sie verschieden stark abgelenkt (gebeugt) werden, passiert haben, werden sie von einem Detektorschirm aufgefangen und dadurch sichtbar gemacht. Die Elektronen kommen auf diesem Schirm einzeln, also wiederum in Teilchenform an. Doch entgegen unserer logischen Erwartung bilden sie ein für Wellen (!) typisches Interferenzmuster. Um wieder klassische Begriffe zu verwenden, könnte man sagen, daß die Fortpflanzung des Elektrons in Wellenform abgelaufen ist.
Ich denke der Leser sollte jetzt ausreichend verwirrt sein, um die "Wahrheit" zu erfahren:
"Wir glauben, daß deutlich gesagt werden soll, was das Licht ist, nämlich "Licht ist keines von beiden"; und genauso muß gesagt werden "Das Elektron ist keines von beiden".
Denn beide Beschreibungen, Welle bzw. Teilchen, sind klassische Bilder und benutzen klassische, verständliche Größen zur Definition: Auf jeden Fall sind diese klassischen Begriffe nicht geeignet, ein quantenmechanisches Objekt vollständig zu beschreiben." (Hubich/Mathelitsch/Kobler, Schrödinger-Gleichung in der Schule?, S.9)
"Wir müssen jegliche Hoffnung aufgeben, die Vorgänge auf atomarer Ebene mit unseren gängigen Begriffen und Vorstellungen wie Teilchen und Wellen anschaulich beschreiben zu können." (Hey/Walters, Quantenuniversum, S.19)
Das alles heißt natürlich nicht, daß Sie die angeführten Beispiele, in denen von Wellen bzw.
Teilchen die Rede war, wieder vergessen sollen, weil sie ja sowieso "falsch" sind. Vielmehr sollten Sie sich bewußt werden, daß diese Begriffe nun einmal die einzigen sprachlichen Mittel sind, diese Phänomene darzustellen. Auf mathematische Weise können sie freilich viel besser erklärt werden, doch werden sie dadurch nur mehr für einen kleinen Personenkreis zugänglich und würden den Rahmen einer populärwissenschaftlichen Arbeit sprengen.
Aus diesem Grund werde ich hier auch weiterhin die klassischen Begriffe verwenden, in der Hoffnung, daß der Leser sie aus dem richtigen Blickwinkel betrachtet. Und falls Sie die Quantenmechanik immer noch für äußerst verwirrend halten, dann sei Ihnen ein Zitat des berühmten Physikers Richard Feynman ans Herz gelegt: "..
.ich denke, ich kann davon ausgehen, daß niemand die Quantenmechanik versteht."
Die Unschärferelation
Es sind nicht nur die Vorstellungen von Elektron und Photon, die durch die Quantenmechanik umgekrempelt werden - auch der Glaube an eine absolute Vorhersagbarkeit (zumindest im Mikrokosmos, also der Welt des ganz Kleinen) wird durch sie zu Fall gebracht. Vielmehr herrscht im atomaren und subatomaren Bereich eine generelle Unbestimmtheit vor; es ist sozusagen eine Welt der Unsicherheit.
Um dies näher zu erläutern, möchte ich wieder auf das Doppelspaltexperiment zurückkommen. Stellen wir uns die Elektronen in diesem Fall als Teilchen vor, die auf den Detektorschirm auftreffen.
Das Problem, das sich dabei zeigt ist, daß wir nicht vorhersagen können, an welcher Stelle sie den Schirm berühren werden. Wir können höchstens Wahrscheinlichkeitsaussagen, gemäß der Verteilung des Interferenzmusters, treffen. Wenn man nun versucht, den Weg eines einzelnen Elektrons genauer zu analysieren, so ist der erste Stolperstein, der einem dabei im Weg liegt, daß man gar nicht weiß und auch nicht wissen kann, durch welchen der beiden Spalte das Elektron hindurchgeht. Natürlich, so könnte man meinen, wäre dies durch eine Messung feststellbar: Wenn man die Elektronen nach dem Passieren der Öffnungen mit Licht (Photonen) bestrahlt, sollte man doch aufgrund der Reflexion der Lichtteilchen Aussagen über die Position des Elektrons erhalten[4]. Dies wäre also eine Ortsbestimmung nach klassischer Vorstellung, die in größeren Maßstäben ohne weiteres anwendbar ist. In unserem konkreten Fall ergeben sich allerdings gleich zwei Problempunkte:
Zum einen würden die Photonen, die auf das Elektron treffen, um es zu lokalisieren, dieses so stark beeinflussen (Rückstoßprinzip!), daß es von seiner ursprünglichen Bahn abkommen würde.
Und zum anderen würde auf dem Sichtschirm nun kein Interferenzmuster mehr entstehen, sondern eine Häufigkeitsverteilung, wie man sie von einem klassischen Teilchen erwarten würde.
Der zweite Punkt bedeutet also, daß der Meßvorgang das Ergebnis beeinflußt und es für unsere Zwecke unbrauchbar macht. Der andere Punkt hingegen ist sogar noch grundlegender, weshalb ich ihn an dieser Stelle ausführlicher beschreiben möchte.
Das Elektron wird, wie schon erwähnt, von den Photonen weggestoßen. Das hat zur Folge, daß es seine Geschwindigkeit oder genauer gesagt seinen Impuls verändert. Der Impuls eines Körpers setzt sich aus seiner Geschwindigkeit und seiner Masse zusammen.
So hat zum Beispiel eine Eisenkugel einen größeren Impuls als ein Tischtennisball, der sich mit gleicher Geschwindigkeit bewegt. Auch die masselosen Photonen besitzen einen Impuls, weil ihre Energie einer Masse äquivalent ist.
Würden wir die Frequenz und somit die Energie der Photonen erhöhen, um eine exaktere Positionsbestimmung zu erhalten, so würde das Elektron stärker abgestoßen werden und seine Geschwindigkeit um einen größeren Betrag verändern.
Wenn wir nun ein (Gedanken-)Experiment durchführen, in dem das Elektron seinen Wellencharakter zeigt, so könnten wir seinen Impuls mit Hilfe der Frequenz der Welle genau bestimmen. Allerdings besitzt eine Welle keinen festgelegten Ort - sie ist praktisch räumlich verteilt.
Man kann somit sagen, daß die Ortsbestimmung umso ungenauer (unschärfer) ist, je besser wir den Impuls bestimmen und umgekehrt.
Der deutsche Physiker Werner Heisenberg war der erste, der diesen Zusammenhang erkannte und ihn in einer Formel zusammenfaßte. Diese lautet, daß das Produkt von Ortsunschärfe und Impulsunschärfe nie kleiner sein kann als das Plancksche Wirkungsquantum (h = 6,6*10-34 Js).[5] Da dieser Wert so klein ist, wird deutlich, warum die Unbestimmtheit nur in äußerst kleinen Bereichen zur Geltung kommt.
Die Heisenbergsche Unschärferelation dient nicht nur als wichtige Grundlage für die Quantenmechanik, sondern sie ist auch "eine fundamentale, unausweichliche Eigenschaft" (Hawking, Eine kurze Geschichte der Zeit, S.77). Sie gilt also für alle Arten von Teilchen sowie für alle unterschiedlichen Meßmethoden.
Eine mögliche Berechnungsmethode für die Aufenthaltswahrscheinlichkeit wurde von Richard Feynman entwickelt und nennt sich Pfadintegralmethode oder auch Aufsummierung von Möglichkeiten. Vereinfacht dargestellt geht es darum, daß ein Teilchen (wie z. B. unser Elektron im Doppelspaltexperiment) jeden möglichen Weg zurücklegt. Jedem dieser Wege ist ein eigener Wahrscheinlichkeitswert zugeordnet. Addiert man nun alle diese Werte auf, so erhält man den Ort, an dem man das Teilchen vermutlich finden wird.
Bei obengenanntem Experiment entspräche das also einem bestimmten Punkt auf dem Sichtschirm. Wie wir später noch sehen werden, ist diese Methode auch wichtig bei der Suche nach einer Theorie, in der die Quantenmechanik und die Gravitation zusammengefaßt werden sollen.
Das Universum
Anfang - Entwicklung - Zukunft
Manch einer fragt sich vielleicht, was Wissenschaftler dazu bewegt, sich mit Situationen zu beschäftigen, die kein Mensch jemals erleben wird. Sei es nun, weil sie schon längst vergangen sind (wie z. B. der Urknall) oder weil sie in unerreichbarer Zukunft liegen (wie z.
B. das "Verglühen" unserer Sonne oder das Ende des gesamten Universums). Einfach nur zu sagen, daß sie es aus purem Wissensdrang tun, wäre wahrscheinlich zu wenig. Wenn es auf den ersten Blick auch nicht so scheinen mag, so steckt doch eine Notwendigkeit dahinter, die auch uns einmal zugute kommen kann. Nur wenige wissen nämlich von der Tatsache, daß diese Grundlagenforschung in weiterer Folge auch für die Entwicklung im technischen Bereich ausschlaggebend ist.
In diesem Kapitel möchte ich mich nun mit den überaus erstaunlichen Entdeckungen und Erkenntnissen über unser Universum auseinandersetzen.
Obwohl eigentlich jedes Kind den Begriff Urknall kennt, ist es den Physikern bis heute noch nicht gelungen, ihn ausreichend zu erklären. Bei früheren Berechnungen, für die man nur die Allgemeine Relativitätstheorie heranzog, erhielt man stets eine sogenannte Singularität. Diese ist vergleichbar mit einer Division durch Null - also einem unmöglichen Wert. Für Physiker und Mathematiker ist solch ein Ergebnis wirklich zum Verzweifeln. Es bedeutet nämlich, daß alle bekannten Naturgesetze versagen, ja die Relativitätstheorie sich praktisch selbst ad absurdum führt.
In den 40er Jahren wollten einige Wissenschaftler dieses Problem umgehen, indem sie behaupteten, daß das Universum schon seit ewigen Zeiten bestehe und immer in einem gleichbleibenden Zustand verharre.
Da man zu dieser Zeit bereits wußte, daß das Weltall expandiert und seine Dichte deshalb ständig kleiner werden muß, wollten sie diesen Vorgang durch eine ständige Bildung von Materie im All umgehen. In der Theorie wäre dies sogar möglich gewesen, weil diese Materieerzeugung unter jedem meßbaren Bereich gelegen wäre. Doch zwanzig Jahre später wurde diese Steady-State-Theorie endgültig widerlegt, als der Mikrowellen-Strahlenhintergrund entdeckt wurde, der nur mit Hilfe des Urknalls erklärt werden konnte.
Wissenschaftlern wie Stephen Hawking ist es nun zu verdanken, daß in den letzten Jahren und Jahrzehnten entscheidende Fortschritte bei der Erforschung des Urknalls gemacht worden sind. Wie wir aber noch sehen werden, stößt man immer wieder auf scheinbar unlösbare Probleme, die sich dabei ergeben.
Bevor ich allerdings auf Hawkings Ideen genauer eingehe, möchte ich das klassische Modell des Kosmos erklären, welches der sowjetische Mathematiker Alexander Friedmann in den 20er Jahren aufgestellt hat.
Demzufolge begann das Universum vor etwa 15 Milliarden Jahren (Mittelwert, der durch die Fluchtgeschwindigkeit der Galaxien berechnet wird) mit dem Urknall. Die Raumzeit war damals unendlich stark gekrümmt und von unendlicher Dichte.[6] Daraufhin begann das Universum sich mit unglaublicher Geschwindigkeit auszudehnen. Auf die erste Sekunde nach dem Urknall, in der sich überaus viel ereignet hat, möchte ich ein wenig später eingehen; nicht zuletzt deshalb, weil es darüber kaum gesicherte Information gibt.
Beginnen wir unsere Reise durch die Raumzeit also eine Sekunde nach dem Punkt Null. Das Universum hatte damals bereits einen Radius von rund vier Lichtjahren.
Dies ist deshalb möglich, weil die Expansion des Raumes nicht an die Lichtgeschwindigkeit gebunden ist - der Raum eilte dem Licht praktisch davon. Das Horizontproblem, welches sich daraus ergibt, wird im Laufe dieses Kapitels noch näher erläutert werden. Es herrschte eine Temperatur von mindestens zehn Milliarden Grad (1010 K) und die Dichte war etwa 500 000 mal so hoch wie die des Wassers. Die Elektronen, die zu dieser Zeit reichlich vorhanden waren, stießen meist mit ihren Antiteilchen, den Positronen zusammen und erzeugten auf diese Weise Strahlung in Form von Photonen. So entstanden noch mehr Photonen, als es damals ohnehin schon gab. Reste dieser Strahlung sind auch heute noch vorhanden - sie bilden den Mikrowellen-Strahlenhintergrund.
Durch die starke Abkühlung (auf 3 Grad über dem absoluten Nullpunkt von -273,15deg.C) ist diese Strahlung allerdings nicht sehr energiereich - also nicht zu vergleichen mit jener im Mikrowellenherd. Eine dritte Art von Teilchen, die in großer Zahl vorkamen, waren die Neutrinos. Aufgrund zu schwacher Wechselwirkungen vernichteten sie sich nicht zusammen mit ihren Antiteilchen, sondern blieben bestehen. Daraus folgert man, daß sie auch heute noch stark vertreten sein müssen. Zwar ist ihr Nachweis, der sich aufgrund ihrer niedrigen Energie extrem schwierig gestaltet, schon gelungen, doch ist man sich noch nicht im klaren darüber, ob sie eine Ruhemasse besitzen oder ob sie wie die Photonen masselos sind.
Des weiteren gab es auch noch Protonen und Neutronen, also die Bausteine der Atomkerne. Nach etwa hundert Sekunden begannen diese, sich zu Deuteriumkernen (= Kerne des schweren Wasserstoffs) zusammenzuschließen. Durch Verbindung mit je einem weiteren Proton und Neutron bildeten sich schließlich Heliumkerne. Die übriggebliebenen Protonen (es gab etwa fünfmal mehr als Neutronen) zerfielen zu Kernen des gewöhnlichen Wasserstoffs. Bereits nach einigen Stunden war die Bildung der Atomkerne beendet. Das Universum expandierte ruhig vor sich hin, wobei Dichte und Temperatur ständig abnahmen und die Ausdehnungsgeschwindigkeit sich aufgrund der Gravitation zwischen der Materie immer mehr verlangsamte.
Als das Weltall ungefähr eine Million Jahre alt war und seine Temperatur nur mehr ein paar tausend Grad betrug, konnten sich die Atomkerne mit den herumschwirrenden Elektronen zu vollständigen Atomen verbinden. In erster Linie entstanden Wasserstoff und Helium und zwar im Verhältnis 3H : 1He. In regional dichteren Gebieten zeigte nun die Schwerkraft etwas stärkere Auswirkungen, und - für unsere Begriffe - riesige Gaswolken begannen sich zusammenzuziehen. Auf diese Weise bildeten sich, vereinfacht dargestellt, die Galaxien. Einige, wie z. B.
unser Milchstraßensystem, wurden bei diesem Prozeß in Rotation versetzt, andere nahmen eine elliptische Form an und blieben in einer Ruheposition. Bei solch einer elliptischen Galaxis kreisen nur einzelne Teilbereiche in stabilen Bahnen um ein Zentrum.
Ebenfalls aufgrund lokaler Dichtefluktuationen und durch die Wirkung der Schwerkraft bildeten sich innerhalb der Galaxien die Sterne und schließlich auch die Planeten.
Dieses klassische Urknallmodell, wie ich es hier beschrieben habe, läßt allerdings noch einige Fragen offen. Es erklärt zum Beispiel nicht, warum das Universum in alle Richtungen mit derselben Geschwindigkeit expandiert und warum es, großräumig betrachtet, so gleichförmig ist. Letzteres schließt man daraus, daß die Mikrowellen-Strahlung (eine Art Rest des Urknalls) nahezu gleich ist, egal aus welcher Richtung sie kommt.
Weiters gibt dieses Modell keinen Aufschluß über den Ursprung der Dichteschwankungen, ohne die es weder Galaxien, geschweige denn Sterne und Planeten geben würde. Hinzu kommt noch, daß es den Berechnungen zufolge nur etwa zehn Elementarteilchen geben würde. Heute weiß man allerdings, daß es mindestens 1085 Teilchen im beobachtbaren Universum gibt. Fast hat man den Eindruck, als würde das Standard-Urknallmodell mehr Fragen aufwerfen, als es beantwortet. Diese Überlegung ist eigentlich gar nicht so falsch, doch die Wissenschaftler bemühen sich ständig, ihre Theorien zu verbessern und auftretende Probleme zu lösen.
Eine mögliche Erklärung für den derzeitigen Zustand des Universums formulierte Stephen Hawking gemeinsam mit Barry Collins so: "Wir sehen das Universum, wie es ist, weil wir existieren.
" (Hawking, Eine kurze Geschichte der Zeit, S.157). Dieses sogenannte Anthropische Prinzip ist im Grunde genommen nur eine Feststellung, keine naturwissenschaftliche Erklärung. Es gibt sowohl eine schwache, als auch eine starke Form davon. Erstere besagt, daß in bestimmten Regionen des Universums menschliches Leben prinzipiell möglich sein muß. Wenn dem nicht so wäre, gebe es uns schließlich nicht.
Selbst für Naturwissenschaftler ist es kein Problem, diese Formulierung zu akzeptieren. Anders ist die Situation jedoch beim starken Anthropischen Prinzip. Jenes verlangt nämlich, daß das Universum so beschaffen ist, daß sich menschliches Leben entwickeln mußte. Demzufolge müßten also die Anfangsbedingungen mit höchster Sorgfalt gewählt worden sein - eine Annahme, die Hawking für äußerst unwahrscheinlich hält.
Oft versuchen Wissenschaftler, einzelne Naturgrößen zu verändern und diese in ihre Berechnungen einzubauen. Als Ergebnis erhalten sie dann meist ein vollkommen anderes Modell des Weltalls, welches unter Umständen nicht einmal die Entstehung von Galaxien zuläßt.
Daraus nun den Schluß zu ziehen, daß die Anfangsbedingungen speziell für uns Menschen ausgewählt wurden und daß es uns nur aus diesem Grund gibt, ist wohl kaum zulässig. Der Fehler liegt darin, nur eine einzige Größe abzuwandeln und alle anderen beizubehalten, obwohl sie durch die Änderung eigentlich beeinflußt werden. Verdeutlichen läßt sich diese Tatsache anhand eines Beispiels aus der Elektrizität: Um einen stromdurchflossenen Leiter baut sich sowohl ein elektrisches als auch ein magnetisches Feld auf. Da die beiden Felder in direktem Zusammenhang stehen, ist es nicht möglich, eines zu verändern und gleichzeitig das andere konstant zu halten. Versucht man trotzdem, eine derartige Berechnung anzustellen, wird man auf große mathematische Schwierigkeiten stoßen und ein ungültiges Ergebnis erhalten.
Nachdem wir nun die Schwierigkeiten des Urknallmodells und das Anthropische Prinzip, welches keine zufriedenstellende Erklärung liefert, kennengelernt haben, wollen wir uns im Folgenden einer relativ neuen und durchaus vielversprechenden Hypothese zuwenden - der Inflationstheorie.
Ansätze dafür fanden sich 1979 in der Sowjetunion; im Westen war es Alan H. Guth, der 1981 vorschlug, daß sich das Universum in der Anfangsphase für kurze Zeit inflationär, also mit steigender Geschwindigkeit, ausgedehnt hätte. Dies würde bedeuten, daß seine Größe exponentiell zunahm.
Das von Guth vorgeschlagene Modell wurde in den darauffolgenden Jahren von Andreas Albrecht und Paul J. Steinhardt und unabhängig davon von dem russischen Kosmologen Andrei Linde in wesentlichen Punkten verbessert.
Die Inflation ereignete sich etwa in den ersten 10-35 s und ging wenig später in das Urknallmodell über.
Obwohl Aussagen über einen solch frühen Zeitpunkt stets mit Vorsicht zu genießen sind und dieses Modell eng mit der (nur mäßig erforschten) Elementarteilchen-Theorie verbunden ist, liefert es uns dermaßen viele Antworten, daß die Wissenschaftler es für sinnvoll halten, sich eingehend damit zu beschäftigen.
Als erster wichtiger Punkt wäre die Lösung des Horizontproblems zu nennen: Der gleichzeitige Beginn und die Gleichförmigkeit der Expansionsbewegung sind nur dann zu erklären, wenn das Universum zum Zeitpunkt der Entstehung so klein war, daß eine ausgleichende Wirkung stattfinden konnte. Verfolgt man das Friedmann-Modell bis zum Punkt Null zurück, so muß man feststellen, daß das Weltall nie klein genug gewesen wäre, um die notwendigen Bedingungen zu erfüllen.
Abb. 1: Das Diagramm zeigt die ersten Sekundenbruchteile des Universums. Die durchgehende Linie stellt die Ausdehnung gemäß dem Inflationsmodell dar.
Der Horizont gibt an, wie weit sich das Licht und andere Signale in der jeweiligen Zeit ausbreiten konnten. Eine ausgleichende Wirkung konnte nur dann stattfinden, wenn der Horizont im Frühstadium größer war als der Radius des Universums.
Wie in Abb. 1 dargestellt, sind zu Beginn des Universums die Zeit mit 10-43 s und die Größe (=Radius) mit 10-33 cm definiert. Die beiden Werte bezeichnet man als Plancksche Zeit und Plancksche Länge, und sie ergeben sich aus der Unschärferelation. Diese läßt nämlich keine genauere Zeit- bzw.
Längenbestimmung zu - wir haben es hier also mit fundamentalen Größen zu tun. Selbst wenn wir Meßinstrumente besitzen würden, die in der Lage wären, auch solche Bereiche noch zu erfassen (eine vollkommen illusorische Idee), könnten wir die Genauigkeit nicht mehr verbessern, weil es einfach keine kleineren Intervalle für diese beiden Einheiten gibt.
Zum Zeitpunkt 10-43 s wäre das Universum gemäß dem Friedmann-Modell viel größer als die Plancksche Länge. Es hätten niemals alle Bereiche zueinander in Beziehung stehen und eine ausgleichende Wirkung stattfinden können. Geht man umgekehrt vor, indem man mit den Planckschen Einheiten beginnt und die weitere Entwicklung mit dem Standard- Urknallmodell berechnet, so erhält man ein viel zu kleines Weltall. Hier wird die Bedeutung der Inflation offensichtlich: Mit ihrer Hilfe erreicht man die notwendige Größe, und anfängliche Unregelmäßigkeiten werden ausgeglichen.
Darüber hinaus stellen sich auch noch die Werte für die kritische Dichte (die unser Universum ungefähr besitzt) sowie für die kritische Geschwindigkeit (mit der sich das Universum möglicherweise ausdehnt) automatisch ein.
Was die Gleichförmigkeit betrifft, darf der Zustand nicht zu geordnet sein, weil kleine Unregelmäßigkeiten für die Entstehung von Galaxien unbedingt notwendig sind. Es traten daher aufgrund der Unschärferelation Dichteschwankungen im Quantenbereich auf, die allerdings so klein wie möglich gewesen sind. Während der Inflationsphase vergrößerten sich diese Quantenfluktuationen und führten in weiterer Folge zur Bildung von Galaxien, wie sie oben schon beschrieben wurde.
In dem Diagramm (Abb. 1) habe ich bewußt darauf verzichtet, die Größe des Universums nach Beendigung der Inflation anzugeben.
Der Grund liegt darin, daß man sich darüber alles andere als einig ist - die errechneten Werte für die Größenzunahme bewegen sich zwischen 1030 und 101 000 000 000 000 Einheiten. In jedem Fall liegt die Ausdehnung aber über dem Horizont. Mit anderen Worten: Das Universum ist um vieles größer, als der von uns beobachtete Bereich von 1028 cm. Wir sind nämlich bei unseren Untersuchungen an die Lichtgeschwindigkeit gebunden, die durch den Horizont repräsentiert wird.
Eine weitere Folgerung, die sich aus der Inflationstheorie ergibt, lautet, daß durch die Beseitigung großräumiger Unregelmäßigkeiten viele verschiedene Anfangszustände möglich sind. Das starke Anthropische Prinzip, dem Hawking und die meisten anderen Wissenschaftler abneigend gegenüberstehen, wird somit als Erklärungsversuch ausgeschlossen.
Aus Beobachtungen wissen wir, daß das Universum beinahe flach ist. Auch diese Tatsache läßt sich dank der Inflation erklären. Im Prinzip kann man sich diese Flachheit anhand eines einfachen Beispiels besser vorstellen: Wenn wir uns auf einer ebenen Wiese befinden, so käme sicher niemand auf die Idee, diese als gewölbt anzusehen. Trotzdem wissen wir, daß die Erdoberfläche gekrümmt ist. Ein Beobachter auf der Wiese hat aber aufgrund seiner eingeschränkten Sichtweise nicht die Möglichkeit, diese Krümmung zu erkennen. Im Falle des Weltalls verhält es sich fast genauso.
Wie schon erwähnt, können wir nur einen Bruchteil des gesamten Universums erkennen, weil uns das Licht von extrem weit entfernten Bereichen (noch) nicht erreichen kann. Allerdings sind wir in der Lage, mit Hilfe von Theorien gewissermaßen über den Horizont "hinauszublicken". Das Problem dabei ist, daß sich die verschiedenen Hypothesen des öfteren als unvereinbar erweisen.[7]
Zur Zeit ist Andrei Linde der führende Wissenschaftler im Bereich der Inflationstheorie. Der neueste Stand seiner Forschungen besagt, daß das Gesamtuniversum unendlich in seiner Ausdehnung ist und aus blasenähnlichen Teiluniversen besteht. In einem von diesen würden wir uns befinden.
Weiters würden sich aus den bereits vorhandenen Blasen immer wieder neue bilden. Solch ein Vorgang wäre nichts anderes als ein Urknall. Linde behauptet auch, daß diese Entstehungsprozesse fast ständig stattfinden. Er spricht von einem selbstreproduzierenden inflationären Universum.
Eine ebenso interessante wie unwahrscheinliche Idee Lindes ist es, Modell-Universen in Labors herzustellen. Berechnungen zufolge könnte es nämlich möglich sein, durch Komprimieren von Materie Quantenfluktuationen zu erzeugen und auf diese Weise ein mikroskopisches Universum zu erschaffen.
Das würde allerdings die Frage aufwerfen, ob nicht auch unser Universum von einem Wissenschaftler hervorgebracht wurde (Gott als Mathematiker?!).
Einmal abgesehen von solch spekulativen Gedanken haben die einzelnen Physiker unterschiedliche Auffassungen von der Inflationstheorie. So findet John D. Barrow, daß sie "nicht so sehr eine neue kosmologische Theorie als vielmehr eine Erweiterung der Urknalltheorie" ist (J. D. Barrow, Theorien für Alles, S.
174). Aus dem oben beschriebenen Modell Lindes geht jedoch hervor: "Der Urknall ist ein Teil der inflationären Theorie" (A. Linde, Spektrum der Wissenschaft 1/1995: Das selbstreproduzierende inflationäre Universum, S.39).
Wie auch immer - fest steht, daß die Forschungen in diesem Bereich noch lange nicht beendet sind und die Modelle und Berechnungen ständig erweitert und modifiziert werden (müssen).
Die Urknall-Singularität stellt für die Wissenschaftler noch immer ein großes Problem dar.
Es wird versucht, sie mit allen erlaubten mathematischen Mitteln zu umgehen. Stephen Hawking führte aus diesem Grunde den Begriff der imaginären Zeit ein. Vom mathematischen Standpunkt aus betrachtet, ist es eigentlich nicht schwierig, diesen Begriff zu definieren: Die imaginäre Zeit wird mit komplexen Zahlen (z. B.: Wurzel einer negativen Zahl) gemessen. Die Erklärung in Worte oder Bilder zu fassen, gestaltet sich aber wesentlich komplizierter.
Sogar Hawking selbst gibt zu, daß "die imaginäre Zeit [...] den Lesern [...
] die meisten Probleme bereitet hat" (S. W. Hawking, Einsteins Traum, S.77). Nichtsdestotrotz möchte ich versuchen, diesen Begriff etwas verständlicher zu machen: Zuerst muß man davon ausgehen, daß das Weltall unbegrenzt und endlich ist. Zur Verdeutlichung stellen wir uns vor, mit einem Flugzeug die Erde zu umrunden.
Vorausgesetzt uns steht ausreichend Treibstoff zur Verfügung, werden wir, wenn wir immer geradeaus fliegen, früher oder später wieder an unseren Ausgangspunkt gelangen. Aus dieser Tatsache folgt, daß die Erde unbegrenzt ist. Die Endlichkeit wiederum ergibt sich daraus, daß wir die Größe unseres Planeten messen können.
Hawking legt diese Begriffe nun auf den Kosmos um[8], wobei allerdings vier Dimensionen berücksichtigt werden müssen. Die eigentliche Bedeutung der imaginären Zeit wird einem bewußt, wenn man sich wiederum die Erde als Modell vor Augen führt: Der Nordpol repräsentiert in diesem Fall den Urknall. Von hier aus dehnt sich das Universum in der imaginären Zeit aus, bis es den Punkt maximaler Expansion (=Äquator) erreicht.
Dann beginnt es wieder zu kontrahieren, bis es schließlich in einem Punkt (=Südpol) zusammenstürzt. Wenn wir dieses Szenario ein wenig genauer betrachten, so fällt auf, daß die Anfangs- und Endsingularitäten verschwunden sind: Selbst wenn wir uns im Punkt Null befinden (Nord- bzw. Südpol), behalten die Naturgesetze ihre Gültigkeit. Doch diese Tatsache allein macht die imaginäre Zeit bestenfalls zu einem Gedankenexperiment - ein konkreter Nutzen ist hier noch nicht erkennbar. Erst wenn es darum geht, Quantenmechanik und Gravitation in Einklang zu bringen, werden wir uns ihrer Bedeutung bewußt. Auf der Suche nach einer Quantengravitation bedient man sich nämlich unter anderem der Feynmanschen Aufsummierung von Möglichkeiten.
In diesem Fall wird sie allerdings auf die gesamte Raumzeit angewendet. Zu diesem Zweck verwendet man die imaginäre Zeit, weil es mit ihrer Hilfe einfacher ist, die einzelnen Geschichten aufzusummieren.
Bei all diesen gedanklichen Weltreisen darf man natürlich nicht darauf vergessen, daß wir uns immer in der realen Zeit befinden. Darum ist es laut Hawking auch vollkommen legitim, die oben genannte Vorgehensweise als bloßen mathematischen Trick zu bezeichnen - hier gilt vielmehr "gut ist, was nützt".
Nachdem Hawking von mehreren Seiten kritisiert wurde, weil er die imaginäre Zeit, einen Begriff, der künstlicher und realitätsferner gar nicht sein kann, eingeführt hat, versuchte er, sich auf einem Vortrag im Juli 1991 zu rechtfertigen, indem er auf berühmte Vorgänger wie Kopernikus und Galilei verwies. Ein wenig übertreibend sagte er schließlich: "Es ist ein geistiger Sprung von der gleichen Art wie die Erkenntnis, daß die Erde rund ist.
Eines Tages werden wir die imaginäre Zeit für ebenso selbstverständlich halten wie heute die Rundung der Erde." (S. W. Hawking, Einsteins Traum, S.77)
Über die Zukunft des Universums gibt es eigentlich noch spekulativere Behauptungen als über die Anfangsphase. Dies zeigt sich besonders deutlich in den vielen verschiedenen Aussagen, die einzelne Wissenschaftler darüber machen.
Natürlich soll hier versucht werden, in erster Linie Hawkings Standpunkt darzulegen, es wäre allerdings völlig falsch und intolerant, nicht auch andere ernstgemeinte Hypothesen zu erwähnen.
Einig sind sich die Wissenschaftler darüber, daß das Schicksal unseres Universums von der mittleren Materiedichte und in weiterer Folge von der Expansionsgeschwindigkeit abhängt. Für beide gibt es einen kritischen Wert, der eine Art Grenze zwischen dem offenen und dem geschlossenen Modell des Kosmos darstellt. Ersteres bedeutet, daß die vorhandene Masse nicht groß genug wäre, um die Ausdehnung des Weltalls jemals zu stoppen und eine Kontraktionsbewegung einzuleiten. Das Universum würde sich also ins Unendliche, was auch immer das sein mag, ausbreiten. Beim zweiten Modell allerdings würde es zu einem Zeitpunkt in ferner Zukunft kollabieren und schließlich wieder in einen Punkt zusammenstürzen - eine Art umgekehrter Urknall also.
Als drittes ist auch noch der Grenzfall möglich, daß exakt der kritische Wert vorliegt. Dann würde zwar nie eine Kontraktion einsetzen, aber die Expansion würde schneller abgebremst werden als beim offenen Modell und letztlich gegen Null streben. Welches Modell wirklich zutrifft, werden wir vermutlich niemals erfahren. Der Grund liegt darin, daß die Endlichkeit der Lichtgeschwindigkeit uns nur einen begrenzten Teil des Kosmos sehen läßt. Wir können daher nicht wissen, wie groß die Ausdehnung außerhalb dieses Bereiches ist. Es ist also weder möglich noch sinnvoll, Gebiete, die sich unserer Beobachtung entziehen in den Berechnungen zu berücksichtigen.
Alle diesbezüglichen Untersuchungen sind deshalb nur auf einen Teil des gesamten Universums bezogen.
Die kritische Dichte liegt bei etwa 5*10-30 g/cm3. Obwohl es sich hier um eine derart kleine Größe handelt, stellen die von uns beobachtbaren Sterne und Gaswolken lediglich 1 % dieses Wertes dar. Eine höhere Dichte ist nur unter der Voraussetzung zu erreichen, daß es auch sogenannte dunkle Materie gibt. Darunter versteht man eine Materieform, die für uns nicht sichtbar ist. Als genaue Bestandteile dafür kommen mehrere Möglichkeiten in Frage: Da wären zum einen die Elementarteilchen.
Besonders das sogenannte Neutrino wird von den Wissenschaftlern als vielversprechend angesehen. Bis heute konnte allerdings noch nicht bestätigt werden, ob dieses Teilchen überhaupt Masse besitzt. Experimente mit Neutrinos sind äußerst schwierig durchzuführen, weshalb man über ihre Masse bisher nur weiß, daß sie von Null bis zu einem maximalen Grenzwert reichen könnte. Obwohl selbst ihre maximal mögliche Masse nur knapp über Null liegt, könnten die Neutrinos aufgrund ihrer Häufigkeit (auf ein Kernteilchen kommen zirka eine Milliarde Neutrinos!) erheblich zur Dichte beitragen.
Außerdem wären da noch die Schwarzen Löcher, die eine extrem hohe Dichte besitzen und, sofern sie in ausreichender Zahl vorhanden sind, ebenfalls die Gesamtmasse des Universums erhöhen würden. Hierbei steht man jedoch vor dem Problem, daß es noch niemandem gelungen ist, ein Schwarzes Loch nachzuweisen.
Trotz ihrer Unsichtbarkeit gibt es einige Anzeichen, die auf das Vorhandensein von dunkler Materie schließen lassen. Zum einen geht aus Beobachtungen von Spiralgalaxien hervor, daß diese schneller rotieren als es mit der sichtbaren Materie möglich wäre. Um solch ein Phänomen zu erklären, muß in den Galaxien wesentlich mehr Masse vorhanden sein. Zum anderen trifft dies auch in einem größeren Rahmen betrachtet zu: Die Galaxien haben sich zu Haufen zusammengeschlossen, in denen sie sich um ein Zentrum bewegen. In diesem Fall müssen sie von dunkler Materie umgeben sein, die auch hier die notwendige Masse bzw. Schwerkraft zur Verfügung stellt, um sie zusammenzuhalten.
Mit Hilfe relativ zuverlässiger Schätzungen darf man annehmen, daß durch diese unsichtbare aber nachweislich vorhandene Materie etwa ein Zehntel der kritischen Dichte erreicht wird.
Woher nehmen wir nun aber die restlichen 90 Prozent? Aussagen über die Existenz weiterer Materie sind nicht anhand herkömmlicher Messungen überprüfbar. Sie befindet sich außerhalb der Galaxienhaufen und kann deshalb nicht einmal indirekt wahrgenommen werden. Daher muß man sich in diesem Bereich meist mit Vermutungen oder bestenfalls mit Berechnungen zufriedengeben. Für letzteres möchte ich hier ein Beispiel anführen: Die Menge der leichten Elemente im Frühstadium steht in einem bestimmten Verhältnis zur Materiemenge im heutigen Universum. Da sich diese leichten Elemente berechnen lassen (in wie weit die Ergebnisse zutreffen, ist eine andere Frage) und da das Verhältnis ungefähr bekannt ist, kann man so auf die derzeitige Dichte schließen.
Auf diese Weise ist man zu der Erkenntnis gelangt, daß eigentlich zehnmal mehr Materie vorhanden sein müßte, als wir nachweisen können. Das ist also der Grund dafür, daß viele Wissenschaftler vermuten, das Universum müsse annähernd die kritische Dichte besitzen. Anderen Berechnungen zufolge wäre es sogar möglich, daß die tatsächliche Dichte doppelt so groß ist wie die kritische. Wir können somit als Grenzwerte 10 % und 200 % annehmen.
Obwohl Hawking keine andere Wahl hat, als beide (oder besser gesagt alle drei) Möglichkeiten zu akzeptieren, kommt für ihn im Grunde genommen nur das geschlossene Modell in Frage, weil er meint, daß für ein Universum mit geringerer Dichte die Anfangsbedingungen zu genau hätten gewählt werden müssen.
Interessant ist übrigens auch der Zusammenhang zwischen kritischer Dichte und Inflation.
Nach dieser Theorie würde nämlich die tatsächliche Dichte ungefähr dem kritischen Wert entsprechen. Um sein geschlossenes Modell zu begründen beruft sich Hawking teilweise auf die Inflation. Andrei Linde hingegen spricht von einem Universum mit unendlicher Ausdehnung, das aus zahllosen Teiluniversen, aus denen immer wieder neue entstehen, aufgebaut ist. Zwar erwähnt er nicht explizit, daß für seine Annahme eine kleinere Dichte als die kritische vorausgesetzt werden muß, doch sein Modell ist nur unter dieser Bedingung möglich.
Diese beiden grundverschiedenen Aussagen sind aber bei weitem nicht der einzige Widerspruch, den uns die moderne Kosmologie zu bieten hat. Im Gegenteil: In diesem Fall kann nämlich schon der geringste Unterschied in den Anfangsbedingungen darüber entscheiden, ob die heutige Dichte dem einen oder dem anderen Modell entspricht.
Wenn es allerdings um die Frage geht, wie lange das Universum noch "sein" wird, liegen zwischen den verschiedenen Antworten oft Welten - und das im wahrsten Sinne des Wortes. Die größten Unterschiede sind bei den Angaben über das geschlossene Universum zu erkennen. Die Tabelle soll anhand der Aussagen von drei Wissenschaftlern diese Differenzen verdeutlichen:
Hawking
Hiller
Barrow
Sonne verbraucht Kernbrennstoff
5 Mrd. Jahre
5 Mrd. Jahre
5 Mrd. Jahre
Alle Kerne verbrauchen ihren Kernbrennstoff
10 Mrd.
Jahre
100 000 Mrd. Jahre
85 Mrd. Jahre
Expansion kommt zum Stillstand
10 Mrd. Jahre
1000 Mrd. Jahre
1000 Mrd. Jahre
Endsingularität
15 Mrd.
Jahre
2000 Mrd. Jahre
2000 Mrd. Jahre
Was das Schicksal des Universums gemäß dem offenen Modell betrifft, herrscht unter den in diesem Bereich tätigen Forschern weithin Einigkeit. Untenstehende Tabelle spiegelt diese generell vorherrschende Meinung wider.
alle Sterne und Galaxien sind zu Schwarzen Löchern geworden 1018 Jahre
die meisten Protonen und Neutronen sind zerfallen 1030 - 1032 Jahre
alle Kernteilchen sind zerfallen 1032 - 1034 Jahre
auch die letzten Schwarzen Löcher verdampfen 10100 Jahre
Aus dieser Übereinstimmung darf allerdings nicht geschlossen werden, daß diese Angaben auch richtig sind. Gerade in diesem Bereich dominiert (noch) eine große Ungewißheit.
Besonders was die Zerfallszeit der Protonen betrifft, kann man zur Zeit noch keine experimentell gesicherten Aussagen treffen. Es ist also durchaus möglich, daß die Wissenschaftler in einigen Jahren auf völlig andere Werte kommen und sich über die für uns aktuellen Daten nur wundern können oder sich vielleicht sogar darüber lustig machen. Doch diese Entwicklung, auch Fortschritt genannt, ist gerade für die Naturwissenschaften von immenser Bedeutung.
Schwarze Löcher
Das letzte Kapitel möchte ich nun einem Bereich widmen, in dem Stephen Hawking wohl seine herausragendsten Entdeckungen gemacht hat. Es handelt sich hierbei um die sogenannten Schwarzen Löcher. Obwohl sie bisher nur als mathematisches Modell existieren, weil es noch niemandem gelungen ist, sie zu entdecken, beschäftigen sich gerade heute immer mehr Wissenschaftler damit.
Sie sind ein Phänomen, das in gewisser Weise eng mit dem Urknall zusammenhängt und genau wie dieser viele Fragen aufwirft, um deren Beantwortung Hawking und seine Kollegen bemüht sind.
Zuerst wollen wir das "klassische" Modell des Schwarzen Loches untersuchen: In solch einem Fall stellt es das Endstadium eines Sternes dar, der mehr als doppelt so schwer wie die Sonne ist bzw. war. Ein Stern leuchtet, indem er Wasserstoff in Helium umwandelt. Bei diesem Prozeß wird Energie in Form von Strahlung abgegeben. Darüber hinaus erzeugt diese Energie den nötigen Druck, der den Stern davor
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com