HIRN AUS, COMPUTER AN! – WARUM DIGITALISIERUNG DER TOD DER WISSENSCHAFT IST

Digitalisierung hat nicht nur das Privatleben vieler und die Arbeitswelt fest im Griff, sondern auch die Wissenschaft. Der Computer berechnet, analysiert, modelliert – bei komplizierten Denkprozessen vertraut der Mensch heutzutage lieber dem kleinen viereckigen Kasten. Das eigene Hirn – nur Nebensache.

Viel Raum für kriminelle Energie

Ist ja auch klasse für die Wissenschaft. Dank der Digitalisierung liegen viel schneller Ergebnisse auf dem Tisch. Nur noch ein paar Eingaben machen und schwups … eine neue Theorie ist vermeintlich belegt. Das ist nicht mehr wie zu Einsteins Zeiten, in denen die Wissenschaftler Jahre, manchmal Jahrzehnte, gebraucht haben, um ihre Gedanken in Formeln und belegbare Theorien zu gießen. Newton antwortete auf die Frage, wie er auf seine Theorie gekommen sei lapidar: „Ich habe sehr lange nachgedacht!“

Heute übernimmt der Computer die meiste Denkarbeit.

So sehr ich Computer und modernste Technologien schätze – diese Entwicklung ist bedenklich: Denn hinter jeder Software steckt doch immer noch ein Mensch, der sie manipulieren kann.

Jeder halbwegs talentierte Softwareentwickler kann in seinem Keller neue Parameter ins Computerprogramm schreiben. Er kann alles hindrehen, wie gewünscht oder eben nicht. Ein Einfluss, der meist außer Acht gelassen wird.

Das geschieht nicht immer in böser Absicht, sondern einfach weil man ein Ergebnis haben will. Und wenn sich einfach ein Programmierfehler einschleicht, dann wird das bestimmt nicht mehr zugegeben, wenn schon eine schöne Veröffentlichung erschienen ist. (z.B. mein Interview mit dem Galaxienforscher Mike Disney)

Digitalisierung in der Physik lässt grüßen

Nehmen Sie ein Beispiel aus der Galaxiendynamik: Man behauptet, Spiralgalaxien behielten ihre ästhetische Scheibenform nur dann, wenn sich die Dunkle Materie kugelförmig um das Galaxienzentrum verteilt – das ist das Resultat von Computermodellen, die das konventionelle Gravitationsgesetz zu Grunde legen.

So geht man davon aus, dass alle Galaxien mit so einem dunklen ‚Halo‘ aus irgendwelchen Teilchen (die die Theoretiker gerade erfunden haben) umgeben sind. Eigentlich ist das schon wenig glaubwürdig, denn es gibt für wie auch immer geartete Elementarteilchen keinen Grund, sich in der Galaxie so eigentümlich zu sortieren: Warum ordnet sich die sichtbare Materie in der Scheibe an, wenn die Dunkle es nicht tut?

Jene Computersimulationen waren der Anfang einer Entwicklung, bei der unerklärte Beobachtungen und theoretische Wunschvorstellungen Hand in Hand zu einer immer größeren Komplizierung führten. Um die Daten zu beschreiben, muss die kugelförmige Haloumgebung etwa zehnmal so groß wie die leuchtende Galaxie sein. Die Geschwindigkeit der Gaswolken sollte außerhalb des Halos aber dann wieder abnehmen. Aber wenn man hinsieht, tut sie dies nicht – eine von vielen Ungereimtheiten.

Digitalisierung lässt grüßen.

Wünsch dir was

Daneben gibt es auch Computersimulationen zur Galaxienentstehung. Diese kämpfen seit Langem mit einem Ergebnis, das nicht mit den Beobachtungen übereinstimmen will: Spiralgalaxien wie die unsere müssten in Hunderte von kleinen Begleitgalaxien eingebettet sein, die sich gleichmäßig im Halo verteilen. Leider gibt es im Falle der Milchstraße nur etwa dreißig Stück davon. Dieser Misserfolg wird kaschiert, indem man neue Parameter ins Computerprogramm einbaut, zum Beispiel einen, der angeblich Auswirkungen von Supernova-Explosionen beschreibt. Da man nicht die geringste Ahnung hat, wie stark dieser Effekt im frühen Universum war, probiert der Computer so lange an diesen Zahlen herum, bis das Ergebnis passt.

Ob dieses Ergebnis dann mit der Realität zu tun hat, wird eher nebensächlich … Trotz der fantastischen Rechenleistung unserer digitalen Werkzeuge würde es vielen Physikern nicht schaden, mal wieder ihren eigenen Denkapparat einzuschalten.

ACHTUNG, SÄBELZAHNTIGER! WIE DIE STEINZEIT DIE WISSENSCHAFT IM GRIFF HAT

Wer sich der Gruppe nicht unterordnet, der wird ausgestoßen, aus der gemeinsamen Höhle geworfen – und vom Säbelzahntiger gefressen!

Ja, diese einfache Formel galt wohl mal vor ein paar tausend Jahren fürs eigene Überleben. Wer alleine dastand, setzte sich damit einer existenziellen Gefahr aus. Gut, dass die Steinzeit vorbei ist!

Hm … ist sie das wirklich? Wenn ich mir die heutige Wissenschaft so anschaue, erkenne ich da durchaus noch ein paar neolithische Züge …

Mächtige Gruppen in der Wissenschaft

Auch in der Wissenschaft – in der Kosmologie, Physik, Astronomie und vielen anderen Gebieten – finden Sie Gruppen, in denen sich die einzelnen Neandertaler zusammenschließen. Sie nennen sich Fachgebiete oder „Experten“ eines Paradigmas.

Nehmen Sie beispielsweise die Kosmologie: Das derzeitige anerkannte „concordance model“  herrscht dort über die Datenauswertung. Die Analyse der modernen Großexperimente ist viel zu komplex, als dass sie aus einem alternativen Blickwinkel in kurzer Zeit wiederholt werden könnte. Man müsste eine Vielzahl von versierten Wissenschaftlern zur Verfügung haben, um hier eine Chancengleichheit bei der Datenauswertung herzustellen.

Die Mainstream-Kosmologie ist mächtig und bietet ihren Gegnern und Fressfeinden locker die Stirn. Schön – für ihre Anhänger zumindest.

Kein Platz für neue Ideen

Trotz einiger vielversprechender Ansätze krankt die Wissenschaft in vielen Bereichen an diesem Gruppendenken. Solange ganze Fachgebiete, die einem bestimmten Paradigma der Interpretation folgen, alleinigen Zugriff auf die Daten haben – nebst den Ressourcen, diese auszuwerten –, ist es völlig illusorisch, dass eine radikale neue Idee auch nur die Chance hat, geprüft zu werden.

Wer mit neuen Ideen um die Ecke kommt, passt nämlich nicht in die Gruppe und wird direkt den Säbelzahntigern zum Fraß vorgeworfen. Das steinzeitliche Gruppendenken in der Wissenschaft verwehrt es dem Einzelnen geradezu, die gemeinsame Arbeitsgrundlage auch nur im Geringsten infrage zu stellen.

Damit ist kein explizites Verbot gemeint, sondern ein psychologisches, oft sogar unbewusstes Phänomen. Kaum jemand wird in einem Saal mit fünfhundert Wissenschaftlern einem Vortrag lauschen und gleichzeitig zweifeln, ob das Thema des Vortrags überhaupt einen Sinn ergibt. Die Vorstellung, nicht mehr dabei sein zu dürfen, beeinflusst die Urteilskraft. Der Säbelzahntiger wartet schon um die Ecke auf von der Gruppe verstoßene Individuen …

Der Traum vom selbstständigen Denken

Doch wie soll die Wissenschaft funktionieren, wenn niemand mehr wagt zu denken, was die Masse als undenkbar erachtet?

Würden sich mehr Einzelpersonen aufrichtig ihrer Wissenschaft verschreiben und eigenständig denken – ich glaube, das hätte uns so manche moderne Absonderlichkeit wie die Stringtheorie oder immer noch größere Teilchenbeschleuniger erspart.

Ich bin gespannt, wann die Wissenschaft nicht nur körperlich den aufrechten Gang perfektioniert, sondern auch geistig so weit ist, dass Einzelne keine Tiger mehr fürchten müssen, wenn sie eine Idee abseits des Gruppendenkens äußern.

Vielleicht sollte ich diese Traumwelt an meine Höhlenwand malen …

WENN DIE EXPANSION DES WELTALLS EIN GRANDIOSER IRRTUM WÄRE

Die Expansion des Kosmos ist heute eine allgemein anerkannte Theorie. Sie basiert auf der gemessenen Rotverschiebung des Lichts entfernter Galaxien – seit Edwin Hubble eine unbestrittene Tatsache. Offenbar scheinen die Himmelskörper mit hoher Geschwindigkeit von uns wegzufliegen, was die zu uns zurückgeworfenen Lichtwellen dehnt und somit „röter“ macht. Alle sind sich einig: Der Kosmos dehnt sich aus. Der Fachbegriff dazu: Expansion.

Nun, wenn das so ist, müssten wir die sich daraus ergebenden Effekte ja auch nachmessen können. Und genau das wird heute getan. Allerdings bergen die gemessenen Daten Überraschungen …

Nachgemessen

Die technologische Entwicklung ist für die Kosmologie ein Segen. Die Daten der modernen Teleskope verknüpft mit großen Datenbanken und dem Zugriff übers Internet ergeben zum Beispiel solch fantastische Dinge wie den Galaxienkatalog SDSS, den Sloan Digital Sky Survey, der jedem offen zugänglich ist. Diese Daten sind nichts anderes als eine Landkarte des Universums. Jedenfalls von etwa einem Viertel des Himmels.

In diese Landkarte werden derzeit die Positionen und Helligkeiten von mehr als 100 Millionen Himmelskörpern eingetragen. Außerdem sollen mit seiner Hilfe die Entfernungen und Eigenschaften von etwa einer Million Galaxien und Quasaren bestimmt werden. Seit 1998 werden die Daten nach und nach gesammelt und integriert. Das Gesamtbild wird immer genauer und vollständiger. Es zeigt sich immer präziser die faszinierende schaumartige Struktur des Universums mit seinen Galaxienhaufen und den großen dazwischen liegenden „Hohlräumen“ mit relativ geringer Galaxiendichte.

Aber leider stößt das anerkannte Modell des Universums, das auf der Allgemeinen Relativitätstheorie Einsteins basiert, auf große Widersprüche!

Knoten im Kopf

Denn wenn Sie die Allgemeine Relativitätstheorie auf den Kosmos anwenden, führt das zu einem wahren Wirrwarr von merkwürdigen Postulaten. Unter anderem prognostiziert die Theorie die Größe der Galaxien am Himmel. Ab einer bestimmten Entfernung soll die scheinbare Größe der Galaxien der Theorie entsprechend nicht weiter ab- sondern zunehmen. So in etwa wie beim Scheinriesen in Michael Endes Erzählung von Jim Knopf und Lukas dem Lokomotivführer: Je weiter er wegläuft, desto größer erscheint er.

Das klingt nicht nur merkwürdig, es lässt sich auch durch die Daten des SDSS in keinster Weise bestätigen. Und das liegt nicht nur im Bereich von Messfehlern: Die Theorie sagt bis zu sechsmal größere Galaxienausdehnungen voraus als die in der Realität gemessenen.

Sie und ich würden nun sagen: An der Theorie kann etwas nicht stimmen. Da die Berechnungen auf Basis der Theorie korrekt sind, muss es an irgendwelchen falsch gewählten Voraussetzungen liegen. Wir müssen dringend zurückgehen und überlegen, wo wir falsch abgebogen sind.

Nicht so aber die theoretischen Physiker! Sie beharren steif und fest auf den grundlegenden Annahmen ihrer Theorie und fügen einfach willkürliche Zusatzannahmen und Parameter hinzu: Sie postulieren beispielsweise, die Galaxien würden sich eben in Helligkeit und Größe mit der Zeit entwickeln – und zwar genau so, dass es gerade wieder zu den Daten passt.

Doch dadurch werden die theoretischen Modelle immer komplizierter. Sie werden sozusagen um die beobachtete Wirklichkeit drumherum gebaut. Die Natur wird so nicht verstanden, sondern mathematisch nachgeäfft.

Ich bin sicher, Einstein hätte das nicht mitgemacht. Er hätte lieber seine Theorie grundsätzlich in Frage gestellt, als sie bis zur Unkenntlichkeit zu verkomplizieren. Denn die wahren Durchbrüche in der Wissenschaft waren immer mit einer Zunahme an logischer Eleganz verbunden, niemals mit einer opportunistischen Verknotung.

Und die Lösung der Expansion?

Erstaunlicherweise passen die beobachteten Daten des fernen Kosmos am besten zu einer ganz einfachen Interpretation: Es gibt keine nennenswerte Evolution von Galaxiengrößen. Es gibt auch keine Beschleunigung. Und auch keine Expansion! Die Daten passen am besten zu einem Universum, in dem die Materie statisch ist. Die sichtbare Ausdehnung der Galaxien am Himmel nimmt dann einfach ganz schlicht mit ihrer Entfernung ab, so wie man das ganz intuitiv auch erwarten würde.

Die Frage ist nur, was wir dann mit der beobachteten Rotverschiebung machen, die bislang immer als eine Art Doppler-Effekt interpretiert wurde, was ja auf die Expansion des Universums hingedeutet hat.

Da ist ja der eigentliche Widerspruch: Die gemessenen Galaxiengrößen deuten auf ein statisches Universum hin, die Rotverschiebung auf ein sich ausdehnendes Universum. Eins von beidem ist falsch, solange die Gesetze der Logik noch gelten. Bislang wurde die Interpretation der Rotverschiebung, also die Expansion des Universums, vorausgesetzt. Was wäre, wenn diese Annahme falsch wäre? Was wäre, wenn die gemessenen Daten ganz einfach interpretiert ein Beleg für ein statisches Universum wären? Dann müssten wir eine andere Deutung für die Rotverschiebung finden, um den Widerspruch auszuräumen.

Und diese andere Deutung gibt es! Einstein selbst hatte 1911 eine Version der Allgemeinen Relativitätstheorie entwickelt, die genau dazu führt. Unabhängig von ihm hatte der US-amerikanische Physiker Robert Dicke die gleiche Idee. In meinem Buch „Einsteins verlorener Schlüssel“ erkläre ich den heute leider vergessenen Ansatz genauer.

WENIGER IST MEHR – AUCH IN DER PHYSIK

Kosmologische Theorien werden immer dicker. Lässt sich eine Theorie nicht glaubhaft erklären, erdenken die Forscher einfach irgendwelche Hilfsmittelchen, die ihre Theorie plötzlich stimmig macht. Ein weiteres unnötiges Pfund auf der Waage.

Viele Physiker und Kosmologen bedienen sich bis heute dieser Methode: Wenn eine Theorie noch nicht schlüssig ist, einfach eine Konstante, ein unentdecktes Teilchen oder Ähnliches dazuerfinden, um das Problem zu lösen – ganz egal, ob es sich nachweisen lässt oder nicht.

Wenn Sie einmal genau hinschauen, beging die erste Sünde dieser Art schon Sir Isaac Newton, als er im Rahmen des Gravitationsgesetzes die Anziehungskraft zweier Körper beschrieb. Denn um seine Berechnung der Gravitationskraft stimmig zu machen, musste er die Gravitationskonstante. postulieren. Das ist ein fester Zahlenwert, der durch die Theorie jedoch nicht erklärt werden kann. Newtons Leistung bleibt trotzdem phänomenal – aber aus methodischer Perspektive ist eigentlich schon die Konstante G eine zu viel.

Schlankheitskur für das Gravitationsgesetz

Ich schlage da etwas anderes vor: eine radikale Schlankheitskur für die Theorien der Physik.

Ernst Mach hatte beispielsweise einen Einfall, wie das Gravitationsgesetz etwas abspecken könnte: Wenn die Stärke der Gravitationskraft von der Gesamtmasse des Universums abhinge, würde die Gravitationskonstante überflüssig, weil es dann eine Erklärung für den Wert gäbe, der hinter dieser Zahl steckt. Leider war Mach seiner Zeit so weit voraus, dass niemand die Idee schätzte.

Außerdem braucht es noch eine weitere Voraussetzung: Die Lichtgeschwindigkeit müsste veränderlich sein. Was die Gravitation mit der Lichtgeschwindigkeit zu tun hat? Machen Sie dazu einen Ausflug in die 60er Jahre, als der amerikanische Astrophysiker Robert Dicke die geniale Idee Machs aufgriff und endlich in einer Formel ausdrückte: Die Summe aller Gravitationspotenziale des Universums könnte genau dem Quadrat der Lichtgeschwindigkeit entsprechen. Viele bekannte Widersprüchlichkeiten der Kosmologie erschienen dadurch in einem ganz anderen Licht … aber die Kosmologen müssten sich erst einmal damit beschäftigen.

Revolutionäre Ideen ausschöpfen

Glücklicherweise ist die Idee einer variablen Lichtgeschwindigkeit gar nicht so weit gefehlt. Denn die von Einstein entwickelte allgemeine Relativitätstheorie kann entweder durch einen gekrümmten Raum oder durch eine variable Lichtgeschwindigkeit beschrieben werden. Beide Möglichkeiten sind rechnerisch äquivalent, kommen also über einen anderen Weg auf die gleichen Ergebnisse. Und alle modernen Tests, die es heute dazu gibt, werden von beiden Möglichkeiten korrekt beschrieben – das wurde inzwischen ausführlich gezeigt. Ziemlich tragisch also, dass Einstein die Möglichkeit der variablen Lichtgeschwindigkeit nicht weiterverfolgt hat und sie mittlerweile beinahe komplett in Vergessenheit geraten ist.

Ich wünschte mir ja, Forscher würden sich dieser Ideen annehmen und ihr revolutionäres Potenzial ausschöpfen. Wer weiß, was für ein ungeborgener Schatz da noch zu finden ist …

IST EINE PHYSIK OHNE NATURKONSTANTEN MÖGLICH?

Wenn Sie sich in Ihrer Welt umschauen, dann werden Sie vermutlich drei fundamentale Größen erkennen: Raum, Massen und eine zeitliche Abfolge von Ereignissen. Die Physik versucht seit ihrem bestehen, die Welt mit diesen drei fundamentalen Begriffen zu beschreiben – und scheitert dabei immer wieder. Auch jetzt steht ein solches Scheitern wieder bevor. Die Frage ist, was von der modernen Physik übrig bleibt, wenn diese Krise durch ist.

Die letzte Krise der Physik

Fragen Sie ruhig, wie es dazu kommen konnte. Schließlich behauptet die moderne Physik von sich, streng logisch aufgebaut und die exakteste Wissenschaft aller Zeiten zu sein. Und das stimmt: Die Exaktheit der Messmethoden, die heute erreicht wird, ist wirklich unglaublich. Die physikalische Theoriebildung hinkt diesen Spitzenleistungen jedoch leider weit hinterher.

Je mehr die Astronomen mit den immer größer und leistungsfähiger werdenden Teleskopen vom Weltall entdeckten und je größer die Dimensionen wurden, desto klarer stellte sich heraus, dass die Formeln Newtons hier nicht funktionierten. Und auch je weiter die Physik ins Kleinere vordrang, desto offensichtlicher wurde es, dass sich die Welt der Elementarteilchen nicht mit Newtons Theorie beschreiben lässt.

Einsteins Relativitätstheorie konnte diese Probleme in den großen Dimensionen und der Quantentheorie in der Teilchenwelt mehr oder weniger reparieren. Sie behielten jedoch die Gravitationskonstante G bei, die Newton eingeführt hatte, und es kamen noch zwei weitere Naturkonstanten dazu: c, die (endliche) Lichtgeschwindigkeit aus der Relativitätstheorie und h, das Plancksche Wirkungsquantum (bekannt auch durch die Heisenberg’sche Unschärferelation in der Quantentheorie und durch das Vorkommen in der Feinstrukturkonstante).

Diese drei fundamentalen Konstanten G, c und h benötigen wir nach wie vor zur Definition von Größen wie Kilogramm, Meter und Sekunde. Formal geschieht dies über die sogenannten Planck-Einheiten, die im Übrigen keine große Bedeutung haben. Es lässt sich jedoch abkürzen: Um überhaupt von den Einheiten m, s und kg sprechen zu können, müssen c (m/s), h (kg m²/s) und G (m³/s² kg) geeignet kombiniert werden.

Anzeichen der neuen Krise

Diese drei Naturkonstanten zeigen unmissverständlich an, dass die Physik im Kleinen wie im Großen etwas Grundlegendes noch nicht verstanden hat. Schon Einstein war davon überzeugt, dass echter Erkenntnisgewinn nur durch die Eliminierung dieser Konstanten zu gewinnen wäre. Aber statt sich mit diesem brennenden Thema zu befassen, bemüht sich die Physik seit gut 80 Jahren mehr und mehr um mystische Legendenbildung. Ja, so drastisch muss ich das formulieren.

Die Kosmologie bläht ihr Standardmodell mit unerklärlichen Phänomenen wie der dunklen Materie, der dunklen Energie oder auch dem Urknall mit der Inflationsphase auf – allesamt Konzepte, die in der Wissenschaft nicht wirklich zum Verständnis beitragen.

Auf der anderen Seite, im Kleinen, jagt die Teilchenphysik mit immer größeren, immer teureren Apparaturen wie den Large Hadron Collider am CERN immer kleineren Elementarteilchen hinterher, ohne über die zu Hauf postulierten Teichen irgendeine nachprüfbare Aussage machen zu können – auch hier also allerhand Mystifizierung.

Das ganze mutet an wie die Anbetung des goldenen Kalbes vor den zehn Geboten. Und genau das fehlt der Physik heute: Ein neues Gesetz, dass der Götzenanbetung ein Ende bereitet.

Licht im Dunkel?

Einen Ansatz dazu entwickelten geniale Physiker wie Robert Dicke, Dennis Sciama und Paul Dirac aus einer von Einstein nicht weiter verfolgten Hypothese einer variablen Lichtgeschwindigkeit. Robert Dicke konnte so die Gravitationskonstante G eliminieren und in einen berechenbaren und erklärbaren Wert umwandeln. Sciama und Dirac arbeiteten unabhängig an derselben Idee und konnten weitere wichtige Anhaltspunkte liefern, wohin die Reise in Zukunft gehen könnte.

Dass das Gros der Physiker diese Ansätze, die endlich Licht ins Dunkel der unerklärbaren Phänomene bringen könnten, bisher unter den Teppich kehren, beschreibt das Ausmaß der Krise, in der sich die moderne Physik befindet. Sie dürfen also gespannt sein, wann der Knoten platzt und die Physiker sich wieder mit den grundlegenden Problemen der Weltbeschreibung befassen.

Die Frage ist allerdings, wohin wir dann mit den neuen Theorien kommen. Stellen sich Zeit und Raum als von unseren Sinnen erzeugte Illusionen heraus? Erweisen sich die grundlegenden Eigenschaften der Materie „Masse“ und „Trägheit“ als durch alle Materie des gesamten Kosmos bestimmte Größen heraus, wie das der visionäre Denker Ernst Mach vermutet hatte?

Ob die Wissenschaft auf diesem Weg zu einer noch grundlegenderen Theorie gelangt, können wir letztlich nicht wissen. (Wohl erst, wenn h und c auch eliminiert wurden.) Aber auf die nächste Revolution dieser Weltbeschreibung dürfen Sie sich trotzdem freuen. Sie wird ein weiteres Mal unser Weltbild vom Kopf auf die Füße stellen.

DUNKEL WAR’S, DER MOND SCHIEN HELLE …

„Unser Universum besteht hauptsächlich aus dunkler Materie und dunkler Energie.“

Wie schön sicher das klingt. Dass bisher niemand dunkle Materie und dunkle Energie nachweisen konnte, scheint in der Physik wohl niemanden daran zu hindern, ihre Existenz als gegeben anzusehen. Dabei haben die Forscher die Existenz der beiden dunkeln Substanzen nur postuliert, um eine Diskrepanz zwischen dem nach der Gravitationstheorie erwarteten Verhalten von Galaxien und der tatsächlichen Beobachtung zu erklären.

Galaxien
Galaxien

Astronomen haben nämlich entdeckt, dass ab einem bestimmten Abstand vom Galaxiezentrum alle Sterne mit gleicher Geschwindigkeit um das Zentrum fliegen. Oder anders gesagt: Die äußere Sterne bewegen sich schneller als vom Gravitationsgesetz vorhergesagt.

Diese Diskrepanz wundert mich nun gar nicht so sehr. Wie soll sich denn ein Gravitationsgesetz, das auf der Erde gilt, auf das ganze Universum übertragen lassen – also in eine unvorstellbar größere Dimension?

Die Kosmologen wollten dieses Gesetz aber unbedingt beibehalten. War ja zunächst verständlich. Und deshalb suchten sie nach einem Ausweg für dieses Dilemma. Das Ergebnis: eine Materie, die die Forscher bisher noch nicht entdeckt haben, weil sie zwar Masse hat, also aktiv Gravitation ausübt, aber nicht nachgewiesen werden kann. Und davon gibt es im äußeren Bereich genau so viel mehr als im Inneren der Galaxien, dass sich die Sterne in Galaxien praktisch alle gleich schnell bewegen.

Kling logisch, oder?

Wenn Sie jetzt einmal von der Unplausibilität absehen, dass die Massenverteilung und Menge an dunkler Materie haargenau auf die Galaxie abgestimmt sein müsste, damit die Geschwindigkeiten in der Galaxie übereinstimmen, ergeben sich aus der Theorie der dunklen Materie noch ganz andere Probleme.

Um die Bildung der Galaxien im Universum zu erklären, muss man annehmen, dass die Dunkle Materie schon zur Frühzeit des Universums viel stärker konzentriert war als die normale – was natürlich eine völlig willkürliche Hypothese ist. Schließlich, um damit weitere Messungen zu „erklären“ nehmen die Kosmologie an, das Universum bestünde zu etwa 27 % aus dunkler Materie und zu knapp 68 % dunkler Energie. 95 % aller Substanzen im Universum hätte also noch kein Mensch jemals gesehen oder gemessen.

Entschuldigen Sie meinen ironischen Unterton, aber: Klingt logisch, oder?

Da freut es mich, wenn ich im Gegensatz dazu einen Satz lese wie den folgenden, zitiert aus Robert Sanders Buch The Dark Matter Problem: „Das wirkliche Problem ist: Dunkle Materie ist nicht falsifizierbar. Der Einfallsreichtum und die Einbildungskraft der theoretischen Physiker kann jeder astronomischen Nicht-Detektion mit der Erfindung neuer Kandidaten begegnen.“

Ziemlich gut auf den Punkt gebracht. Und das würde mich nicht so betrüben, würden nicht so unglaublich viele Forschungsgelder dafür ausgegeben werden, diesen dunklen Substanzen hinterherzujagen.

Revolution durch Reduktion

Isaac Newton

Wie schwer Sie sich fühlen, hängt vielleicht nicht nur von Ihrer eigenen Körpermasse ab, sondern von der Gesamtmasse des Universums.

Sie erinnern sich vielleicht: Sir Isaac Newton war es, der zum ersten Mal die Anziehungskraft zweier Körper in seinem Gravitationsgesetz beschrieb. Ernst Mach hatte dazu einen interessanten Gedanken: Die Stärke der Gravitationskraft könnte von der Gesamtmasse des Universums abhängen.

Warum dieser Gedanke so spannend ist?

Newton hatte für seine Berechnung der Gravitationskraft einen mathematischen Kunstgriff benötigt, der als Gravitationskonstante bezeichnet wird. Es ist ein fester Zahlenwert, dessen Existenz die Theorie jedoch nicht erklären kann.

Hinge die Gravitation jedoch von der Gesamtmasse des ganzen Universums ab, würde die Gravitationskonstante wegfallen. Statt einer unerklärten Zahl, gäbe es eine Erklärung für den Wert, der hinter dieser Zahl steckt. Diese Reduktion um eine Konstante könnte für die Physik eine Revolution bedeuten.

Und jetzt kommt der Clou: Diese Revolution könnte gelingen, wenn die Lichtgeschwindigkeit veränderlich wäre.

Die von Einstein entwickelte allgemeine Relativitätstheorie kann entweder durch einen gekrümmten Raum oder durch eine variable Lichtgeschwindigkeit beschrieben werden. Beide Möglichkeiten sind rechnerisch äquivalent, kommen also über einen anderen Weg auf die gleichen Ergebnisse.

Alle modernen Tests, die es heute dazu gibt, werden von beiden Möglichkeiten korrekt beschrieben – das wurde inzwischen ausführlich bewiesen.

Allerdings hat Einstein die Möglichkeit der variablen Lichtgeschwindigkeit nicht weiter verfolgt und inzwischen ist sie fast völlig in Vergessenheit geraten. Es ist ein bisschen so, als hätte die Physik einen Schatz noch nicht gehoben, der schon seit über hundert Jahren versunken in ihrem Hafenbecken liegt. Unglaublich? Aber wahr.

Welchen Zusammenhang die Gravitation mit einer variablen Lichtgeschwindigkeit haben könnte, dazu hatte der geniale amerikanische Astrophysiker Robert Dicke 1957 eine Idee. Sie basiert auf einer Formel, die Einstein 1911 entwickelte, als er an seiner Relativitätstheorie arbeitete: Die Summe aller Gravitationspotenziale des Universums könnten genau dem Quadrat der Lichtgeschwindigkeit entsprechen.

Das heutige Standardmodell der Kosmologie hat für diesen Zusammenhang jedoch keine Erklärung. Da diese Möglichkeit so ein faszinierendes, revolutionäres Potenzial hat, lohnt es sich, sie nochmal aus der Gruft der ad acta gelegten Ideen der Physik zu holen und zu prüfen, ob sie nicht doch reanimiert werden kann.

Sie dürfen sich durchaus aufgefordert fühlen. Wer weiß, vielleicht heben Sie ja den versunkenen Schatz?

Mehr zum Thema erfahren Sie in meinem Buch „Einsteins verlorener Schlüssel“, das im November erscheint.