DIE STRINGTHEORIE: EIN MENÜ OHNE PREISANGABE

Ein Premium-Black-Angus-Steak bestellen, einen neuen Ferrari zu Weihnachten kaufen, eine Weltraumreise buchen – das klingt in der Theorie ganz gut. Wenn da nicht der Preis wäre.

Jeder, der ein bisschen Menschenverstand besitzt, weiß: Um eine Sache zu bewerten, ist die Kenntnis der Zahlen unabdingbar. Eine Relation, die manche Wissenschaftler wohl außer Acht lassen.

Denn Theorien, die ohne messbaren Zahlenwert präsentiert werden, sind einfach nicht glaubhaft! Die Wissenschaftler überprüfen diese Theorien sonst im Experiment nie konkret – und bei jedem Misserfolg stehen Ausflüchte offen.

Ein neues Elementarteilchen ohne Vorhersage der Masse sollten Sie sich also von einem Theoretiker ebenso wenig servieren lassen wie ein exquisites Menü ohne Preisangabe.

Lassen Sie sich nicht alles auftischen!

Denn was Ihnen der Kellner mit der Stringtheorie auftischen möchte, hat eigentlich nichts mit Physik zu tun. Diese Wissenschaft basiert nun mal auf Messen. Sie sollten ausrechnen können, wieviel ein Glas Wein und ein Steak am Ende kosten.

Bezeichnend ist zum Beispiel, dass die Stringtheorie in einem anerkannten Lehrbuch der Elementarteilchenphysik mit ganzen vier Zeilen erwähnt wird – in den vergangenen dreißig Jahren wurde eben kein einziges Problem durch diese Gedankenspielchen auch nur ansatzweise gelöst. Dennoch bleibt öffentlicher Widerspruch selten, und selbst die erklärten Gegner der Stringtheorie scheinen sich mit ihr zu arrangieren.

So hat etwa Lee Smolin, dessen Buch „Die Zukunft der Physik“ an Kritik nichts zu wünschen übrig lässt, inzwischen einen furchtsam anmutenden Relativierungsbrief auf seine Homepage gestellt und forscht einträchtig mit einer Reihe von Stringtheoretikern am Perimeter-Institut, dem Aushängeschild der Theoretischen Physik in Kanada.

Loop Quantum Gravity schmeckt wie Stringtheorie …

Manche Physiker möchte man fragen, ob sie als Arzt in einer Klinik arbeiten würden, die auch Handleser und Geistheiler beschäftigt. Sicher ist nur, dass die Physik – sie ist der Patient – nicht gefragt wird. Smolins eigenes Fachgebiet, die Loop quantum gravity oder „Schleifenquantengravitation“, ist übrigens ebenso abgehoben wie die Stringtheorie, und ihre Vorhersagen sind reine Feigenblätter jenseits aller experimentellen Überprüfbarkeit.

Insofern war das oft in Szene gesetzte Duell zwischen Strings und Loops immer schon uninteressant – wissenschaftlich sind beide nicht satisfaktionsfähig. Daher tendiert man in den deutschen Filialen der transatlantischen Trendsetter neuerdings wieder zum Konsens: Die Schleifenquantengravitation wird von Stringtheoretikern als „ernst zu nehmende Konkurrentin“ gewürdigt, während sich Vertreter der Loops mit der Idee anbiedern, die Ansätze müssten vielleicht eines Tages vereint werden.

Was würde Einstein sagen?

Gegenseitige Gastaufenthalte an den Hohepriester-Instituten in den USA begründen dabei wissenschaftliche Laufbahnen, deren Sahnehäubchen darin bestehen, von einem Nobelpreisträger öffentlich beim Vornamen gerufen zu werden.

Mit den Messproblemen aber, die Albert Einstein, Erwin Schrödinger und Paul Dirac bewegten, haben Stringtheorie und Loop quantum gravity nicht das Geringste zu tun.

Vielleicht zählen Lee Smolin und die anderen Theoretiker ja zu den Glücklichen, die überhaupt nie auf den Preis, also das Messbare, schauen müssen. Auch nicht bei Premium-Black-Angus-Steaks.

HIRN AUS, COMPUTER AN! – WARUM DIGITALISIERUNG DER TOD DER WISSENSCHAFT IST

Digitalisierung hat nicht nur das Privatleben vieler und die Arbeitswelt fest im Griff, sondern auch die Wissenschaft. Der Computer berechnet, analysiert, modelliert – bei komplizierten Denkprozessen vertraut der Mensch heutzutage lieber dem kleinen viereckigen Kasten. Das eigene Hirn – nur Nebensache.

Viel Raum für kriminelle Energie

Ist ja auch klasse für die Wissenschaft. Dank der Digitalisierung liegen viel schneller Ergebnisse auf dem Tisch. Nur noch ein paar Eingaben machen und schwups … eine neue Theorie ist vermeintlich belegt. Das ist nicht mehr wie zu Einsteins Zeiten, in denen die Wissenschaftler Jahre, manchmal Jahrzehnte, gebraucht haben, um ihre Gedanken in Formeln und belegbare Theorien zu gießen. Newton antwortete auf die Frage, wie er auf seine Theorie gekommen sei lapidar: „Ich habe sehr lange nachgedacht!“

Heute übernimmt der Computer die meiste Denkarbeit.

So sehr ich Computer und modernste Technologien schätze – diese Entwicklung ist bedenklich: Denn hinter jeder Software steckt doch immer noch ein Mensch, der sie manipulieren kann.

Jeder halbwegs talentierte Softwareentwickler kann in seinem Keller neue Parameter ins Computerprogramm schreiben. Er kann alles hindrehen, wie gewünscht oder eben nicht. Ein Einfluss, der meist außer Acht gelassen wird.

Das geschieht nicht immer in böser Absicht, sondern einfach weil man ein Ergebnis haben will. Und wenn sich einfach ein Programmierfehler einschleicht, dann wird das bestimmt nicht mehr zugegeben, wenn schon eine schöne Veröffentlichung erschienen ist. (z.B. mein Interview mit dem Galaxienforscher Mike Disney)

Digitalisierung in der Physik lässt grüßen

Nehmen Sie ein Beispiel aus der Galaxiendynamik: Man behauptet, Spiralgalaxien behielten ihre ästhetische Scheibenform nur dann, wenn sich die Dunkle Materie kugelförmig um das Galaxienzentrum verteilt – das ist das Resultat von Computermodellen, die das konventionelle Gravitationsgesetz zu Grunde legen.

So geht man davon aus, dass alle Galaxien mit so einem dunklen ‚Halo‘ aus irgendwelchen Teilchen (die die Theoretiker gerade erfunden haben) umgeben sind. Eigentlich ist das schon wenig glaubwürdig, denn es gibt für wie auch immer geartete Elementarteilchen keinen Grund, sich in der Galaxie so eigentümlich zu sortieren: Warum ordnet sich die sichtbare Materie in der Scheibe an, wenn die Dunkle es nicht tut?

Jene Computersimulationen waren der Anfang einer Entwicklung, bei der unerklärte Beobachtungen und theoretische Wunschvorstellungen Hand in Hand zu einer immer größeren Komplizierung führten. Um die Daten zu beschreiben, muss die kugelförmige Haloumgebung etwa zehnmal so groß wie die leuchtende Galaxie sein. Die Geschwindigkeit der Gaswolken sollte außerhalb des Halos aber dann wieder abnehmen. Aber wenn man hinsieht, tut sie dies nicht – eine von vielen Ungereimtheiten.

Digitalisierung lässt grüßen.

Wünsch dir was

Daneben gibt es auch Computersimulationen zur Galaxienentstehung. Diese kämpfen seit Langem mit einem Ergebnis, das nicht mit den Beobachtungen übereinstimmen will: Spiralgalaxien wie die unsere müssten in Hunderte von kleinen Begleitgalaxien eingebettet sein, die sich gleichmäßig im Halo verteilen. Leider gibt es im Falle der Milchstraße nur etwa dreißig Stück davon. Dieser Misserfolg wird kaschiert, indem man neue Parameter ins Computerprogramm einbaut, zum Beispiel einen, der angeblich Auswirkungen von Supernova-Explosionen beschreibt. Da man nicht die geringste Ahnung hat, wie stark dieser Effekt im frühen Universum war, probiert der Computer so lange an diesen Zahlen herum, bis das Ergebnis passt.

Ob dieses Ergebnis dann mit der Realität zu tun hat, wird eher nebensächlich … Trotz der fantastischen Rechenleistung unserer digitalen Werkzeuge würde es vielen Physikern nicht schaden, mal wieder ihren eigenen Denkapparat einzuschalten.

ACHTUNG, SÄBELZAHNTIGER! WIE DIE STEINZEIT DIE WISSENSCHAFT IM GRIFF HAT

Wer sich der Gruppe nicht unterordnet, der wird ausgestoßen, aus der gemeinsamen Höhle geworfen – und vom Säbelzahntiger gefressen!

Ja, diese einfache Formel galt wohl mal vor ein paar tausend Jahren fürs eigene Überleben. Wer alleine dastand, setzte sich damit einer existenziellen Gefahr aus. Gut, dass die Steinzeit vorbei ist!

Hm … ist sie das wirklich? Wenn ich mir die heutige Wissenschaft so anschaue, erkenne ich da durchaus noch ein paar neolithische Züge …

Mächtige Gruppen in der Wissenschaft

Auch in der Wissenschaft – in der Kosmologie, Physik, Astronomie und vielen anderen Gebieten – finden Sie Gruppen, in denen sich die einzelnen Neandertaler zusammenschließen. Sie nennen sich Fachgebiete oder „Experten“ eines Paradigmas.

Nehmen Sie beispielsweise die Kosmologie: Das derzeitige anerkannte „concordance model“  herrscht dort über die Datenauswertung. Die Analyse der modernen Großexperimente ist viel zu komplex, als dass sie aus einem alternativen Blickwinkel in kurzer Zeit wiederholt werden könnte. Man müsste eine Vielzahl von versierten Wissenschaftlern zur Verfügung haben, um hier eine Chancengleichheit bei der Datenauswertung herzustellen.

Die Mainstream-Kosmologie ist mächtig und bietet ihren Gegnern und Fressfeinden locker die Stirn. Schön – für ihre Anhänger zumindest.

Kein Platz für neue Ideen

Trotz einiger vielversprechender Ansätze krankt die Wissenschaft in vielen Bereichen an diesem Gruppendenken. Solange ganze Fachgebiete, die einem bestimmten Paradigma der Interpretation folgen, alleinigen Zugriff auf die Daten haben – nebst den Ressourcen, diese auszuwerten –, ist es völlig illusorisch, dass eine radikale neue Idee auch nur die Chance hat, geprüft zu werden.

Wer mit neuen Ideen um die Ecke kommt, passt nämlich nicht in die Gruppe und wird direkt den Säbelzahntigern zum Fraß vorgeworfen. Das steinzeitliche Gruppendenken in der Wissenschaft verwehrt es dem Einzelnen geradezu, die gemeinsame Arbeitsgrundlage auch nur im Geringsten infrage zu stellen.

Damit ist kein explizites Verbot gemeint, sondern ein psychologisches, oft sogar unbewusstes Phänomen. Kaum jemand wird in einem Saal mit fünfhundert Wissenschaftlern einem Vortrag lauschen und gleichzeitig zweifeln, ob das Thema des Vortrags überhaupt einen Sinn ergibt. Die Vorstellung, nicht mehr dabei sein zu dürfen, beeinflusst die Urteilskraft. Der Säbelzahntiger wartet schon um die Ecke auf von der Gruppe verstoßene Individuen …

Der Traum vom selbstständigen Denken

Doch wie soll die Wissenschaft funktionieren, wenn niemand mehr wagt zu denken, was die Masse als undenkbar erachtet?

Würden sich mehr Einzelpersonen aufrichtig ihrer Wissenschaft verschreiben und eigenständig denken – ich glaube, das hätte uns so manche moderne Absonderlichkeit wie die Stringtheorie oder immer noch größere Teilchenbeschleuniger erspart.

Ich bin gespannt, wann die Wissenschaft nicht nur körperlich den aufrechten Gang perfektioniert, sondern auch geistig so weit ist, dass Einzelne keine Tiger mehr fürchten müssen, wenn sie eine Idee abseits des Gruppendenkens äußern.

Vielleicht sollte ich diese Traumwelt an meine Höhlenwand malen …

EINBILDUNG IST KEINE GUTE BILDUNG

Als man im Ptolemäischen Weltbild die beobachteten Planetendaten nicht mehr mit einfachen Kreisen um die Erde erklären konnte, führte man eine Kreisbewegung auf der Kreisbewegung ein, sogenannte Epizyklen. Als bessere Beobachtungen erneut eine Abweichung ergaben, wurden die Mittelpunkte der Hauptkreise jeweils um einen kleinen Wert verschoben, den Exzenter. Und alles stimmte wieder.

Naja, wer’s glaubt!

Ein neuer Anstrich schafft keine neue Grundlage

Nur kann jedes fehlerhafte Modell gerettet werden, „wenn man sich auf solche Fummeleien einlässt“, wie Simon Sing in seinem ausgezeichneten Buch Big Bang schreibt. Heute sind sich die Forscher daher einig, dass dieses Postulieren unverstandener Mechanismen kein Fortschritt war, sondern eine Erosionserscheinung der Wissenschaft, übermalter Rost einer Konstruktion, die brüchig wurde. Damals fiel es bekanntlich schwer, ein gefestigtes Weltbild aufzugeben – das gilt heute umso mehr, als keine vernünftigen Alternativen zu existieren scheinen.

Aber sollten wir nicht wenigstens gewarnt sein? Auf den Konferenzen dagegen begegnet man einer beunruhigenden Euphorie: Die beschleunigte Expansion samt ihren theoretischen Beschreibungen wie kosmologische Konstante, Dunkle Energie oder Quintessenz taucht an allen Ecken und Enden auf, jeder sieht sie nun ganz klar!

„Anders sind die Röntgenbeobachtungen nicht zu deuten“ oder „Die Galaxienverteilung ist sonst nicht mit den Modellen in Einklang zu bringen“ schreibt zum Beispiel Christopher Conselice von der Universität Nottingham mit bewundernswerter Naivität (C. Conselice, SdW 5/2007, S.36). Dabei sollte man sich als Wissenschaftler bewusst sein: Mit einem weiteren freien Parameter, also einer Zahl mehr, die man anpassen kann, erklärt sich jeder Datensatz besser.

Kein Zufall? Schon klar!

Analysiert man die bei verschiedenen Rotverschiebungen sichtbaren Supernovadaten, so ergibt sich folgendes Szenario: Zunächst, also in einer frühen Entwicklungsphase des Universums, war die Beschleunigung noch nicht wirksam und die Expansion daher gebremst. Schließlich gewann die Dunkle Energie an Bedeutung – sie wächst mit der Ausdehnung – und zu einem bestimmten Zeitpunkt ist die anfängliche Bremsung durch die Beschleunigung genau kompensiert. Nun raten Sie bitte, wann dies der Fall war: nach 14 Milliarden Jahren, also heute.

Vor Kurzem hat mir wieder ein Kosmologe versichert, dass dies reiner Zufall sei. Sie wundern sich? Zu recht. Diese Merkwürdigkeit heißt Koinzidenzproblem, denn das akzeptierte Modell ist schon etwas paradox: Die Phasen der Bremsung und Beschleunigung der Expansion könnten doch genauso gut so verteilt sein, dass unsere momentane Ausdehnungsrate, die Hubblekonstante, nicht viel mit dem Weltalter zu tun hat.

Es ist in etwa so, als ob sie auf einer längeren Autofahrt mit sehr unterschiedlichen Geschwindigkeiten unterwegs sind. Sie können dabei jederzeit die Durchschnittsgeschwindigkeit für die bisherige Strecke errechnen, aber die Wahrscheinlichkeit, dass sie in einem bestimmten Moment gerade mit dieser Durchschnittsgeschwindigkeit fahren, ist doch recht gering. Und nach neuesten Messungen ist die Evidenz für die Dunkle Energie sowieso viel schwächer als bisher angenommen …

Welch intelligentes Leben

Wenn wir also davon ausgehen, dass intelligentes Leben auch in einer früheren oder späteren Epoche des Universums entstehen kann, dann passiert uns gerade ein ulkiger Zufall. Oder lacht jemand da draußen?

Sind wir gerade wieder der Einbildung aufgesessen, unsere bescheidene Gegenwart sei etwas besonderes? Die Dunkle Energie hat Widersprüche bezüglich des Weltalters aufgelöst, aber das Koinzidenzproblem nährt den Verdacht, dass diese Reparatur zu bequem war. Der Kosmologe Lawrence Krauss hat übrigens auf eine paradoxe Folge hingewiesen: Die beschleunigte Expansion führt dazu, dass entfernte Objekte wieder aus unserem sichtbaren Horizont verschwinden.

So wird es beispielsweise in späteren Epochen des Universums unmöglich sein, den kosmischen Mikrowellenhintergrund zu beobachten. Zukünftige Kosmologen werden also ein recht eintöniges Universum vorfinden – umso besser also, dass wir jetzt schon alles verstanden haben!

Sie sehen: Ein neuer Anstrich als Makulatur und die Einbildung als die Hoffnung auf echte Intelligenz, bringen uns nicht immer im Leben weiter.

WENN DIE EXPANSION DES WELTALLS EIN GRANDIOSER IRRTUM WÄRE

Die Expansion des Kosmos ist heute eine allgemein anerkannte Theorie. Sie basiert auf der gemessenen Rotverschiebung des Lichts entfernter Galaxien – seit Edwin Hubble eine unbestrittene Tatsache. Offenbar scheinen die Himmelskörper mit hoher Geschwindigkeit von uns wegzufliegen, was die zu uns zurückgeworfenen Lichtwellen dehnt und somit „röter“ macht. Alle sind sich einig: Der Kosmos dehnt sich aus. Der Fachbegriff dazu: Expansion.

Nun, wenn das so ist, müssten wir die sich daraus ergebenden Effekte ja auch nachmessen können. Und genau das wird heute getan. Allerdings bergen die gemessenen Daten Überraschungen …

Nachgemessen

Die technologische Entwicklung ist für die Kosmologie ein Segen. Die Daten der modernen Teleskope verknüpft mit großen Datenbanken und dem Zugriff übers Internet ergeben zum Beispiel solch fantastische Dinge wie den Galaxienkatalog SDSS, den Sloan Digital Sky Survey, der jedem offen zugänglich ist. Diese Daten sind nichts anderes als eine Landkarte des Universums. Jedenfalls von etwa einem Viertel des Himmels.

In diese Landkarte werden derzeit die Positionen und Helligkeiten von mehr als 100 Millionen Himmelskörpern eingetragen. Außerdem sollen mit seiner Hilfe die Entfernungen und Eigenschaften von etwa einer Million Galaxien und Quasaren bestimmt werden. Seit 1998 werden die Daten nach und nach gesammelt und integriert. Das Gesamtbild wird immer genauer und vollständiger. Es zeigt sich immer präziser die faszinierende schaumartige Struktur des Universums mit seinen Galaxienhaufen und den großen dazwischen liegenden „Hohlräumen“ mit relativ geringer Galaxiendichte.

Aber leider stößt das anerkannte Modell des Universums, das auf der Allgemeinen Relativitätstheorie Einsteins basiert, auf große Widersprüche!

Knoten im Kopf

Denn wenn Sie die Allgemeine Relativitätstheorie auf den Kosmos anwenden, führt das zu einem wahren Wirrwarr von merkwürdigen Postulaten. Unter anderem prognostiziert die Theorie die Größe der Galaxien am Himmel. Ab einer bestimmten Entfernung soll die scheinbare Größe der Galaxien der Theorie entsprechend nicht weiter ab- sondern zunehmen. So in etwa wie beim Scheinriesen in Michael Endes Erzählung von Jim Knopf und Lukas dem Lokomotivführer: Je weiter er wegläuft, desto größer erscheint er.

Das klingt nicht nur merkwürdig, es lässt sich auch durch die Daten des SDSS in keinster Weise bestätigen. Und das liegt nicht nur im Bereich von Messfehlern: Die Theorie sagt bis zu sechsmal größere Galaxienausdehnungen voraus als die in der Realität gemessenen.

Sie und ich würden nun sagen: An der Theorie kann etwas nicht stimmen. Da die Berechnungen auf Basis der Theorie korrekt sind, muss es an irgendwelchen falsch gewählten Voraussetzungen liegen. Wir müssen dringend zurückgehen und überlegen, wo wir falsch abgebogen sind.

Nicht so aber die theoretischen Physiker! Sie beharren steif und fest auf den grundlegenden Annahmen ihrer Theorie und fügen einfach willkürliche Zusatzannahmen und Parameter hinzu: Sie postulieren beispielsweise, die Galaxien würden sich eben in Helligkeit und Größe mit der Zeit entwickeln – und zwar genau so, dass es gerade wieder zu den Daten passt.

Doch dadurch werden die theoretischen Modelle immer komplizierter. Sie werden sozusagen um die beobachtete Wirklichkeit drumherum gebaut. Die Natur wird so nicht verstanden, sondern mathematisch nachgeäfft.

Ich bin sicher, Einstein hätte das nicht mitgemacht. Er hätte lieber seine Theorie grundsätzlich in Frage gestellt, als sie bis zur Unkenntlichkeit zu verkomplizieren. Denn die wahren Durchbrüche in der Wissenschaft waren immer mit einer Zunahme an logischer Eleganz verbunden, niemals mit einer opportunistischen Verknotung.

Und die Lösung der Expansion?

Erstaunlicherweise passen die beobachteten Daten des fernen Kosmos am besten zu einer ganz einfachen Interpretation: Es gibt keine nennenswerte Evolution von Galaxiengrößen. Es gibt auch keine Beschleunigung. Und auch keine Expansion! Die Daten passen am besten zu einem Universum, in dem die Materie statisch ist. Die sichtbare Ausdehnung der Galaxien am Himmel nimmt dann einfach ganz schlicht mit ihrer Entfernung ab, so wie man das ganz intuitiv auch erwarten würde.

Die Frage ist nur, was wir dann mit der beobachteten Rotverschiebung machen, die bislang immer als eine Art Doppler-Effekt interpretiert wurde, was ja auf die Expansion des Universums hingedeutet hat.

Da ist ja der eigentliche Widerspruch: Die gemessenen Galaxiengrößen deuten auf ein statisches Universum hin, die Rotverschiebung auf ein sich ausdehnendes Universum. Eins von beidem ist falsch, solange die Gesetze der Logik noch gelten. Bislang wurde die Interpretation der Rotverschiebung, also die Expansion des Universums, vorausgesetzt. Was wäre, wenn diese Annahme falsch wäre? Was wäre, wenn die gemessenen Daten ganz einfach interpretiert ein Beleg für ein statisches Universum wären? Dann müssten wir eine andere Deutung für die Rotverschiebung finden, um den Widerspruch auszuräumen.

Und diese andere Deutung gibt es! Einstein selbst hatte 1911 eine Version der Allgemeinen Relativitätstheorie entwickelt, die genau dazu führt. Unabhängig von ihm hatte der US-amerikanische Physiker Robert Dicke die gleiche Idee. In meinem Buch „Einsteins verlorener Schlüssel“ erkläre ich den heute leider vergessenen Ansatz genauer.

NATURKONSTANTEN – EINE GEFÄHRLICHE LIEBSCHAFT

Heute muss ich Ihnen noch ein paar Illusionen über Naturkonstanten rauben. Ich bin ein echter Naturwissenschaftler und das ist auch schon das Problem: Man kann sich nicht damit zufriedengeben, Zahlen von der Natur „serviert“ zu bekommen, die nicht weiter begründet sind. Ein Naturwissenschaftler will sie verstehen, letztlich berechnen.

Klingt logisch? Ja, finde ich auch. Die Liebhaber der Naturkonstanten sehen das aber scheinbar anders.

Die Liebe zu Naturkonstanten

Über den Sinn und Unsinn von Naturkonstanten – von nicht berechenbaren, willkürlichen Zahlen – diskutierte bereits Albert Einstein in einem Briefwechsel mit der Philosophie-Doktorandin Ilse Rosenthal-Schneider (nein, mit ihr hatte er keine Affäre):

„Ich kann mir keine einheitliche und vernünftige Theorie vorstellen, die explizit eine Zahl enthält, welche die Laune des Schöpfers ebenso gut anders hätte wählen können.“

Sie können Einsteins Aussage auch so formulieren: Warum sollte die Natur einer x-beliebigen Zahl eine besondere Bedeutung zuordnen? Das wäre ja wie in der Liebe: Dich unter den Millionen anderen Menschen finde ich toll, einfach darum. Offensichtlich wäre dies irrationales Denken, das Einstein zuwider war.

Und damit war er nicht allein: Alle großen Physiker sahen die Notwendigkeit, die Liebe zu solchen Zahlenwerten zu hinterfragen. Paul Dirac verachtete geradezu alle Versuche, das Rätsel unter den Tisch zu kehren. Oft fragte er junge Theoretiker, die ihn mit neuen Ideen aufsuchten, nach dem Ursprung der Feinstrukturkonstante – nur eines von mehreren Beispielen für solch zufällige Naturkonstanten. Hatten die Nachwuchswissenschaftler sich damit noch nicht beschäftigt, schickte er sie konsequent – und reichlich lieblos – nach Hause.

Und auch Richard Feynman, Nobelpreisträger von 1965 und unangefochtene Ikone der Nachkriegsphysik, schrieb noch 1985 in seinem Buch QED: The Strange Theory of Light and Matter über denselben Fall von Naturkonstanten: „Alle guten theoretischen Physiker schreiben sich diese Zahl an die Wand und grübeln darüber nach.“

Ein schlechter Tag für Zeus

Das mag in Ihren Ohren nun reichlich anstrengend klingen. Sich nie ganz auf die Liebe zu Naturkonstanten einzulassen, stets weiter darüber nachzugrübeln, andere Ansätze zu suchen. Doch genau das macht Wissenschaft letzten Endes aus. Ein Akzeptieren von unerklärten Zahlen als „Naturkonstanten“ wäre eine Regression in vorwissenschaftliches Denken, im Grunde nicht weit entfernt von antiken Völkern, die unerklärte Phänomene den Launen der Götter zuordneten. Ein Blitz? Oooh Zeus muss heute einen schlechten Tag haben! Vielleicht hat er sich mit seiner Hera gestritten?

Dabei würde ich mir wünschen, dass Zeus wirklich mal einen richtig miesen Tag hat. Nämlich den Tag, an dem ein paar mehr Physiker kapieren, dass es ihre Aufgabe ist, den Blitz hinter Zeus zu erklären, nicht nur zu beschreiben.

Niemand mit wachem Verstand wird sich endgültig mit der Vorstellung abfinden, die Natur habe uns mit Zahlen der Art 137,035999… beglücken wollen, die prinzipiell nicht zu berechnen sind. Von diesen Prinzipien der Denkökonomie hat die gegenwärtige liebesblinde Physik jedoch leider ziemlich Abschied genommen.

Naturkonstanten, ich mach’ Schluss!

Die traurige Wahrheit ist nämlich, dass die Standardmodelle der Teilchenphysik und der Kosmologie heutzutage geradezu verknallt sind in Naturkonstanten. Dutzende (!) von unerklärten Zahlen werden darin schlicht akzeptiert – und bei all der Liebe auch noch sorgsam aufgebläht mit unerklärlichen Phänomenen wie der dunklen Materie, der dunklen Energie oder der „Inflation“. Zum Verständnis in der Wissenschaft tragen diese Konzepte allerdings allesamt nicht wirklich bei. Höchstens eben zur rosaroten Brille, mit der sich die Forscher alles schön zurechtbiegen …

Elementare Logik legt unter diesen Umständen den Verdacht nahe, dass wir eben etwas noch nicht kapiert haben – und es wäre wohl auch unangebrachte Hybris, diese Möglichkeit auszuschließen. Manche Liebesbeziehungen nehmen eben auch einmal ein Ende. Und ganz ehrlich, liebe Naturkonstanten, so richtig geklappt hat es zwischen uns doch schon länger nicht mehr, oder?

EHRGEIZ KOMMT VOR DEM FALL

Ein Team mit viel Ambitionen und zu Beginn meist wilde Ratespielchen, was der Patient denn nun haben könnte. Und ein mürrischer Arzt, der seinen Patienten oft nicht einmal zu Gesicht bekommt und schwerwiegende Krankheiten aus seinem Büro heraus diagnostiziert – anhand der Symptome, die auf einem Flipchart stehen. Dr. Gregory House, gespielt von Hugh Laurie, und sein Ärzteteam sind alle so ehrgeizig bei der Diagnose und Behandlung, dass Sie den Wald vor lauter Bäumen nicht mehr sehen oder eben Bäume, wo überhaupt gar keine sind. Und trotzdem: House ist berühmt und eine Koryphäe auf seinem Gebiet.

Ehrgeiz durchzieht das ganze Leben: Wirtschaftsunternehmen wollen den größten Umsatz machen, Sportler Weltrekorde erzielen, Banken den größten Gewinn machen. Auch die Physik ist – leider – auf diesem Weg.

Der Versuch einer Entdeckung

Die Gesellschaft für Schwerionenforschung darf sich rühmen, immerhin 6 der 118 bisher bekannten chemischen Elemente entdeckt zu haben. Diese großen Erfolge wurden erreicht, indem die Forscher in einem Beschleuniger mit Kernteilchen auf schwere Atomkerne schossen.

Dabei entstanden durch Verschmelzung die besagten neuen Kerne und sie konnten sogar auf die Entdeckung ganz neuer Elementarteilchen hoffen. Genau das schien sich 1983 anzubahnen: Hinweise darauf gaben kurzzeitig entstandene Positronen, Antiteilchen des Elektrons mit umgekehrter Ladung. Diese Elektron-Positron-Paare entstehen durch Erzeugung von Materie aus bloßer Energie nach der Einsteinschen Formel E = mc². Diese neuen Teilchen hoffte das Forschungsteam nun mit sogenannten „Positronenlinien“ nachzuweisen, weshalb darauf nun alle Anstrengungen konzentriert wurden.

Kurzfristiger Ruhm

Mit Erfolg. Man fand die Linien mit einer Signifikanz, die über 99,9999 Prozent Wahrscheinlichkeit entsprach, so dass das Phänomen praktisch kein Zufall mehr sein konnte.

Die Theoretiker waren elektrisiert. Der Nachweis der Positronenlinien wäre sensationell und ein Kandidat für den Nobelpreis gewesen, von dem der Forschungsgruppenleiter, Autor eines ganzen Regalmeters von Lehrbüchern, bald träumte. Nach wie vor zeigte sich das Experiment jedoch kapriziös. In manchen Zusammenstößen waren die rätselhaften Signale einfach nicht zu sehen, was man auf ein ‚schlechtes Target‘ zurückführte, also auf einen unter Beschuss genommenen Atomkern, der irgendwie nicht so wollte. Solche Erklärungen häuften sich.

Ein neuer Direktor gab der Gruppe schließlich ein halbes Jahr Zeit, um die Sache endgültig zu klären. Aber mit einem verbesserten Versuchsaufbau war plötzlich gar nichts mehr zu sehen. Die Seifenblase war endgültig geplatzt.

Blickverengung durch zu viel Ehrgeiz

Berufsrisiko der Wissenschaft, könnten Sie jetzt sagen. Das mag sein. Ich denke jedoch, der Ehrgeiz war schuld. Und auch der Philosoph Ludwig Wittgenstein sah das wohl ähnlich mit seinem boshaften, aber sehr wahren Zitat: Ehrgeiz ist der Tod des Denkens.

Nun möchte ich der Gesellschaft für Schwerionenforschung in Darmstadt nicht unterstellen, dass sie 1983 Ratespielchen betrieb oder zu ehrgeizig war. Das muss man als Wissenschaftler schon auch sein, um Erfolge zu erzielen. Doch die ersten Hinweise machten die Forscher so euphorisch, dass sie in immer kleineren Teilmengen der Daten suchten. Diese waren als interessant ausgewählt worden, eben weil man dort das neue Phänomen sah.

Aber im Ergebnis war es leider eine gruppendynamisch verstärkte Selbsttäuschung. Zehn Jahre Forschungsarbeit umsonst. Eine entsprechende Katerstimmung machte sich breit.

Ob Dr. House oder Physik – wenn Sie vermeintlich interessante Daten herausfiltern, können Sie Effekte beeinflussen, aber eben auch Artefakte verstärken. Und sich damit selbst foppen. Also Vorsicht beim allzu ehrgeizigen „Herumdoktern“ an wissenschaftlichen Versuchsreihen …

WENN DIE PHYSIK ZUR SÜSSIGKEITENSCHACHTEL WIRD

Sie kennen doch sicherlich M&M’s und Smarties. Diese Schokolinsen, die mit bunten Zuckerüberzug daherkommen und von denen manche behaupten, sie könnten den Unterschied in der Farbe schmecken. Ganz ähnlich wie eine Packung M&M’s kommt mir die Physik manchmal vor – jedenfalls dann, wenn es um Quarks geht.

Quarks – ist das was zum Essen?

Die Welt der Quarks ist bunter als die der M&M’s – und fast ebenso beliebig. Es gibt sie in drei Farben: rot, grün und blau. Und in sechs Geschmacksrichtungen: up, down, strange, bottom, top und charm. Und Überraschung: Laut Teilchenphysikern können Sie die bunten Teilchen sogar essen. Sie kommen sogar gar nicht umhin, sie zu essen. Denn Quarks sind angeblich – neben weiteren Teilchen – die grundlegenden Bausteine, aus denen Materie aufgebaut ist. Mhm, lecker.

Eines stößt mir aber sauer auf: Diese kulinarischen Köstlichkeiten wurden nicht durch Experimente entdeckt wie beispielsweise die Elektronen oder der Atomkern. Die Evidenz für Quarks ist viel „indirekter“, kurz gesagt: Physiker haben ihre Existenz einfach angenommen.

Nicht erklärbar? Das muss ein Teilchen sein.

Der Hochenergiephysiker und Wissenschaftshistoriker Andrew Pickering berichtet davon detailliert in seinem großartigen Buch „Constructing Quarks“. Das Muster ist immer das gleiche: Beobachten die Teilchenphysiker in ihren Experimenten etwas, das sie nicht erklären können, postulieren Sie ein Teilchen, dass genau die Eigenschaften hat, die die Lücke füllen. Ist ja prima …

Diesem Beispiel folgen die “modernen“ Forscher seit Jahrzehnten, was unter anderem zu Geschmacklosigkeiten wie den Quarks mit ihren unüberschaubar vielen Varianten und bizarren Eigenschaften führte. Stellen sie sich vor: „Teilchen“, die nie als solche einzeln vorkommen. Demokrit hätte sich im Grab umgedreht. Weil Pickerings Buch den Finger in solche Wunden legt, versteht man, warum es unter Teilchenphysikern recht unbeliebt ist.

Schlank und einfach statt bunte Vielfalt

Ich finde ja: Die Physik sollte die Produktion bunter Vielfalt doch besser den Süßigkeitenproduzenten überlassen und sich lieber darauf konzentrieren, ihre Modelle schlank und einfach – und vor allem: nachprüfbar – zu gestalten. Aber davon sind sie leider weit entfernt.

David Gross, der 2004 einen Nobelpreis für seine Arbeit an dem Quarkmodell erhielt, verließ ein Interview mit mir auch leicht angesäuert, als das Thema auf Pickerings Buch kam – vielleicht hätte ich ein paar M&M’s mitbringen sollen?

IDEE ODER SPINNEREI: DIE DUNKLE MATERIE

Die Erde ist hohl.

Wie, wussten Sie nicht? Dann hätten Sie mal besser auf den englischen Astronom Edmond Halley gehört. Jaaa, der hat das nämlich schon 1692 vermutet. Er ging von der allgemeinen Ansicht aus, dass alle Materie der Planeten und Monde die gleiche Dichte hätte. Im Vergleich zum Mond, so folgerte Halley, müsste ein Teil der Erde also hohl sein.

Klingt doch perfekt logisch, oder?

Querdenken erlaubt

Na gut, na gut, ich werde jetzt mal nicht weiter auf Halley rumhacken. Es ist ja auch ganz normal, dass in der Forschung ab und zu ein falscher Weg eingeschlagen wird. Und das ist absolut in Ordnung. Ohne ein bisschen Querdenkerei hätte die Wissenschaft viele tolle Ideen wohl nie entwickelt oder weiterverfolgt.

Aber da liegt auch die Krux der Sache: Die Fähigkeit, Ideen auszusortieren, die eben in die falsche Richtung geführt hätten, scheint der Physik und der Astronomie in den letzten Jahren verloren gegangen zu sein.

Nehmen Sie ein Beispiel, das selbst die populären Medien seit einer Weile mit Vorliebe ausbreiten: die Dunkle Materie.

Die dunkle Geschichte der Dunklen Materie

Erdacht hat sie der niederländische Astronom Jan Hendrik Oort im Jahr 1932. Er hatte die Bewegungen der Milchstraße beobachtet und gesehen, dass die Sterne in den Randbezirken der Galaxien viel schneller liefen als erwartet. Auf der Suche nach einer Erklärung kam ihm folgende tolle Idee: Es musste noch mehr Materie in den Galaxien geben – eine Materie, die zwar nicht sichtbar war, allerdings eine Gravitationswechselwirkung aufwies. Und von diesem Moment an zieht sich die Theorie von der Existenz Dunkler Materie durch die Geschichte.

Dabei können Forscher selbst bis heute nur einen Bruchteil davon sehen und was sie genau ist, weiß auch immer noch niemand so recht.

Doch die Idee hält und hält sich – höchst hartnäckig und höchst naiv, wie ich finde. Denn sie geht davon aus, dass das Gravitationsgesetz im Galaxienmaßstab gilt, obwohl diese millionenfach größer sind als das Sonnensystem.

Mörder entlarvt

Was ich aber doch am lustigsten finde an der ganzen Sache – oder am traurigsten, je nachdem wie Sie es sehen wollen –, ist die Hingabe, mit der die Theorie von der Dunklen Materie immer noch weitergesponnen wird – obwohl es zahlreiche Anomalien gibt, die darauf hindeuten, dass etwas nicht stimmt.

Haben Sie zum Beispiel schon mitbekommen, dass die Dunkle Materie auch ein Mörder ist? Sie war es, die vor 66 Millionen Jahren die Dinosaurier getötet hat! Sorry, Dino.

Also, ich weiß nicht, wie es Ihnen geht, aber ich bin jetzt so traurig, dass ich gleich noch ein bisschen um die Physik weinen gehe. Hoffen wir, dass nicht die Dunkle Materie unter meinem Bett lauert …

Revolution durch Reduktion

Isaac Newton

Wie schwer Sie sich fühlen, hängt vielleicht nicht nur von Ihrer eigenen Körpermasse ab, sondern von der Gesamtmasse des Universums.

Sie erinnern sich vielleicht: Sir Isaac Newton war es, der zum ersten Mal die Anziehungskraft zweier Körper in seinem Gravitationsgesetz beschrieb. Ernst Mach hatte dazu einen interessanten Gedanken: Die Stärke der Gravitationskraft könnte von der Gesamtmasse des Universums abhängen.

Warum dieser Gedanke so spannend ist?

Newton hatte für seine Berechnung der Gravitationskraft einen mathematischen Kunstgriff benötigt, der als Gravitationskonstante bezeichnet wird. Es ist ein fester Zahlenwert, dessen Existenz die Theorie jedoch nicht erklären kann.

Hinge die Gravitation jedoch von der Gesamtmasse des ganzen Universums ab, würde die Gravitationskonstante wegfallen. Statt einer unerklärten Zahl, gäbe es eine Erklärung für den Wert, der hinter dieser Zahl steckt. Diese Reduktion um eine Konstante könnte für die Physik eine Revolution bedeuten.

Und jetzt kommt der Clou: Diese Revolution könnte gelingen, wenn die Lichtgeschwindigkeit veränderlich wäre.

Die von Einstein entwickelte allgemeine Relativitätstheorie kann entweder durch einen gekrümmten Raum oder durch eine variable Lichtgeschwindigkeit beschrieben werden. Beide Möglichkeiten sind rechnerisch äquivalent, kommen also über einen anderen Weg auf die gleichen Ergebnisse.

Alle modernen Tests, die es heute dazu gibt, werden von beiden Möglichkeiten korrekt beschrieben – das wurde inzwischen ausführlich bewiesen.

Allerdings hat Einstein die Möglichkeit der variablen Lichtgeschwindigkeit nicht weiter verfolgt und inzwischen ist sie fast völlig in Vergessenheit geraten. Es ist ein bisschen so, als hätte die Physik einen Schatz noch nicht gehoben, der schon seit über hundert Jahren versunken in ihrem Hafenbecken liegt. Unglaublich? Aber wahr.

Welchen Zusammenhang die Gravitation mit einer variablen Lichtgeschwindigkeit haben könnte, dazu hatte der geniale amerikanische Astrophysiker Robert Dicke 1957 eine Idee. Sie basiert auf einer Formel, die Einstein 1911 entwickelte, als er an seiner Relativitätstheorie arbeitete: Die Summe aller Gravitationspotenziale des Universums könnten genau dem Quadrat der Lichtgeschwindigkeit entsprechen.

Das heutige Standardmodell der Kosmologie hat für diesen Zusammenhang jedoch keine Erklärung. Da diese Möglichkeit so ein faszinierendes, revolutionäres Potenzial hat, lohnt es sich, sie nochmal aus der Gruft der ad acta gelegten Ideen der Physik zu holen und zu prüfen, ob sie nicht doch reanimiert werden kann.

Sie dürfen sich durchaus aufgefordert fühlen. Wer weiß, vielleicht heben Sie ja den versunkenen Schatz?

Mehr zum Thema erfahren Sie in meinem Buch „Einsteins verlorener Schlüssel“, das im November erscheint.