DIE GEFAHREN AUS DEN PHYSIKLABOREN

Bald wird es kein Trinkwasser mehr geben! Eine Probe exotischen Wassers ist aus einem Labor ins Abwasser gelangt und hat die Trinkwasserreserven der umgebenden Stadt kontaminiert. Über Kanäle und Flüsse breitet sich das Polywasser Gefahrverseuchte Wasser weiter aus. Inzwischen sind 30% der Wasservorräte der Erde betroffen! Das gesamte Leben auf diesem Planeten ist bedroht!

Die Angst geht um

Nein, keine Sorge, dieses Horrorszenario ist nicht Wirklichkeit. Aber vor etwa fünfzig Jahren ging die Angst tatsächlich um. Das sogenannte Polywasser wurde in den 1960er Jahren in Russland entdeckt. Es hatte erstaunliche Eigenschaften: Es war zähflüssig wie Honig, viel schwerer als normales Wasser, hatte einen viel höheren Siedepunkt und einen niedrigeren Gefrierpunkt. Ein angesehener Experimentator übernahm die weitere Erforschung, bestätigte die Existenz und fand weitere erstaunliche Eigenschaften.
Die Forscher befürchteten, dass sich Wasser bei Berührung mit dem Polywasser auch in Polywasser umwandeln und Leben auf der Erde damit undenkbar machen könnte. Kritische Stimmen bemerkten zwar, dass es in den letzten Milliarden Jahren Erdgeschichte offensichtlich nicht dazu gekommen war. Bis diese Stimmen gehört wurden, hatte Kurt Vonnegut diese Horrorvision allerdings schon in seinem Science Fiction-Thriller „Eis IX“ verarbeitet. Und als später ein russischer Labormitarbeiter eine Probe des Polywassers untersuchen ließ und erhebliche Verunreinigungen fand, wurde er kurzerhand als Co-Autor von allen weiteren Veröffentlichungen ausgeschlossen.

Der Kampf um Forschungsgelder

Warum diese drastische Maßnahme? Weil in der Forschung die Angst, Prestige und Forschungsgelder zu verlieren, sehr groß ist. Da wird schon mal verheimlicht, wenn Fehler oder Unstimmigkeiten auftauchen. Das zeigt sich auch dadurch, dass geradezu eine Veröffentlichungs-Hysterie ausbrach, als das Polywasser auch im Westen bekannt wurde. Jeder wollte ein Stück vom Ruhm abhaben und veröffentlichte möglichst schnell etwas zu dieser „neuen Substanz“: Es erschienen haufenweise Forschungsartikel in den angesehensten Fachzeitschriften.
Und das ist das große Problem der Physik: Im Kampf um Forschungsgelder haben die Wissenschaftler Angst, dass ihnen andere mit einer neuen Entdeckung zuvorkommen. Deshalb tauschen sie Proben, Daten und Informationen nicht aus, sondern verheimlichen sie. Das macht es für unabhängige Forschergruppen natürlich unmöglich, angebliche Ergebnisse und Entdeckungen zu überprüfen und mögliche Fehler zu entdecken.
Und noch ein zweiter Punkt: Weil Forschergruppen, die viel veröffentlichen, aktiver und produktiver erscheinen, haben sie bessere Aussichten auf Forschungsgelder. Darum bemühen sich Physiker darum, möglichst viele Artikel zu veröffentlichen. Dass darunter die Qualität leidet, ist wohl klar.

Öffentliche Forschungsdaten

Wenn Sie also eine Lehre aus der Geschichte des Polywassers ziehen wollen, kommen Sie nicht umhin zu fordern, dass Forschungsdaten und genaue Beschreibungen von Versuchsaufbauten veröffentlicht werden. Etwas anderes ist im Sinne einer nachprüfbaren Forschung eigentlich inakzeptabel. Halten Sie sich nun vor Augen, dass die teuersten Forschungseinrichtungen oft am wenigsten Forschungsdaten öffentlich zugänglich machen – unrühmliches Paradebeispiel ist das CERN. In Zeiten, in denen dies mit dem Internet immer leichter sein könnte, ist dies eigentlich ein Skandal.

Crime Scene Cern

Das CERN ist eine der größten Forschungseinrichtungen der Welt. Es betreibt den Teilchenbeschleuniger Large Hadron Collider (LHC), die vielleicht größte und teuerste Versuchsanlage aller Zeiten.

Was für Daten produziert diese Versuchsanlage? Nun, so ganz genau wissen das nur die Wissenschaftler, die direkt an Projekten arbeiten, die mit dem LHC zu tun haben. Und auch die bekommen nur einen geringen Prozentsatz der produzierten Daten zu sehen. Der Rest, weit über 99,9% (!) wird Sekundenbruchteile, nachdem die Daten entstanden sind, vernichtet – weil man sie aufgrund des Modells für nicht interessant erachtet.

Was das CERN dazu sagt, fragen Sie? Gute Frage! Das CERN sagt: Es sind einfach viel zu viele Daten. Das aber ist nicht nur aus kriminalistischer Sicht bedenklich, sondern auch aus wissenschaftlicher. Im Grunde kann ja keiner überprüfen, ob die Daten, mit denen tatsächlich gearbeitet wird, auch wirklich relevant sind. Überraschende Entdeckungen in der Geschichte kamen oft dort vor, wo man es gerade nicht erwartete – und dieser Teil wird am LHC weggeworfen.

Die Wissenschaftler setzen gewissermaßen Scheuklappen auf, damit nur ja nichts ihr Modell gefährden kann. Und öffentliche Daten gibt es in der Teilchenphysik noch nicht einmal aus den 1980er, 1970er oder 1960er Jahren

… eigentliche ein Skandal, eine Art von Datenhinterziehung.

TOPFSCHLAGEN MIT TEILCHENBESCHLEUNIGERN

Wussten Sie, dass Teilchenphysiker auch gerne Topfschlagen spielen? Allerdings mit leicht abgewandelten Regeln. Normalerweise würde ein Physiker so spielen, wie Sie es kennen: Er würde eine Versuchsapparatur bauen, die er sozusagen als Löffel benutzt. Wenn er den Topf – sein Untersuchungsobjekt – gefunden hat, nimmt er sich die Augenbinde ab und betrachtet – oder besser gesagt: erforscht – es genauer.

Bei der „Jagd“ nach Elementarteilchen haben die beteiligten Physiker
eine neue Spielweise erfunden. Wenn sie mit dem Löffel einen Topf Physiker mit Augenbindegetroffen haben, nehmen sie diesen Topf aus dem Spiel, verbinden sich ihre Agen noch fester und begeben sich erneut auf die Suche nach etwas kleineren Töpfen.

Filterexperten am Werk

Klingt komisch, finden Sie? Ist es auch! Aber es ist Forschungsalltag an den Teilchenbeschleunigern. Dort werden Teilchen mit viel Energie aufgeladen und so beschleunigt. Wenn sie dann aufeinanderprallen, zerspringen sie in kleinere Teilchen. Alle diese kleineren Teilchen tragen wieder eine gewisse Energie, die in der Summe dem Ausgangswert entsprechen sollte. Wenn dabei jedoch Energie auf unerklärliche Weise verloren geht, vermuten die Forscher, dass sie in die Bildung eines neuen Teilchens gegangen sein muss.

An diesem Energieanteil oder neuen Teilchen verlieren sie dann das Interesse und filtern sein Signal mit Computerunterstützung heraus. Dann wird weiter beschleunigt – und zwar mit noch mehr Energie. Wenn wieder Energie auf rätselhafte Weise verloren geht, wird das nächste Teilchen als gefunden angenommen.

Heureka – vielleicht …

Anders als normalerweise in den Naturwissenschaften ist der Forschungsgegenstand hier also nicht das, was die Forscher finden, sondern das, was ihnen auf unerklärliche Weise verloren geht. Stück für Stück filtern sie heraus, was sie nicht erklären können, um einen noch geringeren Energieanteil zu finden, den sie auch nicht erklären können. Es ist, als würden sie die Augenbinde beim Topfschlagen immer fester und dichter umbinden.

Interessant ist bei diesem Spiel offensichtlich auch gar nicht die Erforschung dieser vermeintlichen Teilchen, sondern allein das Auffinden. Der vorgebliche Erkenntnisgewinn liest sich dann in etwa so: „Wir haben etwas gefunden, was ein neues Teilchen sein könnte. Wir haben uns die Daten nochmal ganz genau angeschaut und sind nun fast ganz sicher, dass es das gesuchte Teilchen sein muss.“ Vielleicht stimmen Sie mir zu, wenn ich große Zweifel daran habe, dass es sich hierbei um wirklich belastbare, glaubwürdige Ergebnisse handelt.

Der Trick mit der Augenbinde

Ab und zu reicht der gebaute Teilchenbeschleuniger dann einfach nicht mehr aus, um die Teilchen noch mehr zu beschleunigen, und ein größerer muss gebaut werden. Da die Deklarierung der im letzten Beschleuniger verloren gegangenen Energie als Elementarteilchen jeweils unkritisch mit einem Nobelpreis bedacht wird, werden die für den Bau benötigten Milliarden auch gerne bereitgestellt.

Statt mit einem Holzlöffel auf Topfsuche zu gehen, wird nun sozusagen ein goldener Löffel verwendet. Das Topfschlagen geht weiter. Ob hier etwas erarbeitet wird, das irgendwann einen allgemeinen Nutzen hat, bleibt im Dunkeln – als hätten die Teilchenphysiker nicht nur sich die Augen verbunden, sondern auch der Gesellschaft.

AUSWANDERN IN DIE PARALLELWELT?

Etwas stimmt nicht in unserem Universum.

Wirklich, ich meine das ganz ernst. Immer wieder stoßen Physiker auf Messergebnisse, die nicht mit den Vorhersagen der bestehenden Theorien übereinstimmen. Für solche Fälle haben sie ihre Standardmodelle inzwischen mit zahlreichen Zahlenwerten – sogenannten Konstanten – verziert, die dann den Messungen angepasst werden können. Et voilà, die Welt stimmt wieder mit der Theorie überein.

Wenn das für Sie wenig überzeugend klingt, wird es Sie vielleicht beruhigen, dass auch in der Physik schon seit Längerem eine Debatte darüber entbrannt ist, wie es sein kann, dass das Universum über diese vielen Konstanten so wunderbar abgestimmt ist. Schließlich sprechen wir hier von Zahlen, die nichts erklären und scheinbar willkürlich vom Himmel gefallen sind.

Das fantastische Multiversum

Einen Ausweg will der Physiker Max Tegmark in seinem Buch „Our Mathematical Universe“ gefunden haben. Es handelt vom Multiversum, wie er es nennt. In seiner Vorstellung gibt es nicht nur ein Universum, sondern ganz viele. Jedes dieser Universen ist anders abgestimmt und folgt anderen Gesetzen. Solche, bei denen die Abstimmung nicht funktioniert, kollabieren. Unser Universum ist netterweise eines von denen, wo die Feinabstimmung ein Fortbestehen dieser Welt ermöglicht hat. Das führte, wie Sie wissen, sogar zur Entwicklung von mehr oder weniger intelligenten Lebewesen. Die Frage ist, ob Tegmark zu ersteren gehört.

Denn wir hätten es also mit einem natürlichen Auswahlverfahren für Universen zu tun. Da ist eben alles möglich – einfach fantastisch, wie sich handfeste physikalische Probleme in Luft auflösen, wenn nur ein findiger Geist sich damit beschäftigt.

Schade nur, dass wir nie nachprüfen können, ob wirklich etwas dran ist an dieser Multiversums-Idee, denn die anderen Universen sind ziemlich weit von uns entfernt, so dass wir noch einige Millionen oder Milliarden Jahre darauf warten müssten, bis die ersten Lichtquanten von ihnen bei uns ankommen. Nachgeprüft werden kann also mal wieder nichts.

Abenteuer oder Bodenständigkeit?

Was bleibt also von dem, was Tegmark oder auch andere Propheten wie Lisa Randall und Lawrence Krauss anbieten? Eine reichlich komplizierte und sehr spekulative Geschichte über die Entstehung und das Wesen dieser Welt, in der Sie leben. Die können Sie glauben oder auch nicht. Mitbewerber sind dabei zum Beispiel das wesentlich ältere, aber deutlich leichter zu verstehende 1. Buch Mose des Alten Testaments, die indischen Upanischaden und all die anderen Schöpfungsmythen, von denen ja jede Kultur mindestens eine hervorgebracht hat.

Eines haben alle diese Mythen gemeinsam: Sie sind nicht falsifizierbar und daher eine nie versiegende Quelle von Diskussionen, die zu nichts führen.
Wenn Sie allerdings Theorien wollen, die einen Teil dieser Welt messbar machen, erklären, wie er funktioniert, und so letztendlich auch technischen Fortschritt ermöglichen, wie zum Beispiel die Quantenphysik den Microchip, dann sollten Sie sich woanders umsehen. Albert Einstein kann Ihnen beispielsweise noch eine brillante Idee anbieten, die heute weitgehend in Vergessenheit geraten ist. Ich beschreibe sie in meinem neuen Buch „Einsteins verlorener Schlüssel: Warum wir die beste Idee des 20. Jahrhunderts übersehen haben“.

Aber ich muss Sie warnen: Gegenüber dem Multiversum wirkt diese Idee geradezu bodenständig und unspektakulär. Wer mehr Science-Fiction braucht, der sollte vielleicht in eines unserer Nachbaruniversen auswandern, wo die Feinabstimmung zu abenteuerlicheren Möglichkeiten geführt hat als in unserem Universum. Aber bitte vergessen Sie nicht, mir eine E-Mail zu schicken, wenn Sie angekommen sind.

GENIESTREICH ODER SENSATION?

Steuergelder3 Milliarden Euro – soviel hat der Bau des Large Hadron Collider (LHC) am CERN in Genf gekostet. Größtenteils natürlich aus Steuergeldern finanziert. Mal ganz abgesehen von den laufenden Kosten – und mal ganz abgesehen davon, dass der LHC nur eines unter vielen Großprojekten in der physikalischen Forschung ist, das durch Steuergelder finanziert wird.

Früher begnügten sich die Physiker noch mit bescheidenen Budgets und erarbeiteten mit ihnen Geniestreiche. Ein Newton, ein Faraday, die Curies oder ein Einstein brauchten für ihre genialen Einfälle und Entdeckungen noch keine milliardenteuren Versuchsaufbauten wie LHC oder das jüngst in die Schlagzeilen gekommene Laser-Interferometer Gravitationswellen-Observatorium (LIGO). Und sie erarbeiteten ihre Theorien im „stillen Kämmerlein“ – meistens ganz allein. Die heutigen Großprojekte beschäftigen hunderte bis tausende von Wissenschaftlern. Ihre Ausbeute hingegen ist äußerst mager.

Teure Leichtgewichte

Fragen Sie ruhig, wie es um die Ergebnisse solcher Großprojekte bestellt ist.
Die Rohdaten, die beispielsweise am CERN produziert wurden, sind sofort gefiltert („Trigger“) und dann weggeworfen worden. Kein Mensch kann also nachträglich prüfen, ob die Filter gut funktioniert haben.

Oder die vielen Großprojekte, mit denen Neutrinos nachgewiesen werden sollen: Die theoretischen Interpretationsmöglichkeiten sind hier so vielfältig und willkürlich, dass Sie mit Recht von einer Farce sprechen können.

Und wie steht es um das LIGO? Die Behauptung des Projektleiters auf der Pressekonferenz am 11.02.2015 war: „Wir haben Gravitationswellen gefunden.“ Aber auch hier muss das Signal aus um ein Vielfaches stärkeren Störsignalen herausgefiltert werden. Außerdem fehlte zur genauen Richtungsbestimmung des Signals noch ein dritter Detektor – der war gerade außer Betrieb weil er aufgerüstet wird.

Jenseits der Sensation: Was bleibt?

Natürlich wäre die Messung von Gravitationswellen interessant und es wäre eine revolutionäre Sache, wenn Forscher neue Elementarteilchen entdecken würden. Die echten Revolutionäre arbeiteten trotzdem anders – sie suchten nicht krampfhaft nach etwas sondern eines: ehrliche Neugier. Und sie hatten eine Vision von der Einheitlichkeit der Naturgesetze, die heute völlig verloren gegangen ist.

Im Vergleich dazu scheinen Physiker von heute Strohfeuer zu entfachen – und ein wenig auf den Nobelpreis zu schielen.

Ist der Erfolgsdruck zu groß?

Aber wieso lehnen die heutigen Physiker sich so weit aus dem Fenster?
Nun, es liegt eigentlich auf der Hand: Die Milliarden investierter Steuergelder lassen ihnen keine Ruhe. Und es geht ja durchaus nicht nur um den Bau der Versuchsanlagen. Ihr Betrieb ist so teuer, dass jeder Tag den Druck weiter steigen lässt. Würden sie offenbaren, dass sie sich ihrer Ergebnisse nicht sicher sein können, wäre das eine – gelinde gesagt – unbequeme Position und eine fast aussichtslose Startposition für das nächste Großprojekt. Unter diesem Druck wissenschaftlich gradlinig zu bleiben, ist nicht immer einfach.

Unter dem Strich: Was bleibt?

Trotzdem müssen Großprojekte nicht notwendigerweise sinnlos sein. Nur sollten sie eben ergebnisoffen sein, anstatt irgendeiner langjährigen Suche gewidmet. Positive Beispiele wie Gaia gibt es. Und dabei werden auch die Rohdaten gespeichert und veröffentlicht. Ohne Transparenz gibt es keine Wissenschaft.

Vor allem aber müssten sowohl die Forscher als auch die Geldgeber (indirekt also Sie und ich) ihre Erwartungen an die Ergebnisse relativieren. Es sollte klar sein, dass nach einem Großprojekt immer weitere Kosten für Folgeprojekte anstehen. Irgendwann nährt sich eine ganze Forschungsindustrie davon – und das ist eben doch etwas ganz anderes als die Art und Weise, wie Newton, Faraday und Einstein die Welt verändert haben.

Sensationen sind eben leicht produziert, Erkenntnisgewinn aber nicht.

WENN THEORIEN IN RAUCH AUFGEHEN

Was passiert, wenn die Kohle in Ihrem Grill verbrennt? Ganz klar: Die Kohle enthält eine Menge Feuerstoff, das sogenannte Phlogiston, das bei Erhitzung der Kohle entweicht und in Flammen aufgeht.

Wie, das wussten Sie nicht? Nun, die europäischen Naturwissenschaftler waren sich darüber vor vier Jahrhunderten noch recht einig.

Phlogiston stellten sie sich als elementaren Stoff vor, der in allen Substanzen zu einem größeren oder kleineren Anteil vorhanden ist und ihre Eigenschaften mitbestimmt. Brennbare Stoffe wie Holz oder Kohle enthalten viel davon, Metalle weniger.

Viel Rauch um nichts

Die Theorie entstand im 17. Jahrhundert und hielt sich, bis Antoine Laurent de Lavoisier etwa 100 Jahre später das Prinzip der Oxidation entdeckte und damit die Phlogiston-Theorie widerlegte. Seitdem verbrennen die Kohlen auf Ihrem Grill durch Zuführung von Luftsauerstoff in einer Oxidationsreaktion.

Vor Lavoisier jedoch war die Verbrennung ein Rätsel, das die Wissenschaftler sich nicht erklären konnten. Der Feuerstoff war die vermeintliche Rettung aus der Bredouille.

Was den Naturwissenschaftlern damals wohl nicht auffiel: Das Erklärungsproblem war damit nur verschoben. Die Frage, die zwangsläufig hätte folgen müssen, war: „Wieso brennt das Phlogiston, wenn es erhitzt wird?“ Die Erklärung via Phlogiston war also vor allem viel Rauch um nichts.

Viel Rauch um nichts – Reloaded

Lustigerweise wiederholt sich das Muster der Scheinlösung durch Problemverschiebung im Wissenschaftsbetrieb immer wieder. Winston Churchill bemerkte ganz richtig: „Wer darin versagt, aus der Geschichte zu lernen, ist dazu verdammt, sie zu wiederholen.“

Eine verblüffend ähnliche Problemverschiebung wie die des Phlogistons geht auf eine Vermutung zurück, die der niederländische Astronom Jan Hendrik Oort 1932 erstmals äußerte. Er hatte beobachtet, dass die Sterne in den Randbezirken der Galaxien viel schneller liefen als erwartet. In meinem letzten Blogbeitrag mit dem Titel „Dunkel war’s, der Mond schien helle …“ gehe ich näher auf dieses Thema ein.

Oort konnte keine gute Erklärung für das merkwürdige Umlaufverhalten der Sterne finden und vermutete deshalb, es müsse noch mehr Materie in den Galaxien geben – eine Materie, die nicht sichtbar war, allerdings eine Gravitationswechselwirkung hatte. Die Theorie von der Existenz Dunkler Materie, damals noch „missing mass“ genannt, war geboren. Ein Großteil dieser Dunklen Materie wurde zwar später als Gas und Staub identifiziert, aber die zu schnell laufenden Sterne hat man bei Hunderten von Galaxien beobachtet. Die Idee hielt sich jedoch – einmal in die Welt gebracht – hartnäckig, auch wenn sie eigentlich naiv ist: denn man geht davon aus, dass das Gravitationsgesetz im Galaxienmaßstab gilt, obwohl diese millionenfach größer als das Sonnensystem sind.

Noch heute suchen Teilchenphysiker und Kosmologen nach dieser mysteriösen Dunklen Materie und es wurden auch neue, unerklärbare Phänomene gefunden, die mit ihr wunderbar erklärt – Verzeihung: verschoben – werden können. Eine hübsche Parallele zur Phlogiston-Theorie. Handelte es sich um einen Kinofilm, würde er wahrscheinlich den Titel „Viel Rauch um nichts – Reloaded“ erhalten.

Viel Rauch um nichts – Reloaded Reloaded

Die modernen Physiker haben sich aber mit der Problemverschiebung via Dunkler Materie nicht zufriedengegeben. Naturgemäß erzeugen solche Verschiebungen neue Probleme. So auch hier: Um das Verhalten von Galaxien und Galaxiehaufen mit Hilfe der Dunklen Materie erklären zu können, muss das Universum eine bestimmte Menge davon enthalten, die man in große Computersimulationen hineinsteckte. Ergebnis: ein völlig falsches Bild, man konnte die Entstehung von so viel Struktur im Universum nicht verstehen

Inzwischen wurde für das Problem der Strukturbildung wieder etwas neues erfunden, der sogenannte Bias. Was das ist? Keiner weiß es. Es ist die Verschiebung der Verschiebung sozusagen oder wenn Sie bei den Filmtiteln bleiben wollen: „Viel Rauch um nichts – Reloaded Reloaded“.

Wenn Ihnen das zu viel Rauch ist, kann ich Sie gut verstehen. Die Weigerung, etwas aus der Geschichte zu lernen, erscheint hier wirklich allzu hartnäckig. Interessanterweise ergibt die Kombination einer Idee von Einstein mit den Vorstellungen von Paul Dirac einen Erklärungsansatz, warum sich so viel Struktur im Universum gebildet hat: Vielleicht war die Gravitation im frühen Universum stärker.

Damit setze ich mich übrigens – unter anderem – in meinem neuen Buch „Einsteins verlorener Schlüssel: Warum wir die beste Idee des 20. Jahrhunderts übersehen haben“ auseinander.

DUNKEL WAR’S, DER MOND SCHIEN HELLE …

„Unser Universum besteht hauptsächlich aus dunkler Materie und dunkler Energie.“

Wie schön sicher das klingt. Dass bisher niemand dunkle Materie und dunkle Energie nachweisen konnte, scheint in der Physik wohl niemanden daran zu hindern, ihre Existenz als gegeben anzusehen. Dabei haben die Forscher die Existenz der beiden dunkeln Substanzen nur postuliert, um eine Diskrepanz zwischen dem nach der Gravitationstheorie erwarteten Verhalten von Galaxien und der tatsächlichen Beobachtung zu erklären.

Galaxien
Galaxien

Astronomen haben nämlich entdeckt, dass ab einem bestimmten Abstand vom Galaxiezentrum alle Sterne mit gleicher Geschwindigkeit um das Zentrum fliegen. Oder anders gesagt: Die äußere Sterne bewegen sich schneller als vom Gravitationsgesetz vorhergesagt.

Diese Diskrepanz wundert mich nun gar nicht so sehr. Wie soll sich denn ein Gravitationsgesetz, das auf der Erde gilt, auf das ganze Universum übertragen lassen – also in eine unvorstellbar größere Dimension?

Die Kosmologen wollten dieses Gesetz aber unbedingt beibehalten. War ja zunächst verständlich. Und deshalb suchten sie nach einem Ausweg für dieses Dilemma. Das Ergebnis: eine Materie, die die Forscher bisher noch nicht entdeckt haben, weil sie zwar Masse hat, also aktiv Gravitation ausübt, aber nicht nachgewiesen werden kann. Und davon gibt es im äußeren Bereich genau so viel mehr als im Inneren der Galaxien, dass sich die Sterne in Galaxien praktisch alle gleich schnell bewegen.

Kling logisch, oder?

Wenn Sie jetzt einmal von der Unplausibilität absehen, dass die Massenverteilung und Menge an dunkler Materie haargenau auf die Galaxie abgestimmt sein müsste, damit die Geschwindigkeiten in der Galaxie übereinstimmen, ergeben sich aus der Theorie der dunklen Materie noch ganz andere Probleme.

Um die Bildung der Galaxien im Universum zu erklären, muss man annehmen, dass die Dunkle Materie schon zur Frühzeit des Universums viel stärker konzentriert war als die normale – was natürlich eine völlig willkürliche Hypothese ist. Schließlich, um damit weitere Messungen zu „erklären“ nehmen die Kosmologie an, das Universum bestünde zu etwa 27 % aus dunkler Materie und zu knapp 68 % dunkler Energie. 95 % aller Substanzen im Universum hätte also noch kein Mensch jemals gesehen oder gemessen.

Entschuldigen Sie meinen ironischen Unterton, aber: Klingt logisch, oder?

Da freut es mich, wenn ich im Gegensatz dazu einen Satz lese wie den folgenden, zitiert aus Robert Sanders Buch The Dark Matter Problem: „Das wirkliche Problem ist: Dunkle Materie ist nicht falsifizierbar. Der Einfallsreichtum und die Einbildungskraft der theoretischen Physiker kann jeder astronomischen Nicht-Detektion mit der Erfindung neuer Kandidaten begegnen.“

Ziemlich gut auf den Punkt gebracht. Und das würde mich nicht so betrüben, würden nicht so unglaublich viele Forschungsgelder dafür ausgegeben werden, diesen dunklen Substanzen hinterherzujagen.

NEUTRINOS – BEGEISTERND ODER GEISTERHAFT?

In der Physik spukt es. Ja, wirklich. Im Weltall wimmelt es nämlich, so sagt es das Standardmodell der Teilchenphysik voraus, von Geisterteilchen – genannt „Neutrinos“. Angeblich werden wir von abermilliarden von ihnen in jeder Sekunde durchströmt.

Diese Neutrinos sind schon ganz spezielle Gesellen. Sie haben fast keine Masse und auch keine elektrische Ladung. Sie sind fast so schnell wie das Licht und esGeisterteilchen passiert nur äußerst selten,  dass mal eines mit einem anderen Teilchen reagiert. Diese Wechselwirkungen zwischen Neutrinos und anderen Teilchen sind extrem selten, dass nur Großtechnologie der „Big Science“ sie feststellen konnte. Dafür gab es dannauch einige Nobelpreise. Aber woher kommt eigentlich die Annahme, dass es diese Geisterteilchen geben muss?

Das geht auf den berühmten Physiker Wolfgang Pauli zurück. Der befasste sich in den 20er und 30er Jahren eingehend mit einer Art von radioaktivem Zerfall, dem sogenannten Beta-Minus-Zerfall. Bei diesem wird ein Elektron frei und eine gewisse Menge Energie – allerdings zu wenig! Pauli vermutete, dass diese fehlende Energie als Gammastrahlen abgegeben würde, konnte diese jedoch nicht nachweisen.

In seiner Not postulierte er ein weiteres Teilchen, das genau die erforderliche Menge Energie besaß und beim Beta-Minus-Zerfall neben dem Elektron abgestrahlt wurde. Das war natürlich fast schon eine faule Ausrede (was er in seiner erfrischenden Art auch selbst so bezeichnete), weil er die fehlende Energie nicht finden konnte. Er selbst bezeichnete das Neutrino später als „[…] das närrische Kind meiner Lebenskrise von 1930/31 […]“.

Das hat die Physiker allerdings nicht davon abgehalten, sich auf die Suche nach diesem Geisterteilchen zu begeben und Detektoren zu bauen, mit denen sie meinten, Neutrinos nachweisen zu können. Wie Sie sich vorstellen können, war es nicht einfach, Detektoren zu bauen, die derart flüchtige Teilchen einfangen. Tatsächlich dürfen Sie auch heute noch daran zweifeln, ob es die Neutrinos wirklich gibt. Denn was die Detektoren tatsächlich gemessen hatten, erforderte immer eine Interpretation mit vielen Annahmen.

Sehr oft gab es dabei Widersprüchlichkeiten. Die Detektoren konnten zum Beispiel die erwartete Menge an Neutrinos nicht nachweisen. Bis zu zwei Drittel fehlen. Auch das noch!

Die beteiligten Physiker kamen jedoch auf eine rettende Idee. Ganz in der unrühmlichen Tradition Paulis waren im Standardmodell noch zwei weitere Neutrino-Arten postuliert worden. Wie wäre es zusätzlich, wenn sich die Neutrinos immer wieder in eine andere Art umwandelten? Dann wäre es doch erklärbar, warum von der einen oder anderen Art nicht so viele gefunden werden, wie erwartet.

Die neue Generation von Detektoren konnte dann prompt mit Messergebnissen aufwarten, die der Theorie entsprechen – was für ein Zufall, die Theorie wurde ja auch konstruiert, um genau dieses Messergebnis zu “erklären“. Lachen Sie nicht – der Physiker und Soziologe Andrew Pickering hat die Mechanismen, die zu solchen Zirkelschlüssen geführt haben, detailliert erläutert.

Komischerweise wurde bisher aber immer nur nachgewiesen, dass eine bestimmte Menge an erwarteten Neutrinos in den Detektoren fehlt. Ein Überschuss von nicht erwarteten Neutrinos wurde hingegen bisher nie gefunden. Angesichts der Tatsache, dass ja die Theorie schon ordentlich zurechtgebogen worden war, um den Messergebnissen zu entsprechen, ist das doch ein reichlich mageres Ergebnis.

Das Nobelpreis-Komitee hat sich trotzdem dazu entschlossen, auch für dieses halbseidene Resultat 2015 einen Nobelpreis zu vergeben. Die Physik muss schon sehr arm an bahnbrechenden Erkenntnissen geworden sein, dass so dürftige Forschungsergebnisse dazu taugen, mit dem größten Forschungspreis der Welt ausgezeichnet zu werden.

Vielleicht handelt es sich bei den Neutrinos ja doch um echte Geister. Damit könnte wenigstens erklärt werden, warum die sonst doch eher nüchternen Physiker ihnen so närrisch hinterherlaufen – in der Hoffnung, mal eines zu schnappen.

INFLATIONÄRE UNWISSENSCHAFT

„Inflation? Will ich nicht.“

Ich kann Sie gut verstehen, wenn es Ihnen so geht. Es gibt da aber so ein paar Physiker, die nichtssagende Theoriegespinste ganz schön inflationär gebrauchen.

Bei den Kosmologen zum Beispiel. Als sie auf einige Phänomene und Messergebnisse stießen, die ihr Standardmodell über die Entstehung des Weltalls – der Urknalltheorie – in Frage stellten, bauten sie eine Inflation in das Modell ein.

Klar, es handelt sich dabei nicht um eine Geldentwertung. Ein Wertverlust der Theorie geht dennoch damit einher – und ist für mich eindeutiges Zeichen, dass es sich um eine echte Krise handelt, in der sich die Kosmologie da befindet.

Ausgelöst wurde die Krise unter anderem durch die Messdaten zur
Hintergrundstrahlung – jene Strahlung, die der kosmologischen Standardtheorie nach vom Urknall übrig geblieben und
noch heute messbar sein soll. Tatsächlich haben Forscher so eine Strahlung gefunden und mithilfe spezieller Satelliten gemessen. Allerdings zeigt sie ganz andere Ergebnisse, als die Wissenschaftler aufgrund ihrer Urknalltheorie erwartet hätten – was übrigens kein Einzelfall ist. Leider.Big bang theory

Die Kosmologen mussten sich also fragen, was mit ihrer Theorie nicht stimmt. Das taten sie jedoch nicht lange, denn unversehens erfand der Physiker Alan Guth eine Lösung: In den ersten Bruchteilen der Expansion des Alls nach dem Urknall soll es eine Phase der extrem schnellen Ausdehnung gegeben haben. Im Bruchteil einer Sekunde soll sich das Weltall um das Einhundertquadrillionenfache – eine Zahl mit 26 Nullen – ausgedehnt haben. Na klar.

Diese Phase der Sekundenbruchteile nach dem Urknall nannte Guth Inflation. Die Inflation soll so früh begonnen haben und dauerte so kurz, dass nicht einmal die modernste Atomuhr in der Lage wäre, diesen kurzen Zeitraum zum messen. Und völlig undenkbar ist, dass jemals Messdaten aus diesen ersten Sekundenbruchteilen des Universums erhoben werden können. Auf diese Weise ist die Theorie völlig sicher vor jeder Widerlegung. Wenn Sie jetzt finden, dass das doch eigentlich ganz prima klingt, muss ich Ihren Enthusiasmus gleich wieder bremsen.

Denn auf diese Weise kann die Theorie auch nie bestätigt werden (was so schade auch wieder nicht ist). Es ist letztlich ein Märchen über die Entstehung des Universums, das Sie glauben können oder nicht. Mit Wissenschaft hat das nichts mehr zu tun, denn die basiert nun mal darauf, dass eine Theorie bestätigt oder widerlegt werden kann.

Welch unglückliche Entwicklung, die nicht nur in der Kosmologie u sich greift. Immer mehr Theorien tauchen in der Physik auf, die nicht geprüft werden können und immer komplexer und unübersichtlicher werden – inflationärer Wildwuchs, den Sie schön finden können, wenn Sie wollen. Wissenschaftlich relevant ist er nicht.

Wenn Sie mehr über die Hintergrundstrahlung und ihre eigenartigen Interpretationen erfahren möchten, können Sie das in meinem früheren Blogbeitrag nachlesen (Englisch).

CERN: Familienbesuch zu Weihnachten

Wieder einmal ist es soweit: Nach Abschluss der Messungen vor Jahresende wird verkündet, man habe etwas ganz Spannendes, möglicherwiese Sensationelles gefunden. Den „Cousin des Higgsteilchens“ , einen möglicherweise „supersymmetrischen“ Partner des Higgs-Bosons. Und wieder einmal handelt es sich um irgendein unerklärtes Signal, dem man nun endlich die theoretische Wunschvorstellung anzudichten hofft – so wie dies ja 2013 mit dem Higgs gelungen war. Wie lange wird sich die Öffentlichkeit von dieser Schaumschlägerei noch einlullen lassen? Sie dürfen gespannt sein, was in den nächsten Jahren noch an Zufallssignalen gefunden wird, die zu Erweiterungen des „Standardmodells“ führen – Cousins, Onkels, Großtanten, Schwägerinnen des Higgsteilchens? Ich kann nur sagen: Muss zu Weihnachten nicht sein :-)