NATURWISSENSCHAFT

 

  
 

In dem von 264 Wissenschaftlern und Nobelpreisträgern unterzeichneten ‚Heidelberger Apell‘, der anläßlich des gleichzeitig stattfindenen Umweltgipfels in Rio de Janeiro 1992 veröffentlicht wurde, wurde die Ökologie als „Ausgeburt einer irrationalen Ideologie,... die sich dem wissenschaftlichen und industriellen Fortschritt widersetzt“ bezeichnet.

  Evolutionstheorie 4

Glasschdel

 

 

 

  Aber das ist nur die Kehrseite. Denn andererseits muß man auch sagen, daß gerade von einigen der führenden Physiker die wichtigsten philosophischen Impulse des vergangenen 20. Jahrhunderts kamen. Diese wollen wir in unseren hier aufgelisteten Essays vorstellen.
   

 

Verfasserhinweise im Redaktionswegweiser

 

Die Entstehung des Lebens

Es gibt immer noch Leute, und unter ihnen einige recht namhafte Wissenschaftler, die davon ausgehen, daß das Leben dieser Erde von anderen Welten durch den Weltraum zu uns gekommen ist, etwa in Form von Samenkörnern. Aber ganz davon abgesehen, daß eine solche Erklärung das Problem nur verlagert, führen uns ganz einfache Überlegungen über die Voraussetzungen für die Entstehung von Leben dazu, daß die Wahrscheinlichkeit, irgendwo anders einen weiteren Planeten mit ähnlich guten Vorbedingungen zu finden, äußerst gering ist.

Welle oder Teilchen?

Weit mehr als die Relativitätstheorie haben die im letzten Jahrhundert unternommenen Vorstöße in den Bereich des Allerkleinsten unser jahrtausendealtes und dementsprechend gefestigtes Wirklichkeitsverständnis, auf dem auch die Physik aufbaute, erschüttert. Die meisten Physiker gehen immer noch davon aus, daß es kleinste Elementarbausteine gibt, die vermutlich nicht weiter unterteilbar sind. Ein solches Teil ist zum Beispiel das Elektron. Was aber ist ein Elektron wirklich, wie sieht es aus, und welche Eigenschaften besitzt es?

Das menschliche Gehirn

Man weiß nicht, in wieweit eine auch nur gedankliche Trennung von Körper und Geist für das Funktionieren einer solchen „Maschine“ überhaupt möglich ist, ob ihre Arbeitsweise also nur in einer Richtung erfolgt und insofern das Bewußtsein gewissermaßen nur ein Nebenprodukt ihrer Tätigkeit ist, oder ob ihr Funktionieren in jedem Fall das Ergebnis einer ständigen Wechselwirkung ist. In letzter Zeit tendiert man allerdings immer mehr zu letzterer Annahme.

Die Relativitätstheorie

Die größte Schwierigkeit der Abstraktion liegt in der Fähigkeit, sich von liebgewordenen Denkgewohnheiten zu befreien. Besonders schwierig ist das sicher in einem Fall, in dem es sich nicht nur um eine persönliche, sondern um eine allgemeine Denkgewohnheit handelt, mit der die Menschen seit Ewigkeiten ganz selbstverständlich umgegangen sind. Da man aber, wie Einstein selbst oft genug gesagt hat, diese intuitiven Dinge auch mit ganz gewöhnlichen und allgemeinverständlichen Worten ausdrücken kann, wollen wir das hier versuchen.

Intelligente Felder

Der Biologe Rupert Sheldrake hat sich besonders mit diesen Feldern beschäftigt und dabei die Theorie entwickelt, daß in allen Fällen, in denen die Natur in ihrer Entwicklung vor mehreren alternativen, also gleichwertigen, Möglichkeiten steht, von ihr eine Gewohnheitsentscheidung getroffen wird, was tatsächlich durch bestimmte Beobachtungen bestätigt wird. Das bedeutet aber, daß die daraus folgende Information - in den von ihm sog. ‚morphogenetischen Feldern’ - fortan nichtlokal gespeichert wird!

Alles fließt: Die Chaos-Forschung

Unter dem Begriff 'Chaos' versteht man in diesem neuen Forschungsbereich ein im hohen Maße regelloses und unvorhersehbares Verhalten eines Systems. Dabei befaßt man sich jedoch vornehmlich - und insofern ist der Name etwas irreführend - mit neuen Ordnungsformen innerhalb der Unordnung, also mit der Phänomenologie bestimmter Muster und Strukturen, die dabei scheinbar von selbst entstehen, zum Beispiel innerhalb von Wirbelströmen. Derartige Muster lösen oft einen 'Aha-Effekt' aus, sie kommen einem nicht ganz unbekannt vor, und man glaubt sie schon irgendwo anders gesehen zu haben.

Das holographische Weltbild

Haben die Dinge, die uns begegnen, einen höheren Sinn? Die von C.G. Jung und Wolfgang Pauli begründete Theorie der Synchronizität geht allen Ernstes davon aus, und es ist kein Zufall, daß sich hier ein Psychologe und ein Physiker getroffen haben, denn beide hatten in ihren beruflichen Erfahrungsbereichen entsprechende Beobachtungen gemacht, die sie zu dieser Annahme führten.

Systeme

Alle Erscheinungen, die wir uns üblicherweise als selbstständige Elemente vorstellen, hängen in Wirklichkeit voneinander ab und verdanken ihr Sosein einer Summe von Einflußfaktoren ihrer Umgebung, ganz gleich, ob es sich um physikalische, chemische, biologische, psychologische oder soziologische Erscheinungen handelt. Das reicht auch bis in den kulturellen Bereich hinein. In diesem Sinne ist es richtiger, von Systemen zu sprechen, aus denen sich alle Einzelerscheinungen ergeben, statt uns die Welt aus autonomen Einheiten zusammengesetzt vorzustellen.

Fortschritt: Eine Illusion?

Wie ärgerlich konnte unser Physiklehrer doch immer werden, wenn wir in seinen Versuchen nicht sogleich das erkennen konnten, was sich daraus gemäß der wissenschaftlich anerkannten Theorie ableiten lassen sollte. Wie konnten wir aber auch, da wir diese Theorie ja noch gar nicht kannten?! Schon in der Schule lernen wir aber in diesem Sinn, welche Entdeckungen unsere berühmten Wissenschaftler gemacht haben und wie uns das bis zum heutigen Stand vorwärtsgebracht hat. So haben wir uns vermeintlich auf einem linearen Weg in Richtung einer fortlaufenden Erkenntnis voranbewegt und dadurch die Natur immer besser erkannt.  Verhält es sich aber nicht in Wirklichkeit eher so wie bei einem Reißverschluß, in dem die fortlaufende Verknüpfung zweier ineinandergreifender Zahnreihen erst einen Zustand herstellt, der ursprünglich nicht gegeben war?

Hörerbrief zum Thema Kepler

Man kann zwar von Redakteuren nicht verlangen, daß sie über jedes Thema von vornherein gut unterrichtet sind, das sie zu behandeln haben, denn schließlich müssen sie ja täglich andere Themen besprechen. Aber es wäre Ihnen doch zuzumuten, daß sie etwas besser recherchieren. Peinlich wird es aber, wenn in ihren Kommentaren ein Mangel an Allgemeinbildung zu erkennen ist. Das betrifft  z.B. Ihre Unterscheidung von 'Wissenschaft' und 'Nichtwissenschaft', von der Sie eigentlich wissen müßten, das diese zu Keplers Zeiten noch ganz anders gesehen wurde.

 

Die Entstehung des Lebens

 

Wie ist das Leben auf die Erde gekommen? Gibt es einen Schöpfer, und muß man sich bei der Entstehung und der wunderbaren Entfaltung des Lebens das Wirken einer mystischen Lebenskraft vorstellen, wie die sogenannten Vitalisten es tun?

In der Tat gab es für die Menschen lange keine anderen Erklärungen, doch bei aller gebotenen Bescheidenheit, mit der wir uns der Tatsache bewußt sein sollten, daß wir mit den uns zugänglichen Erkenntnismöglichkeiten die letzten Geheimnisse dieser Welt, der wir ausgeliefert sind, niemals erkennen und somit auch nicht das Wirken Gottes oder eines höheren Willens hinter allen Dingen ausschließen können, dürfen wir uns doch sagen, daß es völlig legitim und natürlich ist, wenn wir uns immer neue Teilaspekte dieser Welt unserer Erkenntnis zugänglich machen. Mittlerweile können wir immerhin annehmen, daß es für das Verständnis des Lebens zumindest auch eine prinzipiell physikalische Erklärung gibt, wobei wir zunächst davon ausgehen, daß der Begriff 'physikalisch' unzweideutig ist und daß wir uns darüber einig sind, was wir uns darunter vorzustellen haben. Auf diesen Punkt kommen wir aber später noch zurück.

Es gibt immer noch Leute, und unter ihnen einige recht namhafte Wissenschaftler, die davon ausgehen, daß das Leben dieser Erde von anderen Welten durch den Weltraum zu uns gekommen ist, etwa in Form von Samenkörnern. Aber ganz davon abgesehen, daß eine solche Erklärung das Problem nur verlagert, wäre sie noch mit dem zusätzlichen Problem befrachtet, wie denn diese Samenkörner über so unglaubliche Entfernungen bei normalerweise absolut tödlichen Temperaturen ihren Weg zu uns gefunden haben sollten. Ganz einfache Überlegungen über die Voraussetzungen für die Entstehung von Leben führen uns dazu, daß die Wahrscheinlichkeit, irgendwo anders einen weiteren Planeten mit ähnlich guten Vorbedingungen zu finden, äußerst gering ist. Lediglich die Tatsache, daß es nahezu unendlich viele andere Planeten geben muß, läßt uns diese Möglichkeit nicht völlig ausschließen, aber es ist äußerst unwahrscheinlich, daß sich ein solcher Planet in einer uns zugänglichen zeitlichen und räumlichen Entfernung befindet.

Dabei stimmt allerdings die Feststellung nur teilweise, daß die Vorbedingungen auf der Erde günstig gewesen sind, denn diese Vorbedingungen sind auch das Ergebnis einer Wechselwirkung gewesen. Wären nämlich die Verhältnisse schon immer so gewesen, wie sie heute sind, so hätte das Leben tatsächlich nicht entstehen können, denn für die ersten Mikroorganismen war der Sauerstoff ein Gift. Andererseits ist aber höheres Leben ohne Sauerstoff und ohne die Ozonschicht, die unsere Atmosphäre umgibt und die ihrerseits erst eine Folgeerscheinung der anfänglichen biologischen Prozesse sind, ebenfalls nicht denkbar.

Die Verhältnisse auf der Erde waren aus unserer Sicht ursprünglich wahrhaftig mörderisch. Nach der Erkaltung der Erdkruste entstand allmählich das Wasser, und unvorstellbare Regengüsse gingen auf die Erde nieder, die jedoch für weitere Abkühlung sorgten. Vermutlich war dann zunächst der größte Teil des Planeten mit Wasser bedeckt, hier und da schoben sich aber Inseln und Urkontinente an die Oberfläche, die noch eine gänzlich andere Gestalt hatten als die uns heute bekannten und die sich auch im Laufe der Zeit noch unendliche Male völlig verändern sollten. Zahlreiche Vulkane waren unter und über dem Wasser tätig und bedeckten alles mit immer neuen Lavaflüssen. Die Atmosphäre bestand aus Schwaden aller möglichen giftigen Gase, und es gab zunächst nur tote Materie.

Die Erdgeschichte ist in vier große Abschnitte unterteilt, die sogenannten Erdzeitalter, die natürlich nur eine willkürliche und von Menschen geschaffene Ordnung darstellen und ihren wissenschaftlichen Namen entsprechend den Fossilenfunden erhielten. Sie werden als Präkambrium, Paläozoikum, Mesozoikum und Kanäozoikum bezeichnet, wobei das Präkambrium am weitesten zurück liegt und das Kanäozoikum das jüngste Zeitalter ist. Natürlich besitzen wir über das letztere die meisten Informationen und die wenigsten über das Präkambrium, obwohl dieses etwa achtzig Prozent der Erdgeschichte ausmacht. Die Erde ist etwa 4,5 Milliarden Jahre alt, und in der ersten Milliarde Jahre gab es auf ihr kein Leben. In dieser Zeit verdichtete sie sich erst zu einem festen Planeten. Vor etwa 3,5 Milliarden Jahren gelang es vermutlich den ersten präbiotischen Molekülen, sich selbst zu vermehren, doch noch weitere 1,5 Milliarden Jahre lang dürfte das Leben, soweit man überhaupt davon sprechen kann, den mikrokosmischen Bereich nicht überschritten haben. Erst in den 1920er Jahren schlugen unabhängig voneinander der russische Biochemiker A.J. Oparin und der englische Biologe J.B.S. Haldane Denkmodelle vor, nach denen unter der Einwirkung der ultravioletten Sonnenstrahlung aus den anorganischen Substanzen erste Vorstufen des Lebens entstanden sein könnten. Doch widersprachen diese Vorstellungen zu jener Zeit noch allzu sehr dem allgemeinen Weltbild, sodaß sie sich eigentlich erst nach dem zweiten Weltkrieg allmählich immer mehr durchsetzten.

Als die Erde genügend erkaltet war, verbanden sich die Moleküle zu immer komplizierteren Strukturen, es bildete sich eine Art organischer Brühe, in der es brodelte und in der immer neue Strukturen entstanden. Jedoch war es von da aus noch ein sehr weiter Weg bis zu den ersten Mikroorganismen, und wenn wir auch nachträglich heute annähernd in der Lage sind, die möglichen Einzelschritte der weiteren Entwicklung nachzuvollziehen, so sind wir doch außerstande zu erklären, wie hoch die Wahrscheinlichkeit war, daß es zu diesen Entwicklungsschritten kam. Die rein mathematische Wahrscheinlichkeit war aus heutiger Sicht unendlich gering, sodaß man diesbezüglich doch noch das Wirken anderer Faktoren annehmen müßte. Hier befinden wir uns tatsächlich noch in einem hohen Erklärungsnotstand, es mag aber sein, daß wir auch dafür evolutionäre Gesetzmäßigkeiten heranziehen können, wenn wir die Erklärung göttlichen Wirkens umgehen wollen. Immerhin sind wir schon so weit, daß wir wissen, daß es auch schon in diesem und nicht erst im Stadium der eindeutig biologischen Prozesse eine regelrechte evolutionäre Entwicklung gab, die nahezu zwangsläufig dazu führte, daß die organischen Strukturen immer komplizierter wurden.

Wir müssen uns noch einmal die Urbedingungen der Erde vor Augen führen. Wie wir wissen, sind die Planeten aus der Asche der Ursonnen entstanden, es gab also schon weit mehr Stoffe als die, aus denen sich die Sonnen gebildet hatten. Wir können davon ausgehen, daß es anfänglich auf der Erde außer Wasserstoff bereits schon in bescheidenem Maße Sauerstoff, sowie Kohlenstoff, Stickstoff, Schwefel und Phosphor gab. Das sind die sechs häufigsten Elemente des Sonnensystems, aus denen sich danach die weiteren auf der Erde vorhandenen chemischen Verbindungen sowie die ersten Bausteine der organischen Stoffe zusammensetzten, wie Wasser, Kohlehydrate, Fette, Proteine und Nukleinsäuren. Es ist in Laborexperimenten gelungen, urzeitliche Bedingungen zu simulieren und nachzuweisen, daß unter Einwirkung ultravioletter Strahlung auf ein Gasgemisch von unter anderem Wasserdampf und Kohlendioxyd, das in etwa der Uratmosphäre entsprechen dürfte, schließlich organische Makromoleküle entstanden. Es hat aber tatsächlich mehrere Formen der Energieeinwirkung gegeben, nämlich außer der Sonnenstrahlung noch die elektrische Entladung der Blitze sowie die Hitze der Lavaströme, die alle aus den anorganischen festen oder flüssigen Stoffen und den gegebenen Gasgemischen die Bildung von komplizierten organischen Makromolekülen entstehen lassen konnten.

Die meisten der heute bekannten Aminosäuren müssen schon in der Urzeit der Erde entstanden sein, doch wissen wir immer noch nicht mit letzter Sicherheit, wie es unter den damaligen Verhältnissen wirklich zu ihrer Entstehung kam. Wir werden das auch nachträglich niemals mehr rekonstruieren können, es muß uns aber genügen, mögliche Erklärungsmodelle zu erhalten. Es mußten sicher viele günstige Umstände zusammenkommen, die alle in unendlichen Variationen durchprobiert wurden, sodaß sich irgendwo einmal eine Verbindung ergab, die sich selbst reproduzieren konnte und sich deshalb rasch vermehrte, sozusagen auf Kosten der weniger komplizierten Verbindungen ihrer unmittelbaren Nachbarschaft, indem sie diese zu größeren Molekülverbindungen zusammenfaßte. Diese Makromoleküle waren insofern Vorstufen des Lebens, als sie bereits gewisse charakteristische Eigenschaften besaßen, durch die das Leben gekennzeichnet ist, wie eine bestimmte immer wiederkehrende Gestalt und in der angedeuteten Form bereits einen Stoffwechsel. Der amerikanische Biochemiker S. Fox hat experimentell nachgewiesen, wie unter den urzeitlichen Bedingungen der Erde die Bildung der bereits vorentstandenen organischen Moleküle zu noch komplexeren Gebilden erfolgen konnte. Er konnte so kettenförmige Polymere herstellen, die bereits den Proteinen entsprachen. Diese wiederum konnten in heißen konzentrierten Lösungen unter bestimmten Umständen zu der Bildung sogenannter Mikrosphären führen, die bestimmte Eigenschaften besitzen, die an belebte Systeme erinnern. Sie können zum Beispiel eine Außenbegrenzung aufweisen, die einer Zellmembran gleicht, sie können außerdem wachsen und sich durch Abspaltung von Tochtergebilden vermehren. Schon vor der Entstehung des eigentlichen Lebens waren dessen Grundsubstanzen also zweifellos vorhanden, diese mußten nur noch in der geeigneten Weise zusammengeschlossen werden.


 

 

Was verstehen wir unter dem Begriff ‚Leben’?

Wir sprechen von belebten Systemen, wenn sie bestimmte Fähigkeiten besitzen, die für das Phänomen des Lebens unerläßlich sind. Sie müssen ein in sich geschlossenes organisiertes Gefüge aus verschiedenen zusammenwirkenden Elementen bzw. Funktionsorganen sein, die gemeinsam sozusagen ein Arbeitsteam ergeben, das gegenüber der unbelebten Materie einen evolutionären Vorteil besitzt. Dieses von einer Zellmembran umgebene und nach außen abgegrenzte Team muß gemeinsam die Fähigkeit des Stoffwechsels besitzen, also Energie aus der außerhalb der Membran liegenden Umwelt aufnehmen können, die es zur Erhaltung und zum Aufbau seiner Struktur benötigt. Außerdem muß es zur Reproduktion fähig sein. Alle diese Abläufe sind sicher nicht möglich ohne ein zusätzliches Phänomen, nämlich Information, die damit ebenfalls eine Voraussetzung des Lebens ist. Schon in einer Protozelle, die über alle diese Eigenschaften verfügte, mußten sehr viele Makromoleküle zusammengefügt sein, die gemeinsam diese komplexen Funktionen erfüllen konnten. Ein Hauptproblem ist dabei die Frage, wie es zu der Bildung der Außenmembran kommen konnte, es gibt dafür aber eine interessante Hypothese. Man kann davon ausgehen, daß in der wässrigen organischen Brühe der Meere, Flüsse, Bäche oder angereicherten Pfützen präbiotische Komplexe aus Nukleinsäuren, Proteinen und Enzymen schwebten, während die Oberfläche dieser Flüssigkeit von einer monomolekularen Lipidschicht bedeckt war. Wenn etwa infolge Wellenschlages ein Makromolekülverband diese Oberfläche durchschlug, also herausspritzte, so mußte er ja wieder zurückfallen und hatte somit die Oberfläche zweimal durchschlagen und sich dadurch mit einer doppelwandigen bimolelularen Lipidhaut umgeben, durch die es von da an gegen die übrige Umgebung abgegrenzt war. Dieser Komplex besaß nun eine Zellmembran, die sich allmählich verfestigte.

Ein weiteres Problem ist, wie es zu einer funktionierenden Kombination von Nukleinsäuren als Informationsträgern und Proteinen als Befehlsausführern kommen konnte. Denn ohne eine solche Zusammenarbeit ist eigentliches Leben nicht möglich. Wir werden an späterer Stelle sehen, wie es funktioniert und weshalb dieser Wechselmechanismus nötig ist. In der späteren biologischen Entwicklung haben wir in der Evolutionstheorie ein gutes Erklärungsmodell für den Entwicklungsfortschritt, wie aber sollen wir uns die bereits angedeutete vorbiologische Evolution wirklich vorstellen? Es gab ja noch nicht die späteren Selektionskriterien, bis allerdings auf eines: die schnellere Selbstreproduktion eines Makromoleküls, wenn es sich des Hilfsmittels der Information bedient. Man kann auch diesen Vorgang experimentell nachvollziehen und erhält dabei im Reagenzglas zum Beispiel immer schneller replizierende RNS-Moleküle. Der Ursprung und die präbiologische Evolution des Lebens müssen also als das Ergebnis eines Selbstorganisationsprozesses der Materie angesehen werden, in dessen Verlauf sich allmählich die Ordnung des Lebens aus der molekularen Unordnung heraus entwickelt hat. Der Übergang von der Physik zur Biologie ist somit fließend, und jede Grenzziehung ist im Grunde nur definitorisch, das heißt ein Versuch des Menschen, die Geschehnisse in einer Weise zu ordnen, die seinem Verständnis und seiner Sichtweise entspricht. Die biologischen Randbedingungen sind zugleich auch physikalische, da die Information an bestimmte materielle Träger, die Makromoleküle, gebunden ist. Insofern hat die Natur ihre eigene Logik, in ihr gibt es keine Einteilung in wissenschaftliche Fachgebiete. Es ist eine spezifische Eigenschaft des Menschen, daß er sich erst zu wundern beginnt, wenn irgendwo etwas zappelt, und sagt, ab hier müsse nun aber göttliches Wirken im Spiel sein, während das bis dahin sicher noch nicht der Fall gewesen sei.

In diesem Zusammenhang müssen wir die Hyperzyklus-Theorie von Manfred Eigen erwähnen, die ein gutes Denkmodell für den Mechanismus einer molekularen Evolution ist. Danach ist es nicht unbedingt notwendig, daß präbiotische Gebilde nur selbstidentische Nachkommen hervorbringen, sondern es kann auch hier übergeordnete Arbeitsgemeinschaften geben, die sich gegenseitig helfen. So wäre also ein einzelnes Gebilde nur ein Baustein in einem übergeordneten Gefüge, das sich insgesamt reproduziert, indem von einem Endprodukt einer längeren Kette schließlich wieder das Ursprungsprodukt hergestellt wird. Hierdurch war bereits ein größerer Zellverband vorbereitet, der sich endlich nur noch durch eine gemeinsame Zellmembran zusammenschließen mußte. Es war dennoch noch sehr unwahrscheinlich, daß eine erste funktionierende Zelle entstand, die als die Urzelle angesehen werden kann, aus der alles spätere Leben hervorging, aber es brauchte ja theoretisch im Laufe der reichlich zur Verfügung stehenden Zeit irgendwo auf dem Erdball nur ein einziges Mal zu geschehen, woraus dann alles weitere folgte. Daß es so war, daß also eine einzige Zufallskombination die eine Urzelle allen Lebens war, von der alle späteren Ein- und Vielzeller, Pflanzen und Tiere, abstammen, dafür sprechen verschiedene Anzeichen, zum Beispiel die Tatsache, daß alle DNS-Moleküle linksdrehend sind. Vielleicht hat es ursprünglich ein Alternativsystem gegeben, sodaß es zu einem einmaligen und grundsätzlichen Entscheidungskampf kam, weil beide Systeme sich gegenseitig ausschlossen und demnach füreinander giftig waren.

Die ersten einzelligen Organismen müssen anaerobe, also vom Sauerstoff unabhängige, Lebewesen gewesen sein, und sie waren noch sehr selten, wodurch ihre Verbreitung zunächst nur äußerst langsam vonstatten ging. Die ersten Lebewesen, die diesen Namen verdienen, waren Bakterien und später bestimmte Algen, die zwar schon über eine äußere Zellmembran verfügten, jedoch noch nicht über einen abgeschlossenen Zellkern wie die sogenannten Eukaryonten. Der Sauerstoff in der heutigen Dichte und die Ozonschicht ist erst ein Folgeprodukt der Photosynthese der Pflanzen. Die ersten Lebewesen waren noch nicht zur Photosynthese fähig, sie lebten von den präbiotischen Kohlenwasserstoffverbindungen ihrer Umgebung, die sie dadurch wie den Ammoniak- und Methangehalt der Uratmosphäre allmählich immer mehr verbrauchten, wodurch sie die Umweltbedingungen in einer Weise verändeten, die dann eine weitere Anpassung ihrer Nachkommen an die neuen Bedingungen notwendig machte. Entstehendes Leben und Umwelt standen in ständiger Wechselwirkung. Die ersten zur Photosynthese fähigen Lebewesen lebten vermutlich in dichten Kolonien auf dem Boden flacher Meere. Sie lebten in einer sehr schmalen Grenzzone, denn das Wasser mußte einerseits so flach sein, daß sie noch genügend Sonnenlicht erhielten, und andererseits tief genug, daß sie vor der Ultraviolettstrahlung des noch ungehindert einfallenden Sonnenlichtes geschützt waren. Sie waren über eine sehr lange Zeit die vorherrschende Lebensform, bis endlich der von ihnen erzeugte Sauerstoff in der Erdatmosphäre so weit angereichert war, daß sich andere biologische Formen entwickeln konnten.

Vielzellige tierische Organismen konnten also erst entstehen, als einerseits genügend Sauerstoff zur Atmung und andererseits genügend pflanzliche Stoffe für ihre Nahrung vorhanden waren, denn sie können im Gegensatz zu den Pflanzen keine anorganischen Stoffe verwerten. Die weitere Anreicherung der Atmosphäre mit Sauerstoff und die Bildung der Ozonschicht ging aber natürlich nur sehr langsam vonstatten, sodaß es noch unendlich lange dauerte, bis die ersten Lebewesen das Wasser verlassen konnten. Wir müssen uns vor Augen führen, unter wie unglaublichen Anstrengungen, während derer der Fortschritt und die grundsätzliche Erhaltung des Lebens oft genug sicher äußerst gefährdet war, die heutigen Lebensbedingungen auf unserem Planeten erst geschaffen werden mußten und daß dieser Prozeß mehr als zwei Milliarden Jahre benötigte. Aber die Entstehung des Lebens steht insgesamt so untrennbar mit den Bedingungen dieses Planeten in Wechselwirkung, daß sich schon deshalb die Annahme verbietet, daß das Leben von einem anderen Planeten gekommen ist. Tierisches Leben konnte sich überdies erst entwickeln, nachdem ihre pflanzlichen Vorformen eine entsprechende Entwicklungsstufe erreicht hatten. Diese mußten schon Eukaryonten sein, also Zellgebilde mit abgeschlossenem Zellkern. Eine eukaryontische Zelle enthält mehrere deutlich voneinander getrennte Teile, sogenannte Organellen, und das genetische Material befindet sich in dem Zellkern. Sie enthält etwa tausendmal soviel DNS wie eine prokaryontische Zelle, woraus sich für die evolutionäre Entwicklung viele Vorteile ergeben. Während sich Prokaryonten durch einfache Zweiteilung der gesamten Zelle vermehren, ist dieser Teilungsprozeß bei Eukaryonten wegen ihrer komplizierteren Struktur ebenfalls viel komplizierter. Jede Organelle muß kopiert und an die richtige Stelle gebracht werden, und bei der Kernteilung müssen alle Chromosomen verdoppelt und sauber geteilt werden. Einer Hypothese zufolge waren die Organellen der Eukaryonten ursprünglich voneinander unabhängige Zellen, die in andere Prokaryonten eindrangen und lernten, mit diesen Wirten in einem symbiotischen Verhältnis zu leben. Solange es noch keine Beteiligung von Chromosomen bei den Zellteilungen gab, konnte es noch nicht dazu kommen, daß verschiedene Lebewesen ihre Chromosomensätze untereinander austauschten. Erst mit dem Auftreten der Eukaryonten kann man also von 'sexueller' Vermehrung sprechen, die den Vorteil mit sich brachte, daß sich Mutationen wesentlich stärker auswirken konnten. Für die Vervollkommnung der eukaryontischen Zelle war vermutlich eine Milliarde Jahre nötig, sie ist aber erst das Fundament, auf dem die heutige gesamte sichtbare Welt der Lebewesen ruht. Doch auch heute noch gibt es im Bereich des Mikrokosmos prokaryontische Zellen.

Das Wachstum einer Zelle ist durch den Umstand begrenzt, daß die Zellmembran in einem bestimmten Größenverhältnis zu der Zellmasse stehen muß, um eine genügende Versorgung mit Nährstoffen gewährleisten zu können, außerdem dürfen die Versorgungswege innerhalb der Zelle nicht zu groß werden. Sollten also die lebenden Systeme weiter wachsen, so mußten sie automatisch zu Vielzellern werden. So entstanden die sogenannten Metazoen, innerhalb derer einelne Zellverbände spezielle Aufgaben übernahmen und sich unabhängig voneinander weiterentwickelten. Dieser Zellverband hatte zudem den Vorteil, daß der gesamte Organismus unabhängig von dem Fortleben einzelner Zellen wurde. So hatte sich mit diesen Vielzellern eine Lebensform höherer Ordnung entwickelt, die man wie zuvor die Organellenverbände der einzelnen Zellen gleichfalls als ein Arbeitsteam im Sinne einer evolutionären Fortentwicklung betrachten kann.


 

 

Die Zeiträume der Entwicklung

Wie gesagt hat das Leben in den ersten 2,5 Milliarden Jahren seit Bestehen der Erde den Bereich des Mikrokosmos nicht überwunden, und eine weitere Milliarde Jahre lang dauerte es, bis erst vor einer Milliarde Jahren die vielzelligen Organismen zu Eukaryonten wurden und begannen, sich geschlechtlich fortzupflanzen. Erst durch die daraus folgende erhöhte Mutation konnte sich der evolutionäre Mechanismus beschleunigen, was zu einer rasch zunehmenden Vielfalt der Lebewesen führte. Irgendwann begannen einige von ihnen, statt von den chemischen Bestandteilen ihrer Umgebung sich von anderen Lebewesen zu ernähren. Dieses räuberische Verhalten beschleunigte seinerseits den evolutionären Fortschritt, weil es den Räubern Vorteile brachte und den selektiven Druck auf ihre Opfer erhöhte. Hiermit war die weitere Entwicklung fast zwangsläufig. Die Lebewesen wurden zunehmend komplizierter, ihre Baupläne organisierten sich in immer höheren Stufen, und so konnten zusätzliche Lebensräume erschlossen werden.

Das Präkambrium, das mehr als die ersten achtzig Prozent des Erdzeitalters umfaßt, ist seinerseits unterteilt in das Azoikum (4,5 - 3,5 Milliarden Jahre), das Archäozoikum (3,5 - 1,9 Milliarden Jahre) und das Proterozoikum (1,9 - o,57 Milliarden Jahre). Vor 57o Millionen Jahren also begann nach dieser Einteilung das Paläozoikum, zu dessen Beginn die Meere bereits reich mit Leben erfüllt waren. Die Pflanzen waren allerdings über den Entwicklungsstand der Algen noch nicht hinausgegangen, und unter den Tieren herrschten noch die Wirbellosen vor, vor allem die Triboliten, während die Wirbeltiere zunächst durch kieferlose Fischähnliche und später durch gepanzerte Vorformen der heutigen Fische vertreten waren. Vor etwa 4oo Millionen Jahren, zu Beginn des Devons, endlich kamen die ersten Lebewesen  ans Land. Es waren zunächst Pflanzen, denen aber die Tiere bald folgten. Die ersten Pflanzen, vor allem Farne und Schachtelhalme, bildeten bald eine reiche Vegetation und machten dadurch das Festland auch für Tiere bewohnbar, bei denen es sich zunächst nur um Insekten handelte. Bald nach der Eroberung des Landes erfolgte auch die des Luftraumes durch beflügelte Insekten. Vor etwa 35o Millionen Jahren entwickelten sich aus den Fischen die ersten Landwirbeltiere, Zwischenformen zwischen Fisch und Amphibium.

Die Insektenformen wurden sehr schnell zahlreicher, und im Süßwasser siedelten sich Schnecken an. Vor etwa 3oo Millionen Jahren entwickelten sich aus den Amphibien die ersten Reptilien. Am Wechsel vom Paläozoikum zum Mesozoikum, vor etwa 23o Millionen Jahren, erfolgte der erste große Floren- und Faunenwechsel. Die karbonischen Pflanzen verschwanden fast völlig, und Nadelhölzer und Gingkoartige traten an ihre Stelle. Währenddessen starben unter den Tieren im Meer große Gruppen der Wirbellosen aus, während an Land der größte Teil der Amphibien verschwand. Damit begann das Zeitalter der Dinosauer, die somit während des gesamten Mesozoikums die Erde bevölkerten.

Vor etwa 2oo Millionen Jahren entwickelten sich aus den Reptilien die ersten Säugetiere. Währenddessen gingen die ersten Reptilien und Saurier bereits teilweise wieder ins Wasser zurück, und die Luft war nun außer von Insekten auch durch Flugsaurier bevölkert. Etwa vor 18o Millionen Jahren entwickelten sich die ersten Vögel. Erst vor 1oo Millionen Jahren entstanden die heute noch vorherrschenden Pflanzenformen. Am Ende des Mesozoikums gab es den zweiten sogenannten Faunenschnitt, fast schlagartig starben im Meer die meisten Wirbellosen und auf dem Festland alle Dinosaurier aus. Damit begann das Zeitalter der Säugetiere und Vögel. Erst vor etwa zwei Millionen Jahren betrat der Mensch die Bühne.

Um uns die bisher geschilderte Entwicklung nochmals plastisch vor Augen zu führen, benutzen wir am besten das bekannte Modell, in dem die gesamte Erdzeit vom Anfang bis heute mit dem Ablauf eines Jahres verglichen wird. Wenn man annimmt, daß sich danach am 1. Januar die Erde verfestigt hat und sich die ersten Gesteine bildeten, so ist der Beginn des frühesten Lebens etwa auf den 1. Mai zu datieren. Die frühesten photosynthetisierenden Zellen entstehen Anfang Juni, die eukaryontischen Zellen erst um den 2o. September, tierische Einzeller Anfang Oktober, die ersten Vielzeller Mitte November, Anfang Dezember die Fischähnlichen, am 6. Dezember die Amphibien, und am 18. Dezember die ersten Säugetiere. Erst am Wechsel vom 3o. zum 31. Dezember tauchen die ersten Hominiden auf, und erst am Abend dieses Tages, keine drei Stunden vor Mitternacht, taucht die Gattung 'Homo' auf, allerdings auch erst in einer Frühform. Erst eine halbe Stunde vor Mitternacht taucht die endgültige Gattung 'Homo sapiens' auf. Allerdings besteht unsere gesamte 6ooo-jährige Kulturgeschichte nach diesem Bild erst seit 4o Sekunden!!!

Wir haben bisher aber nur die Entwicklungsgeschichte der Entstehung des Lebens kennengelernt. Um die eigentlichen Vorgänge jedoch noch besser verstehen zu können, müssen wir uns näher mit der Funktionsweise lebender Zellen beschäftigen. Wie gesagt ist es heute möglich, die gesamten biologischen Vorgänge letztlich auf physikalische Prozesse zurückzuführen. Grundsätzlich unterscheiden sich die biologischen Prozesse von der unbelebten Natur durch drei Merkmale: Selbstvermehrung, Stoffwechsel und Mutation. Dabei spielt der Faktor Information eine entscheidende Rolle, wobei den Riesenmolekülen der DNS (Desoxyribonukleinsäure) die Rolle des Informationsträgers zufällt. Sie bestehen aus Ketten von Bausteinen, den sogenannten Genen, deren Reihenfolge die Erbeigenschaften des Organismus festlegen. Diese Reihenfolge ist also alles andere als zufällig.

Eine Zwischenstufe zwischen unbelebter Materie und den Lebewesen stellen die Viren dar. Einfache Viren bestehen eigentlich nur aus einer derartigen Nukleinsäure als Informationsträger. Da ihm die sonstigen Merkmale und Bestandteile einer lebenden Zelle aber fehlen, ist ein Virus allein nicht lebensfähig, es braucht eine Wirtszelle, in die es eindringt und die es dabei infiziert. Viren sind also Parasiten. Manche Viren sind darauf spezialisiert, bestimmte Bakterien zu infizieren und in ihnen statt einer weiteren Bakterienduplikation eine Virenvermehrung einzuleiten, indem sie sich die Möglichkeiten der Wirtszelle zunutze machen. Eine von einem einzigen Virus infizierte Zelle kann so tausende von Viren herstellen, die dann weitere Zellen infizieren. Die Wirtszellen gehen dabei zugrunde. Die Nukleinsäure der Viren besitzt jedoch nur eine sehr geringe Zahl von Genen - etwa zehn bis mehrere hundert Stück - während die einfachste Bakterienzelle 1ooo bis 2ooo Gene besitzt. Manche Viren leben allerdings mit ihrer Wirtszelle in friedlicher Symbiose, aus der auch die Wirtszelle Nutzen zieht, weil das Virus bestimmte Gene besitzt, die sie unter Umständen dringend benötigt. Es kann auch geschehen, daß die Gene des Virus in die Chromosomen der Wirtszelle eingebaut werden, wo sich dieses sogenannte 'Provirus' lange Zeit versteckt hält. Die Virusgene sind dann also inaktiv und können es über viele Generationen bleiben. Das ist insofern fatal für die Wirte, als sie von da an weitervererbt werden, bis sie eines Tages in der gesamten Population unter dem Einfluß bestimmter äußerer Ereignisse zur Expression kommen und die Wirtszellen zerstören. Die Viren, die Bakterien zerstören, nennt man Bakteriophagen. Diese Phagen sind zumeist ausgesprochen wirtsspezifisch, es gibt aber auch einige, die viele verschiedene Bakterien infizieren können.

Die einfachsten wirklichen Lebewesen, die Bakterien, bestehen aus nur einer einzigen Zelle. Eine Zelle ist also eine Einheit, bei der Inneres und Äußeres durch eine umgebende Membran voneinander getrennt sind. Im Inneren trennen und verbinden sich Atome und Moleküle, und es entsteht nach den Anweisungen des genetischen Codes eine ganz bestimmte Ordnung. Das Innenleben eines Bakteriums besteht aus zahlreichen vereinzelten Atomen und Molekülen, es enthält aber auch die Riesenmoleküle der DNS als dem Informationsträger sowie viele ebenfalls recht komplexe Proteine. Die DNS einer Bakterie kann an die Billiarden Atome enthalten. Schon das allereinfachste Leben weist also gewissermaßen definitionsgemäß eine ungewöhnliche Komplexität auf. Diese Komplexität, die uns noch heute die erwähnten großen Rätsel bezüglich der Wahrscheinlichkeit ihrer Entstehung aufgibt, ist notwendig, um die elementaren Vorgänge zu gewährleisten. Die Zelle muß ja zum Stoffwechsel und zur Vermehrung fähig sein, wozu ihre verschiedenen Organellen mit jeweiligen Sonderaufgaben in ganz bestimmter Weise zusammenarbeiten müssen.


 

 

Riesenmoleküle als Informationsträger

Die komplizierten Riesenmoleküle der DNS sind also die Informationsträger, in denen alle diese Abläufe programmiert sind. Sie sind tausendmal größer als die Moleküle, mit denen sich die Chemie beschäftigt. Die Anweisungen, die in ihnen codiert sind, werden aber nicht von ihnen selbst ausgeführt, sondern sie selbst bleiben an ihrem Ort und haben für die Ausführung der Anweisungen spezielle Eiweißmoleküle als Helfer, die bereits erwähnten Proteine. Diese erhalten von der DNS die einzelnen Anweisungen, um sie dann an den vorgesehenen Stellen auszuführen. Sie sind zwar ebenfalls Großmoleküle, aber doch sehr viel kleiner und weniger komplex und übernehmen niemals die gesamte Anweisung der DNS, sondern immer nur einzelne Aufgaben. Ihre geringere Größe macht sie auch für diesen Zweck beweglicher, zudem wäre die DNS viel zu empfindlich für diese 'niederen' Arbeiten, bei denen sie sich und die unbedingt zu erhaltende Information nur unnötig gefährden würde. Diese Arbeitsteilung ist also nicht nur sinnvoll, sondern absolut notwendig. Sie hat vermutlich von Anfang an in dieser Form bestanden, obwohl es auch Überlegungen gibt, nach denen die Aufgaben anfänglich nicht so eindeutig getrennt waren und auch Proteine als Informationsträger oder die DNS zugleich als Ausführungsorgane gedient haben könnten. Jede Zelle enthält mehrere tausend dieser Proteine, unter ihnen zahlreiche 'Enzyme', die das gesamte Geschehen der Zelle im Auftrage der DNS als deren ausgesandte und von ihr programmierte Roboter steuern, jedes mit einer ganz besonderen Aufgabe. Sie wirken als Katalysatoren: jedes Enzym beschleunigt eine bestimmte biochemische Reaktion, ohne selbst dabei verbraucht zu werden. So kann das Enzym stets unmittelbar zur nächsten Tat schreiten, immer der gleichen, und setzt dabei unvergleichlich viel mehr Substratmenge um, als seine eigene Masse ausmacht. Bestimmte Enzyme können innerhalb einer Minute bis zu fünf Millionen Substrat-Moleküle zerlegen. Die Spezialisierung des Enzyms bezieht sich auf das Substrat und den daran zu verrichtenden Arbeitsgang.

Die Nukleinsäuren bestehen aus nur vier molekularen Grundbausteinen, deren wechselnde Anordnung erst die eigentliche Information enthält. Es sind die vier 'Basen' Cytosin, Guanin, Adenin und Thymin, vereinfacht normalerweise mit ihren Anfangsbuchstaben bezeichnet: C, G, A, T. Jede dieser Basen besteht aus etwa 4o Atomen. Die Informationen lassen sich dementsprechend immer linear beschreiben, etwa: "...TTGATCCAATGGGACAGTAA..." und so weiter. Allein die DNS eines der einfachsten Mikroorganismen, des Bakteriums 'E. coli', ist ungefähr einen Millimeter lang (was im Bereich des Mikrokosmos eine enorme Größe ist) und enthält mehrere Millionen dieser Basen, die aber erst die Bauelemente der Gene sind. Größere zusammengefaßte Basensequenzen ergeben ein Gen. Das Bakterium E - coli besitzt insgesamt etwa 4ooo Gene. In gleicher Weise wie in der DNS sind die Informationen der Proteine linear codiert, nur daß hier die einzelnen Kettenglieder statt aus vier Basen aus 2o verschiedenen Aminosäuren bestehen. (Ein Protein mittlerer Größe ist zwar wie gesagt sehr viel kleiner als die DNS, aber es enthält immer noch einige hundert solcher Aminosäuren, die aus insgesamt 5ooo - 1ooooo Atomen bestehen, während die DNS dieses Bakteriums mehrere hundert Millionen Atome enthält, die zusammen ein einziges Molekül ergeben). Die Aminosäuren sind nun ihrerseits Informationsträger. Die Proteine haben ja die Informationen von der DNS, die dort in den Basensequenzen enthalten war. Dabei mußte nun die in der Basenschrift enthaltene Information in diejenige der Aminosäurenschrift übertragen werden. Da es aber nur vier Basen und fünf mal so viele Aminosäuren gibt, muß es eine Kombinationscodierung aus den Basen geben, aus der man ebenso viele Codes entwickeln kann. In der Tat dienen immer jeweils Gruppen aus drei Basen, sogenannte Triplets, zur Codierung einer einzelnen Aminosäure. Da sich aus den vier Basen insgesamt 64 mögliche Dreierkombinationen herstellen lassen, befinden sich nun die Triplets gegenüber den 2o Aminosäuren in deutlicher Überzahl, sodaß mehrere Triplets für eine einzelne Aminosäure codieren können.

Die Grundstruktur der DNS ist die sogenannte Doppel-Helix. Zwei Kettenmoleküle sind in ihr spiralförmig umeinander gewunden und bilden zusammen die fadenförmige DNS. Bei der Zellteilung wird sie verdoppelt. Dieser Vorgang spielt sich - wenn auch in vergrößertem Umfang - nach dem gleichen Prinzip ab wie der Kopiervorgang der Informationen auf die Proteine. Jede der beiden Molekülketten ist praktisch ein exakter Abguß der anderen Kette, sie passen also genau aufeinander, sodaß man, wenn man sie voneinander trennt, an jeder Hälfte durch einfachen Abguß die daran fehlende Hälfte ergänzen kann und danach zwei identische Ausführungen der ursprünglichen DNS erhält. Es passen nämlich einerseits das Basenpaar T - A und andererseits das Basenpaar G - C exakt aufeinander, und eine Austauschverbindung ist nicht möglich. So ergäbe die vorgenannte Textpassage "...TTGATCCAATGGGACAGTAA..." als Negativabdruck die Passage "...AACTAGGTTACCCTGTCATT...", aus der man leicht den ursprünglichen Text wiederherstellen kann. In der Zelle geschieht das so, daß die frei herumschwebenden Basen durch entsprechende Enzyme auf die an den DNS-Hälften offenen Stellen in passender Weise wie erläutert angefügt werden, bis die beiden identischen Doppelstränge fertig sind und der Zellteilungsvorgang beginnen kann. Bei der Synthese der Proteine läuft ein im Prinzip ähnlicher Vorgang ab, nur daß sich dazu die DNS nicht gänzlich spaltet und statt eines neuen Doppelhelix eine einsträngige Nukleinsäure, die 'Messenger-RNS' gebildet wird, gewissermaßen als Fotokopie.

Gegenüber den Prokaryonten, in denen die DNS frei in der Zelle schwebt, besitzen die Eukaryonten wie gesagt einen abgeschlossenen Zellkern, in dem vor allem die DNS durch eine Zellmembran von der übrigen Zelle abgetrennt ist. Um ein Bild zu gebrauchen, kann man diesen Zellkern als die Bibliothek bezeichnen, in der bei komplizierteren Organismen eine Vielzahl von Anweisungsbüchern aufbewahrt ist, den Chromosomen (die Bakterien besitzen davon zumeist nur ein einziges). Die Chromosomen wiederum besitzen einen Buchdeckel aus bestimmten Proteinen, die der eigentlichen DNS, die man dann als die Seiten betrachten kann, den äußeren Halt geben, während die Basen die einzelnen Buchstaben sind. Wir sehen hier bereits, daß Proteine Mädchen für alles sind, allerdings unterteilt in ausgesprochene Spezialisten für ganz bestimmte Aufgaben, diese hier also dienen nur als Buchdeckel. Die Bibliothek ist sehr modern eingerichtet, denn der Zellkern enthält außer den Chromosomen noch weitere Spezialproteine (RNS-Polymerase), die ausschließlich als Fotokopiergeräte dienen. Bei höheren Organismen werden durch die RNS-Polymerase nicht immer ganze Basensequenzen kritiklos übernommen, sondern es werden zunächst Fotokopien angefertigt, aus denen dann durch 'Spleißen' nichtbenötigte Passagen herausgeschnitten und die benötigten Passagen neu zusammengeklebt werden, bevor die so bearbeiteten Fotokopien als die erwähnten 'Messenger-RNS' in das den Zellkern umgebende Zytoplasma befördert werden, wo ihre Anweisungen für die Proteinsynthese übersetzt werden. Die Messenger-RNS selbst ist kein Protein, sie unterscheidet sich nur wenig von der DNS-Struktur.

'Messenger' bedeutet 'Bote': die Messenger-RNS ist ein Bote, der die Botschaft der speziellen Information in die Maschinerie des Zellplasmas überträgt. Dort steuert sie die Synthese des entsprechenden Proteins, und zwar mit Hilfe spezieller Apparate, der 'Ribosomen'. Diese Ribosomen sind ebenfalls keine Proteine, sondern eine zweite Sorte RNS. Sie sind in ihrer Bauweise und in ihrem Molekulargewicht im Gegensatz zu den Proteinen sehr einheitlich. Die Ribosomen sind Übersetzungsmaschinen, die an den Messenger-RNS-Strängen entlangwandern und dabei wiederum frei herumschwebende Aminosäuren entsprechend den in den 'Fotokopien' enthaltenen Informationen zu den Proteinsträngen zusammenfügen, wobei aus dem Basencode ein Aminosäurencode wird. Eine Fotokopie kann dabei zur Codierung vieler gleichartiger Proteine dienen und wird dazu oft gleichzeitig von mehreren Ribosomen abgetastet, die hintereinander herwandern und die Aminosäuren in der nötigen Weise zusammenfügen. Da das Messenger-RNS ja eine Auszugskopie der weit entfernt von diesem Vorgang nach wie vor im Zellkern befindlichen DNS ist, entsteht hier vor Ort nach der indirekten Anweisung der DNS Glied für Glied ein in seiner Struktur sehr genau festgelegtes Protein-Kettenmolekül.

Die Proteinstränge erhalten nach ihrer Herstellung allerdings eine kompaktere Struktur, sie falten sich in bestimmter Weise zu kompakten Molekülgebilden mit spezifischer Anordnung der Moleküle an ihrer Oberfläche. Auf dieser Oberflächenstruktur beruht auch die Wirkungsweise der Enzyme, sie sind sozusagen Stempel, die sich den bestimmten Substrat-Molekülen aufprägen und sie so in einer ganz genau definierten Weise bearbeiten. Auf diese Weise stellen die Enzyme die Bausteine her, die zum Bau der Zelle benötigt werden, während andere Enzyme diese Bausteine an den vorgesehenen Stellen einfügen oder sonstige Aufgaben wahrnehmen. Sie sind die Heinzelmännchen für alle notwendigen Arbeiten. Einige von ihnen wirken in höheren Organismen als Hormone und sind dabei zellübergreifend tätig. So werden alle Vorgänge im Auftrag der DNS gesteuert, und so entstehen unter anderem die Zellwände, Poren und Fasern und sonstigen Strukturen der Zelle. Auf diese Weise entwickelt sich in einer Zelle eine ungewöhnliche Aktivität. Die Zellmembran enthält eine Reihe von Systemen, die einen Austausch der Zelle mit ihrer Umgebung ermöglichen, aus der sie ihre Aufbaustoffe entnimmt. Bestimmte Moleküle werden so ins Innere der Zelle gepumpt, während andere als Abfallstoffe ausgestoßen werden. Die Zellmembran enthält Rezeptoren, also regelrechte Sinnesorgane, die auf verschiedene Außenreize reagieren, sie besitzt auch Koppelungsmechanismen für den Anschluß an andere Zellen. Im Inneren der Zelle, im Zytoplasma, wimmelt es von verschiedenen Molekülen und Organellen in einer solchen Dichte, daß kaum noch Platz bleibt. Alles ist in Bewegung und in ständigem Wandel, da viele Moleküle unter Einwirkung der Enzyme ihre Gestalt verändern. Auch die Kernmembran der Eukaryonten enthält viele Öffnungen, durch die die zuvor synthetisierten Messenger-RNSs mit Hilfe sie begleitender Transportproteine in das Zytoplasma zurückwandern.


 

 

Das Mutationsprinzip

Der Kopiervorgang erklärt auch eine weitere Grundeigenschaft aller biologischer Vorgänge, nämlich der Mutation. Es können bei so komplizierten Übertragungsmechanismen trotz aller Sicherungsmaßnahmen immer einmal Kopierfehler auftreten, und zwar bei steigender Kompliziertheit der Organismen in zunehmendem Maße. Während Mutation bei Bakterien dementsprechend unwahrscheinlich ist, können bei höheren Organismen immer einmal wieder Abweichungen von der ursprünglichen Erbsubstanz auftreten. Es gibt dabei einerseits nur Textfehler, die nur abschnittsweise auftreten, es kann aber auch zur Löschung von Buchstabengruppen sowie zur Auslassung ganzer Seiten kommen. Die ursprüngliche Anweisung kann dadurch einen anderen Sinn erhalten oder völlig unwirksam werden. Es gibt aber auch spezielle Reparatur-Enzyme, die viele Kopierfehler wieder korrigieren. Obwohl solche Fehler also verhältnismäßig selten sind (auf eine Milliarde Buchstaben kommt etwa ein Fehler), wird doch jeder Fehler in den Folgevorgängen immer mitkopiert. Darin liegt auch einer der Gründe, weshalb die DNS aus solchen Übertragungsvorgängen herausgehalten wird und jedenfals in ihrer Ausgangsstruktur bei allen inneren Angelegenheiten der Zelle erhalten bleibt, sodaß sich Übertragungsfehler normalerweise nur auf die einzelne Zelle auswirken. Es sei denn, ein Fehler ereignet sich bei der Zellteilung und der damit verbundenen Teilung der DNS-Stränge. Es kann natürlich auch zu einer Störung des genetischen Ausgangsmaterials der Keimzellen kommen, die sich bei höheren Organismen auf sämtliche Zellen auswirken. Diese Störungen haben aber auch einen positiven Begleiteffekt, der sie zur notwendigen Voraussetzung aller evolutionären Entwicklungen macht: sind die Veränderungen nämlich günstig für die Funktion des Organismus unter den gegebenen äußeren Umweltbedingungen, so steigert sich dadurch dessen Durchsetzungsfähigkeit und erhöht entsprechend seine Vermehrungschance. Setzt sich die Mutation also durch, so wird sie auf die Nachkommenschaft vererbt. Sind die Veränderungen dagegen ungünstig, wie es meistens der Fall ist, so stirbt der mutierte Organismus bald wieder aus. Das ist der Grundgedanke der Evolutionstheorie.

Wie sieht nun die eigentliche Zellteilung, die sogenannte 'Mitose', aus? Wir wollen sie am Beispiel einer typischen tierischen Zelle von mittlerer Komplexität erläutern. Wir können die Abläufe in acht Phasen unterteilen: 1) In der Interphase befindet sich das kleine sogenannte 'Zentriol', eine Art Lotse bei den Teilungsvorgängen, in der Mitte der Zelle in der Nähe des Zellkernes. 2) In der frühen Prophase hat sich das Zentriol bereits in zwei Hälften geteilt. Diese Hälften liegen immer noch neben dem Zellkern und sind Mittelpunkt einer wachsenden Zahl von sternförmig von ihnen ausgehenden Fasern. 3) In der mittleren Prophase trennen sich die beiden Zentriole und werden nun mit den Strängen zu Polstrahlen, die sich allmählich am Zellkern entlang in entgegengesetzten Richtungen bewegen. 4) In der Prometaphase hat sich die Kernmembran aufgelöst, und die Spindelfasern treten mit den Chromosomen in Wechselwirkung. 5) In der Metaphase ordnen sich die inzwischen geteilten Chromosomenhälften auf ihre jeweilige Seite an der Mittelebene der Zelle, während die bipolare Spindel noch weiter mit den Chromosomen in Beziehung tritt. 6) In der Anaphase trennen sich die geteilten Chromosomen und wandern unter dem Einfluß der Spindelfasern zu den an den entgegengesetzt liegenden Polen. 7) In der frühen Telophase liegen dann bereits die Chromosomen an den Polen. In der Mitte der Zelle bildet sich nun eine Einschnürung, die die Trennung einleitet. 8) In der Telophase haben sich bereits zwei neue Zellkerne in den nun getrennten Zellhälften gebildet. Damit ist der Vorgang abgeschlossen.

Wir kommen nun zu den menschlichen Zellen. Wir erinnern uns, daß die Doppelhelix des Bakteriums E - coli eine Länge von etwa einem Millimeter besitzt, wenn man es in die Länge zöge, und das ist im mikrokosmischen Bereich bereits eine ungewöhnliche Größe. Die insgesamt 46 Chromosomen einer menschlichen Zelle sind aber zusammen ungefähr tausendmal so lang und addieren sich zu einer Länge von einem Meter! Und dieses Material ist (nur unter anderem) in einer Zelle von mit dem bloßen Auge immer noch unsichtbarer Größe untergebracht! Eine menschliche Zelle ist aber hundert mal größer als das Bakterium E - coli. Sie besitzt auch im Gegensatz zu diesem wie alle Eukaryonten eine Zellmembran, also einen definierten Kern, der etwa in der Mitte des Zytoplasmas schwimmt. Da sie alle die gleichen Gene besitzen, weisen alle menschlichen Zellen eine große Ähnlichkeit im Aufbau auf. Dennoch unterscheiden sie sich bezüglich ihrer Funktion und sind deshalb alles andere als gleich.

Übrigens besitzen alle höheren Lebewesen, die sich geschlechtlich vermehren, einen Doppelsatz an Chromosomen, jedes Gen existiert also grundsätzlich doppelt, es gibt hier kaum Einzelgene, sondern immer nur Genpaare. Hierdurch ergibt sich ein zusätzlicher Sicherungsmechanismus gegen Mutationen, die trotz der evolutionären Auswirkung immer eine große Ausnahme sein sollen. Alle Anweisungen liegen doppelt vor, und wenn irgendwo eine Information durch Mutation verzerrt wurde, so ist sie in der Regel im anderen entsprechenden Gen noch intakt. Man nennt eine Zelle mit solchen Genpaaren 'diploid' und sagt, sie besitze zwei 'Genome'. Ein Genom ist die Gesamtheit aller Anweisungen, die ein Lebewesen an seine Nachkommen weitergibt. Bei höheren Lebewesen sind die Genome so kompliziert, daß sie in mehreren Chromosomen untergebracht sind. Das Genom des Menschen enthält etwa drei Milliarden Basen, die zusammen etwa eine Million Gene ergeben, ein menschliches Gen besteht also immerhin aus über tausend Basen. Man muß sich übrigens vergegenwärtigen, daß auch die Vermehrung höherer Organismen wie des Menschen im Wesentlichen auf ungeschlechtlichem Wege erfolgt. Die geschlechtliche Vermehrung gilt nur für den einmaligen Fall der Zeugung, während von da an alle weitere Vermehrung vegatativ geschieht, also durch Zellteilung. So wächst aus der befruchteten Eizelle schließlich der gesamte Mechanismus durch fortlaufende Zellteilung heran, und auch während des Lebens findet unter den Zellen ein ununterbrochener Erneuerungsprozeß statt. Alte Zellen sterben nach einer bestimmten Zeit ab und werden durch neue ersetzt, und insofern erscheint der Unterschied zur Vermehrung der Mikroorganismen nicht erheblich.

Eigentlich scheint aber die enorme Vielzahl der genetischen Informationen höherer Lebewesen gar nicht nötig zu sein, denn sie werden offenbar nicht alle benötigt. Größere Basensequenzen liegen brach, und die in ihnen enthaltene Information ist demnach ein Relikt aus einer evolutionären Frühzeit, die noch bei früheren Vorfahren eine Bedeutung besaß, jetzt aber nicht mehr zur Ausführung kommt. Diese überzähligen Sequenzen werden durch das erwähnte Spleißen aus den Fotokopien herausgeschnitten, das Gen wird zwar exakt fotokopiert, aber danach wird eine bereinigte Version davon hergestellt, in der die für die spätere Proteinsynthese nicht mehr benötigten Teile entfernt werden. Die herausgeschnittenen Teile nennt man 'Introns', und die benötigten Teile, die auf der bereinigten Kopie verbleiben, heißen 'Exons'. Je komplizierter die Lebewesen sind, je höher wir also in der Ordnung heraufsteigen, desto größer ist der Anteil solcher 'gestükkelten' Gene. Während sie bei niederen Organismen kaum vorkommen, befinden sie sich beim Menschen sogar in der Überzahl. Sowohl die Zahl als auch die Größe der Introns, also der brachliegenden Passagen, kann erheblich sein. Deshalb ist hier ein Gen etwa fünf bis zehn mal so groß wie die entsprechende Messenger-RNS, während der Gesamtüberschuß noch viel größer ist und beim Menschen etwa das fünfzigfache des tatsächlich benötigten Materials betragen dürfte. Das heißt, große Passagen werden gar nicht erst fotokopiert. Aller Überschuß sind anscheinend nutzlose Evolutionsreste. Man kann fragen, warum sie nicht beseitigt werden, aber die Natur geht zumeist den einfachsten Weg, viele Autofahrer schleppen auch jahrelang kaputte Autoreifen oder ähnliches mit sich herum. Vielleicht ist aber die Möglichkeit einer späteren Wiederverwendung nicht völlig auszuschließen, und es hat sich oft als vorteilhaft erwiesen, auf gewisse Reserven zurückgreifen zu können, als sich die Bedürfnisse änderten.

Die Größe der Genome läßt also nicht unbedingt auf die Zahl der in ihnen enthaltenen aktiven Gene schließen. Während es bei den Bakterien keine sinnlosen Informationspassagen gibt, enthalten die Chromosomen höherer Organismen viele Streichungen, und in gewisser Weise kann man sie als noch in Arbeit befindliche Manuskripte betrachten, wodurch sich ungeahnte Zukunftsmöglichkeiten ergeben. Während wir insgesamt den Eindruck haben müssen, daß die Entwicklung der Lebewesen nach strengen Richtlinien erfolgte, gibt es andererseits also Anzeichen dafür, daß sich die Natur stets Hintertüren offen läßt und sich so für die Zukunft eine bestimmte Flexibilität sichert. Bei den höheren Organismen soll eine bestimmte Variationsbreite bei Einzeleigenschaften wohl auch bewußt vorhanden sein und ausgenutzt werden können. Menschen besitzen eine viel höhere individuelle Ausprägung als Tiere. Je komplizierter die Lebewesen sind, desto unterschiedlicher sind die Individuen der jeweiligen Spezies. Das entspricht auch unserer unmittelbaren Erfahrung: Spatzen sind zum Beispiel viel 'reinrassiger' als Menschen. Zwischen zwei Menschen kann es mehrere Millionen Unterschiede geben, eine genetische Identität ist praktisch ausgeschlossen.

Arbeit befindliche Manuskripte betrachten, wodurch sich ungeahnte Zukunftsmöglichkeiten ergeben. Während wir insgesamt den Eindruck haben müssen, daß die Entwicklung der Lebewesen nach strengen Richtlinien erfolgte, gibt es andererseits also Anzeichen dafür, daß sich die Natur stets Hintertüren offen läßt und sich so für die Zukunft eine bestimmte Flexibilität sichert. Bei den höheren Organismen soll eine bestimmte Variationsbreite bei Einzeleigenschaften wohl auch bewußt vorhanden sein und ausgenutzt werden können. Menschen besitzen eine viel höhere individuelle Ausprägung als Tiere. Je komplizierter die Lebewesen sind, desto unterschiedlicher sind die Individuen der jeweiligen Spezies. Das entspricht auch unserer unmittelbaren Erfahrung: Spatzen sind zum Beispiel viel 'reinrassiger' als Menschen. Zwischen zwei Menschen kann es mehrere Millionen Unterschiede geben, eine genetische Identität ist praktisch ausgeschlossen.


 

 

Eine Frage der Wahrscheinlichkeit.

Wir haben nun gesehen, wie es durch präbiologische Evolution zur Entstehung von Leben aus toter Materie auf der Erde kommen konnte, wenngleich wir uns aus der Perspektive der Physik und Biologie nicht in der Lage sehen, die Frage der Wahrscheinlichkeit der Entstehung so komplizierter Strukturen zu klären, die das Phänomen einer Information ermöglichen, ohne die selbst einfachste biologische Vorgänge nicht möglich sind. Grundsätzlich erscheint es zwar denkbar und eigentlich sogar zwingend, daß es irgendwann dazu kommen mußte, unentscheidbar ist dabei nur, wie viel Zeit dazu theoretisch nötig war, wir können dazu einfach keinen Zahlenwert angeben. Die Frage, wann etwa ein Computer, der ewig neue Buchstabenkombinationen durchprobiert, eines Tages rein zufällig die 'Göttliche Komödie' zusammenstellt, läßt sich nach der Wahrscheinlichkeitsrechnung beantworten: dieser Fall ist extrem unwahrscheinlich. Wir haben mit den Theorien der präbiologischen Evolution zwar Erklärungsmodelle, die eine derartige Unwahrscheinlichkeit mindern, wir kennen aber natürlich nicht alle frühzeitigen Vorgänge und Einflußfaktoren und werden diese auch niemals in ihrem tatsächlichen und gegebenenfalls einmaligen Zusammenwirken rekonstruieren können. Wir werden auf diesen Punkt aber aus einer anderen Betrachtungsweise an späterer Stelle noch zurückkommen und dazu noch andere Erklärungsmöglichkeiten anbieten.

Zudem haben wir die grundsätzlichen Vorgänge in lebenden Zellen kennengelernt und können uns nun ein Bild über die Geschehnisse im Bereich der mikrokosmischen Biologie machen. Lebewesen wie Viren, Bakterien oder Pantoffeltierchen haben nun grundsätzlich nichts Geheimnisvolles mehr an sich. Über kompliziertere vielzellige Lebewesen wissen wir darüber hinaus aber bisher nur, daß sie über einen abgeschlossenen Zellkern verfügen, sich zumeist geschlechtlich vermehren und vor allem auf der Grundlage sehr viel komplizierterer Informationen entstehen. Wir wissen auch, daß diese Informationen in den Chromosomen einer jeden Zelle vorhanden sind, aus denen diese Vielzeller bestehen. Die Frage ist nur, wie aus einer derartig linear angeordneten, also eindimensionalen, Information eine dreidimensionale Struktur entstehen kann.

Verfolgen wir dazu einmal die Entstehung eines Wirbeltieres. Nachdem die Eizelle befruchtet wurde, teilt sie sich in der beschriebenen Weise durch Einschnürung, nachdem sich zuvor sämtliche Chromosomen geteilt hatten. Dieser Teilungsvorgang setzt sich dann fort, aus zwei Zellen werden vier und aus vier acht und so weiter, bis allmählich ein vielzelliges Gebilde entsteht, das man bereits mit bloßem Auge erkennen kann. Dieses Gebilde hat eine Kugelform, die einen inneren Hohlraum umschließt, der mit fortschreitender Größe ebenfalls größer wird. An einer bestimmten Stelle stülpt sich dann die so entstande Hohlschale ein, und bestimmte Zellen wachsen in den Innenraum hinein. Bei diesen handelt es sich um das sogenannte 'Entoderm', aus dem sich später die inneren Organe des Tieres entwickeln. Den um die Einschnürungsstelle befindlichen außenliegenden Bereich nennt man 'Mesoderm', aus dem später unter anderem die Muskeln entstehen, während man den übrigen Bereich der Außenschale als 'Ektoderm' bezeichnet, aus dem sich die äußere Haut und das Nerversystem entwickeln werden. Bei fortschreitender Einschnürung wächst auch das Mesoderm in den Innenbereich hinein. Danach schließt sich die Außenschale, sodaß nun nur noch das Ektoderm außen liegt, während sich im Inneren Entoderm und Mesoderm in der Weise ordnen, daß das Mesoderm nach 'oben' wandert und das annähernd abgerundete Entoderm-Zellgebilde wie ein relativ flaches Käppchen bedeckt. Dabei wird das Käppchen an seiner obersten Stelle von innen gegen die umschließende Ektodermwand gedrückt, wodurch an dieser Kontaktstelle im Ektoderm die Bildung eines Wulstes veranlaßt wird, der sich aus der Ektodermschicht heraus einstülpt und sich von diesem endlich loslöst. Dieses neue aus dem Ektoderm entstandene Gebilde nimmt eine röhrenförmige Gestalt an und ist dann im Bereich zwischen Ektoderm und Mesoderm (dem Käppchen) angeordnet. Bei diesem röhrenförmigen Gebilde handelt es sich um das 'Neuralrohr', aus dem später das Nervensystem entstehen wird. Aus dem Mesoderm entwickeln sich dann die Wirbel, die an ihrer obersten Stelle um das Neuralrohr herumwachsen, bis das Rückgrat entstanden ist.

Den Vorgang, daß an bestimmten Stellen weitere Abläufe dadurch eingeleitet werden, daß sich bestimmte Teile berühren, wie es zum Beispiel im Kontaktbereich zwischen Ektoderm und Mesoderm geschah, bezeichnet man als 'Induktion'. Hierdurch läßt sich sicherlich eine Reduzierung der bereits in der DNS angelegten notwendigen Information erreichen, da bestimmte Ereignisse als Folge späterer Wechselwirkungen an Ort und Stelle erklärt werden können. Viele Vorgänge sind als Kombinationen von Wechselwirkungen und grundsätzlicher Programmierung zu verstehen, wobei sich beide ergänzen. So entstehen im Laufe der weiteren Entwicklung im Neuralrohr an verschiedenen Stellen Ausstülpungen als Anlagen verschieder Teile des späteren Gehirnes und des Rückenmarks. Teils gleichzeitig, teils nacheinander laufen die weiteren Prozesse ab, sodaß wir es nicht nur mit räumlichen, sondern auch mit zeitlichen Ereignissen zu tun haben, wir haben es hier also nicht nur mit additiver Logig zu tun, sondern auch mit einer Folgelogik, wodurch die lineare Information reduziert werden kann. Sie funktioniert nicht nur additiv, sondern multiplikatorisch und sogar potential. Wir müssen uns vergegenwärtigen, wie ungeheuer kompliziert die Entwicklungsabläufe bei der Entstehung höherer Lebewesen sind. Allein die Nervenleitungen des menschlichen Auges bestehen aus Millionen einzelnen Strängen, die alle in eine ganz bestimmte Richtung wachsen müssen, um sich endlich an der vorgesehenen Stelle im Gehirn anzuschließen. Eigentlich ist es undenkbar, daß das alles in der DNS programmiert sein kann, und man könnte sich die Frage stellen, ob diese Programmierung wirklich alles erklärt. Aber wie wir gesehen haben, geht ja die DNS sogar noch verschwenderisch mit dem ihr zur Verfügung stehenden Platz um, was unter anderem durch die potenzierende Codierung wettgemacht wird. Schon bei Kettenlängen von einigen Hundert Basen ergeben sich nahezu unendlich viele Kombinationsmöglichkeiten. Die sich daraus ergebenden Zahlen in der Größenordnung von (4 hoch n) für die DNS bzw. (2o hoch n) für die Proteine sprengen jede Vorstellung. Es gibt aber noch weitere selbsttätige Regulationsmechanismen, wie wir sehen werden, die eine grundsätzlich vorbestimmende Codierung überflüssig machen.

Durch die Ausbildung des Nervensystems werden zahlreiche Folgevorgänge eingeleitet, es entsteht eine Untergliederung des Gewebes, wodurch die einzelnen Organe des Lebewesens an bestimmten Stellen zur Ausführung kommen. Auf diese Weise gliedern sich immer weitere Bereiche, die zunächst nur andeutungsweise angelegt waren, in verschiedene Teilbereiche mit immer größerer Untergliederung und Spezialisierung. Es kommt zu immer neuen Ein- und Ausstülpungen von Zellschichten, wodurch neue Kontakte entstehen, die auf induktivem Wege wiederum neue Folgeentwicklungen einleiten. Während die Eizelle als Ursprungszelle sämtlicher Zelltypen anzusehen ist, kann man spätere Zellen als Stammzellen von neuen Entwicklungsästen betrachten, die von da an eine immer größere Spezialisierung des Zellsystems einleiten. Bestimmte Zelltypen erzeugen dann nur noch ganz bestimmte Folgezellen. Am Ende der Entwicklung stehen Zellen, die so weit differenziert sind, daß sie sich entweder gar nicht mehr vermehren oder aber nur noch gleichartige Zellen erzeugen. Die früheste Untergliederung war die Unterteilung in Ektoderm, Mesoderm und Entoderm, wonach es ausgeschlossen war, daß etwa Ektodermzellen noch Bereiche der späteren inneren Organe erzeugten. So ergibt sich eine Folge von einzelnen Differenzierungsschritten, und nachdem eine bestimmte Entwicklung eine bestimmte Wegegabelung hinter sich gelassen hat, verläuft sie völlig unabhängig von den Geschehnissen in den anderen Entwicklungsästen. Sollte es in einem dieser Zweige zu einer schädlichen Mutation kommen, so betrifft sie nur diesen Zweig, das heißt, je früher ein solcher Fehler auftaucht, desto weitere Bereiche des ganzen Organismus betrifft er. Eine Mutation am letzten Ende eines Entwicklungsastes, also  in einer Einzelzelle, hätte deshalb nur hier eine Auswirkung. Da eine Zelle aber normalerweise eben nicht das Ende eines Entwicklungsastes ist, wurde wie bereits erläutert auch aus diesem Grunde das Geschehen im Inneren einer Zelle grundsätzlich von der DNS getrennt, da deren Schädigung sich nicht nur auf die Einzelzelle auswirkt.

Auf diese Weise entsteht also innerhalb des Zellhaufens eine ganz bestimmte Ordnung, deren Zustandekommen wir aber noch näher verstehen lernen müssen. Die ablaufenden Vorgänge sind eben insbesondere bei höheren Lebewesen derartig kompliziert, daß wir verschiedene Einzelvorgänge für sich betrachten müssen. Es gibt wie gesagt zum Beispiel die Möglichkeit der Selbstorganisation bestimmter Vorgänge, die also nicht darauf angewiesen sind, in der DNS gewissermaßen zurückzufragen, was nun weiter geschehen soll, sondern bei der eine bestimmte Intelligenz einprogrammiert zu sein scheint, die dazu führt, daß Bereiche von selbst wissen, wie sie sich zu organisieren haben. So ist das spätere Verhalten des Tieres ja auch nicht in allen Einzelheiten bereits in seinem Erbgut programmiert, sondern dort sind nur grundsätzliche Fähigkeit des Individuums festgelegt, sich sinnvoll zu entscheiden. Vorstufen eines solchen Verhaltens scheint es auch schon bei den Geschehnissen während der Entwicklung eines Vielzellers zu geben.

Interessant sind in diesem Zusammenhang Beobachtungen, die man an der 'Hydra', einem kleinen Süßwasserpolyp, gemacht hat. Dieses Tier ist uns ja aus den Süßwasseraquarien bekannt, wo es sich mit seinem Saugfuß gerne an den Glaswänden festsaugt, während es mit seinen Tentakeln Schwebstoffe aufzufangen sucht, von denen es sich ernährt. Es besitzt also an seinem oberen Ende einen Kopf mit einer Mundöffnung und einigen Fangarmen sowie am unteren Ende einen Fuß. Es vermehrt sich durch Knospung. Schon vor über 2oo Jahren wurde entdeckt, daß herausgeschnittene Teile des Polypen durch Regeneration wieder ganz neue Tiere entstehen lassen können. Praktisch kann aus jedem Gewebestück, das man an einer beliebigen Stelle der Knospungsregion, also der Bauchregion, herausschneidet, wieder ein ganz neuer Polyp mit Kopf und Fuß entstehen. Es ist sogar möglich, das herausgetrennte Teilstück bis in winzigste Teile zu zertrennen, sodaß man  einen nur noch ungegliederten Zellhaufen erhält. Auch daraus wird nach einer bestimmten Zeit wieder ein neues Tier entstehen. Dabei sortieren sich die Zellen zunächst in der Weise, daß sich wieder ein Hohlgebilde mit deutlich getrenntem Innen- und Außenbereich ergibt, wobei an einem Ende dieses Gebildes dann der Kopfbereich und am entgegengesetzten Ende der Fußbereich entsteht, die dann immer weiter auswachsen. Es ist wichtig, zu erkennen, daß sich dieser Entwicklungsprozeß ganz grundsätzlich von dem zuvor geschilderten Prozeß unterscheidet, bei dem der gesamte Körper durch hierarchische Entwicklung von einer Ursprungszelle ausgehend entstand. Im Gegensatz dazu haben wir hier zunächst keine Hierarchie, sondern nur einen chaotischen Haufen, bei dem eigentlich der eine nicht wissen kann, was der andere tut, sodaß das Problem darin liegt, wie es hier zu einer Einigung kommen kann.


 

 

Nichtdeterminierte Informationen

Offenbar ist es auch so, daß grundsätzlich aus jeder Zelle alles werden kann und daß es dafür keine Vorbestimmung gibt. Bei dieser Regeneration wächst der Kopf nicht durch Neubildung von Kopfzellen nach, sondern er entsteht durch Neugliederung und Differenzierung bereits bestehender Zellen. Ein Teil der Zellen entwickelt sich zum Kopf- und ein anderer zum Fußende, ohne daß dafür eine Zellvermehrung nötig wäre. Selbst wenn man diese Entwicklung an einer bestimmten Stelle behindert, indem man etwa Zellen aus der schon neu angelegten Kopfregion entfernt, wird dennoch ein vollständiger Kopf durch Neuorganisation entstehen. Die Frage ist nun, wie und von wem bei diesem Entwicklungsprozeß darüber entschieden wird, welche Zellen welche Aufgaben erfüllen, denn offensichtlich kommt es darüber zwischen den Zellen zu einer Einigung, da anderenfalls eine sinnvolle Entwicklung nicht möglich wäre. Es wäre sonst denkbar, daß etwa an verschiedenen Stellen mehrere Köpfe entstünden. Offensichtlich muß es doch zunächst einen Entscheidungsprozeß in dem bis dahin chaotischen Zellhaufen geben, in dem festgelegt wird, welcher Bereich was zu tun hat.

Es ist aber wohl so, daß die Position des späteren Kopfes keineswegs zufällig ist. In einem herausgeschnittenen Teilstück des Polypen entsteht der Kopf normalerweise an der ursprünglich kopfnächsten Stelle des Stückes. Bald nach Beginn des Regenerationsprozesses ist zu erkennen, daß die zukünftige Kopfregion festgelegt und aktiviert ist. Denn während dieser Teil eines Teiles ja bis dahin in keiner Weise festgelegt war, bewirkt er nun schon eine eindeutige Programmierung einer Kopfentwicklung in anderem Zellgewebe, wenn er dorthin transplantiert wird. Offenbar enthält er nun Informationen, die er zuvor noch nicht besaß und die er dann an seine neue Umgebung weiterreicht. Man hat auf diese Weise zwei Gewebestellen der ursprünglichen Hydra entnommen, die bis dahin unmittelbar nebeneinander angeordnet waren, die eine in Kopfrichtung und die andere in Fußrichtung, und beide haben sich danach in der ursprünglichen Richtung neu regeneriert. Der entscheidende Punkt ist bei diesem Experiment, daß die Zellen, die in der ursprünglichen Hydra unmittelbar benachbart waren, nun in den neuen Teilstükken entweder zu einem neuen Kopf oder zu einem neunen Fußende werden, je nachdem, ob sie das obere Ende des unteren Teilstückes bilden oder das untere das oberen Teilstückes. Daraus folgt, daß die zuvor unmittelbar benachbarten Zellen sowohl dieses als auch jenes hätten werden können und daß bis dahin keine solche Vorbestimmung festgelegt war.

Nach der Einleitung des Regenerationsprozesses bildet sich in dem bis dahin ungeordneten Gewebe eine abgestufte Verteilung der potentiellen Möglichkeiten. Im späteren Kopfbereich wächst die potentielle Möglichkeit, daß hier der Kopf ausgebildet wird. Die Möglichkeit der Kopfaktivierung steigt hier an, während sie zugleich in den anderen Bereichen sinkt. Vermutlich kommt es dabei zu einer Anreicherung chemischer Aktivierungsstoffe. Es soll hier betont werden, daß diese Prozesse noch nicht völlig geklärt sind und daß es dafür auch noch ganz andere Erklärungsversuche außerhalb jenes Bereiches gibt, mit dem sich normalerweise, Physik, Chemie und Biologie beschäftigen (wir sollten deshalb von traditioneller Physik, Chemie und Biologie sprechen, deren Erkenntnisgrenzen, wie sich immer mehr zeigt, sehr eng gesteckt sind). Ich meine damit zum Beispiel die Theorie der sogenannten 'morphogenetischen Felder', mit der wir uns an späterer Stelle noch ausführlich beschäftigen werden. Diese Felder könnten danach biologische Prozesse ähnlich wie elektromagnetische Felder steuern, in denen sich bekanntlich Eisenspäne auch auf ganz bestimmte Weise ordnen. Wir wollen aber zunächst im Bereich traditioneller physikalischer bzw. chemischer Erklärungsmodelle bleiben, denn es entspricht unserer bisherigen Erfahrung, daß alle hier geschilderten Abläufe zumindest AUCH auf diese Weise erklärbar sind, gewissermaßen als die eine Seite, sich den Phänomenen zu nähern. Wie so oft, wenn die Wissenschaft einen Vorgang noch nicht restlos verstanden hat, kann sie sich immerhin mit der Tatsache einer grundsätzlichen Erklärungsmöglichkeit zunächst begnügen.

Die örtliche Konzentration eines Aktivierungsstoffes kann aber noch nicht alleine bestimmen, was an dieser Stelle zu geschehen hat, denn sonst könnte es ja an verschiedenen Stellen zu derartigen Konzentrationen kommen, was zu mehreren Kopfbildungen führen würde. Es muß also ein Informationsaustausch zwischen allen Teilen stattfinden, der etwa besagt, daß an dieser Stelle nun dieser Prozeß eingeleitet wird, während alle anderen Teile auf die Einleitung eines solchen Prozesses verzichten. Zugleich mit der Steigerung der Konzentration an einer bestimmten Stelle muß an alle anderen Stellen die Konzentration einer Negativinformation steigen. Hierbei wird es eine Zeitlang zur Aufschaukelung lediglich potentieller Möglichkeiten kommen, die noch keine endgültige Festlegung bedeuten. Wir haben ja gesehen, daß selbst bei nachträglicher Entfernung von Zellen in einem Bereich, in dem die Kopfbildung bereits eingeleitet wurde, dieses dennoch dadurch nicht verhindert wird, was bedeutet, daß der Zustand einer lediglich potentiellen Möglichkeit lange Zeit erhalten bleibt. So kommt es also zunächst nur zur Anreicherung von Wahrscheinlichkeiten, die sich erst in Abstufungen immer mehr manifestieren. Dabei mag ein kleiner Anfangsvorteil eines Teiles den ursprünglichen Ausschlag geben, was an dieser Stelle später geschieht, etwa die bloße Tatsache, daß dieser Gewebeteil bei dem ursprünglichen Polypen am meisten in der Kopfnähe lag, sodaß sich hier demnach die potentiellen Möglichkeiten der Kopfentwicklung am ehesten anreichern, während diese gleichzeitig in allen anderen Bereichen abnimmt. Aus fast gleichförmigen Anfangsbedingungen entstehen so allmählich starke Konzentrationsunterschiede. Vermutlich sind dabei nicht nur ein Aktivator-, sondern auch ein Hemmstoff notwendig, der die anderen Teile an Parallelentwicklungen hindert. Dabei kommt es in den einzelnen Bereichen nicht nur zu Anreicherungen dieser Stoffe, sondern auch zur Verdünnung der Gegenstoffe, bis sich die endgültige Entscheidung immer mehr anreichert. Das Grundprinzip dabei ist die Tatsache, daß die Entwicklung über einen langen Zeitraum noch völlig offen bleibt, daß sich dabei lediglich die potentielle Möglichkeit steigert und die endgültige Festlegung äußerst vorsichtig erfolgt. Diese Vorgänge machen es nötig, daß die Zellen auf chemischem Wege Informationen austauschen können, wozu die Zellwände natürlich durchlässig sein müssen. Wir haben bisher abgesehen vom Aufbau der Vielzeller fast ausschließlich von Vorgängen innerhalb der Zellen gesprochen, es finden aber auch zwischen den Zellen sehr viele Abläufe statt, und es gibt viele Stoffe, die zellübergreifend tätig sind, etwa die Hormone oder die Antikörper. Es gibt sehr viele Steuerungsvorgänge, die auf diese Weise ablaufen.

Es fällt nicht schwer, sich vorzustellen, daß auf die gleiche Weise, wie die Festlegung bezüglich der Hauptpartien des zukünftigen Organismus erfolgt, auch die weiteren Differenzierungsschritte ablaufen. Wir haben so also einen Mechanismus kennengelernt, der es ermöglicht, daß aus einer linearen Information eine dreidimensionale Struktur wird. Eine Voraussetzung dafür ist zum einen die Tatsache, daß die Gesamtinformation in jeder Einzelzelle vorhanden und beliebig abrufbar ist, zum anderen ein Regelungsmechanismus, der festlegt, welche Zelle welche ihrer Möglichkeiten aktiviert, sodaß das Endergebnis gewissermaßen als Interferenzerscheinung der Überlagerung zweier Informationssysteme angesehen werden kann. Dieses System setzt allerdings eine extreme Regenerationsfähigkeit voraus, die bei höheren Organismen nicht mehr gegeben ist. Während bei einem Hummer etwa durch Regeneration immerhin noch eine seiner Scheren allmählich nachwächst, wenn sie zuvor entfernt wurde, so wissen wir, daß zum Beispiel eine menschliche Hand oder auch nur ein Finger nicht mehr nachwächst. Offenbar sinkt die Regenerationsfähigkeit mit steigender Komplexität der Lebewesen. Hier ist die Strukturbildung, also die Übersetzung der linearen Information in die dreidimensionale Form, streng determiniert.

Wir wollen uns deshalb nochmals diesen Geschehnissen zuwenden. Das Problem beim Aufbau solcher Strukturen besteht darin, wie es geschehen kann, daß während des Aufbaues in den unterschiedlichen Zellen nacheinander völlig andere Befehle ausgeführt werden, obwohl doch alle Zellen über die gleichen Informationen verfügen: jede Einzelzelle verfügt in der immer gleichen DNS über die Gesamtheit aller Informationen. Wir führen uns dazu am besten ein Denkmodell vor Augen und stellen uns eine Kolonne aus etwa zehn Robotern vor, die alle nur vier Grundgriffe beherrschen entsprechend den vier 'Grundgriffen' der DNS-Information, den vier Basen. Ebenso wie dort kann aber die Reihenfolge, in der die Roboter ihre Grundgriffe ausführen, jeweils völlig unterschiedlich sein, sodaß sich bei jedem ein ganz anderes Tätigkeitsmuster ergibt. Alle diese Roboter besitzen Lochstreifen, die die Abfolge ihrer Einzelschritte steuern. Jetzt starten wir den ersten Roboter mit dem Programm A, das dazu führt, daß er das Fundament eines Hauses baut. Obwohl dieses Fundament bereits zumindest prinzipiell zweidimensional ist, können wir uns noch gut vorstellen, daß eine solche Arbeit mit einer linearen Codierung programmiert werden kann. Gleichzeitig soll aber dieser Roboter einen bestimmten Steuerungsbefehl mit dem Programm B an einen weiteren Roboter weitergeben. In diesem Programm ist eine begrenzte Anzahl von Folgeschritten festgelegt, die der zweite Roboter auszuführen hat, nachdem der erste seine Arbeit fertiggestellt hat. Der zweite Roboter beginnt danach, das Kellergeschoß des Hauses zu bauen und reicht danach einen Lochstreifen C an einen dritten Roboter weiter, der darauf beginnt, das Erdgeschoß des Hauses zu bauen und so weiter. So entsteht aus einer linearen Information ein dreidimensionales Haus. Es ist dabei auch denkbar, daß jeder Roboter bereits das gesamte Programm besitzt, daß aber jeder Vorgänger bei ihm nur einen bestimmten Startknopf drückt, der festlegt, welcher Teil des Gesamtprogramms durch ihn abgerufen wird.


 

 

Der Trick der linearen bzw. prozessualen Codierung

Wenn wir dieses Denkmodell auf die biologischen Vorgänge übertragen, müssen wir uns noch vorstellen, daß am Anfang nur ein einziger Roboter existiert, der aber im Unterschied zu den vorgenannten Robotern außerdem noch das komplette Bauprogramm zur Herstellung seines Nachfolgers besitzt, den er nach Erledigung seiner eigenen Aufgaben zunächst herstellt und an ihm einen bestimmten Folgeschalter betätigt, sodaß danach der zweite Roboter in Aktion tritt und später wiederum seinen Nachfolger baut und so fort. Allerdings entspricht dieses Bild immer noch nicht ganz der Wirklichkeit. Dort ist es so, daß jeder Roboter durch die Fähigkeiten gekennzeichnet ist, a) sein eigenes Programm durchzuführen und sich selbst zu erhalten, indem er sein Baumaterial und teilweise auch schon das seines Nachfolgers der Umgebung entnimmt, b) sich durch Selbstreproduktion zu vermehren. Außerdem sollte die gesamte Kolonne zu geschlechtlicher Vermehrung fähig sein und dabei gelegentlich mutieren können, um sich wechselnden Umweltbedingungen anpassen zu können und seine gesamte Entwicklung in dieser Hinsicht optimieren zu können. Wir müssen unser Beispiel auch dahingehend verändern, daß wir uns vorstellen, daß die Roboter zugleich das Baumaterial des Hauses sind. Jeder Roboter erledigt also zunächst seine ganz bestimmte Arbeit und baut sich dabei in das Haus ein, indem er das dazu nötige Material der Umgebung entnimmt. Schon parallel dazu beginnt er sich in zwei kleinere Roboter zu teilen, die beide bis zu ihrer vorbestimmten spezifischen Größe weiterwachsen. Es sind jetzt aber nicht drei, sondern nur erst zwei Roboter vorhanden, die aber ebenso Bestandteile des Hauses sind, also nicht nur die Maurer, sondern zugleich die Mauersteine.

Auf diese Weise kann nicht nur ein einzelnes Haus, sondern sogar eine ganze Stadt entstehen, lediglich auf der Grundlage einer linearen Codierung. Wir bleiben einmal bei dem Vergleich aus der Baubranche. Auch dort entstehen ja dreidimensionale Häuser auf der Grundlage zweidimensionaler Pläne, und es bereitet uns keine Schwierigkeiten, uns diese auch linear codiert vorzustellen. Wir brauchen sie uns dazu zum Beispiel nur in beliebig kleine Felder unterteilt vorzustellen, in denen entweder etwas passiert oder nicht. Der Maurerpolier hat nun einen ganzen Stapel solcher Pläne in Form von Blaupausen unter dem Arm und entscheidet je nach Örtlichkeit und Baufortschritt, welchen dieser Pläne er zur weiteren Ausführung kommen läßt. An jedem Ort und zu jedem Zeitpunkt ist also die Gesamtheit aller Informationen stets präsent, es wird aber immer nur nach den welchselnden Gegebenheiten ein Teilprogramm davon abgerufen. Vielleicht sollten wir unseren Vergleich zur Baubranche dahingehend abwandeln, daß wir sagen: dort sind die Maurer größer als die Bausteine, die sie in das Haus einbauen, während innerhalb des biologischen Entwicklungsprozesses anscheinend die Mauersteine sich selbst einbauen, während die Maurer aber dennoch vorhanden sind, sie sind nur sehr viel kleiner und schwirren zwischen den Mauersteinen herum, deren äußere Abgrenzungen dazu mit Löchern versehen sind und die auch in ihrem Inneren solche Bewegungen zulassen. Die emsigen Maurer wären in diesem Falle die Proteine bzw. Enzyme, unsere bereits erwähnten Heinzelmännchen. Die Enzyme sind teilweise darauf programmiert, lediglich Arbeiten innerhalb der eigenen Zelle zu erledigen, es gibt aber auch wie gesagt solche, die zellübergreifend tätig sind und die etwa die jeweiligen Hebel (entsprechend unserem Roboterbeispiel) in den Nachfolgezellen anstellen. Kaum hat sich die neue Zelle einigermaßen konstituiert, so werden von ihr schon ganz bestimmte Arbeiten ausgeführt, die zum Selbstaufbau nötig sind. Hierzu sind dann bereits Enzyme zur Stelle, die die nötigen Einweisungen geben und die ja demnach nicht erst in dieser Zelle hergestellt worden sein können. Diese Enzyme leiten aus dem stets zur Verfügung stehenden Gesamtprogramm je nach dem Ort der Ereignisse immer nur ganz bestimmte Schritte ein. Und sie regeln auch die Herstellung weiterer Nachfolgeenzyme, die ihrerseits als Bauleiter in die Nachfolgezellen wandern, unter Umständen nach einer Wegegabelung der Entwicklung nun mit ganz anderen Instruktionen. Dieses setzt allerdings voraus, daß es sich dabei um ganz andere Enzyme handelt, denn wie gesagt ist jedes Enzym ausgesprochen spezialisiert, es ist nicht möglich, daß es einmal dieses und ein anderes Mal etwas völlig anderes macht. Es war also die Leistung des Vorgängerenzymes, nun dieses Enzym in Aktion zu setzen.

Um uns ein vereinfachtes Beispiel für diesen Vorgang vor Augen zu führen, können wir uns ein in einer sich aus einer Anfangszelle selbst aufbauenden bestimmten Zellenmenge vorhandenes Gesamtprogramm vorstellen, das aus den Ziffern eins bis zehn besteht. Vor der ersten Zellteilung werden davon nur die Programmschritte eins und zwei abgerufen, wovon das erste zum Aufbau und der Erhaltiung dieser Anfangszelle dient. Nach der ersten Zellteilung ist dann das Programm zwei zur Stelle, das in den beiden neuen Zellhälften bestimmte Entwicklungsschritte einleitet, indem es die Schalter drei und vier aus dem auch hier vorhandenen Gesamtprogramm einschaltet. Danach dient das Programm drei zum weiteren Aufbau und der Funktion dieser beiden Zellen, während das Programm vier erst nach der zweiten Zellteilung aktiviert wird und in den jungen Folgezellen direkt zur Stelle ist, um dort die Schalter fünf und sechs zu betätigen. Das Programm fünf dient nun zum Aufbau und der Erhaltung der jetzt insgesamt vier Zellen des wachsenden Organismus, während das Programm sechs nach der dritten Zellteilung aktiviert wird. In den dann schon acht neuen Zellen schaltet es die Programme sieben und acht ein, wovon das siebente zum Aufbau und der Erhaltung dieser Zellen dient, während das achte nach der vierten Zellteilung aktiviert wird, wo es den dann schon sechzehn jungen Zellen die hier nötigen Anweisungen gibt, indem es die Schalter neun und zehn betätigt. Programm zehn dient dann zum Aufbau und zur Erhaltung dieser Zellen, während Programm zehn erst nach der fünften Zellteilung in Aktion schreitet und die Anweisungen für die Aktivitäten des bereits auf insgesamt 32 Einzelzellen angewachsenen Zellgebildes gibt. Es ist klar, daß auf diese Weise aus einem linearen Programm ein äußerst komplexes dreidimensionales Gebilde entstehen kann, lediglich dadurch, daß so nacheinander sehr spezialisierte Einzelprogramme abgerufen werden, die alle nicht über ihren engen Bereich hinausdenken können und dementsprechend jedes für sich auch nicht verstehen müssen, was das aus ihnen bestehende Kollektiv insgesamt tut.

Während die Natur mit dem in der DNS gespeicherten Informationsmaterial einerseits sehr verschwenderisch umzugehen scheint, gibt es andererseits doch auch diesbezüglich Anzeichen für eine ausgeprägte Ökonomie. Zum Beispiel sind fast alle biologischen Organismen symmetrisch aufgebaut, oft sogar und besonders im Pflanzenbereich mit vielen Symmetrieachsen. Zudem scheint wo immer möglich die Neigung zur Ausbildung selbstähnlicher Formen zu bestehen, wobei alle Differenzierungsschritte, also weitergehenden Unterteilungen, nach immer dem gleichen Muster erfolgen. So entsteht die Verästelung der menschlichen Lunge in gleicher Weise wie die eines Baumes, indem sich von den Ästen immer wieder kleinere Äste abzweigen, die aber abgesehen von ihrer geringeren Größe keinen prinzipiellen Unterschied zu den Stammästen aufweisen. So könnte man bei bestimmten Bäumen Äste abbrechen und diese in die Erde stecken und erhielte dadurch das Bild einer verkleinerten Ausführung des Baumes. In solchen Fällen sprechen wir von 'fraktalen' Strukturen. Es gibt viele derartige Strukturen in der Natur, etwa im Aufbau eines Schneckenhauses, das sich theoretisch in gleicher Weise ewig weiterwinden und stetig wachsen könnte, ohne dabei seine Gestalt zu verändern. Auf diese Weise entsteht in der Natur eine verblüffende Vielfalt der Strukturen, die aber alle sehr okönomisch programmiert sind. In unserem Beispiel aus der Baubranche benötigen wir nur einen einzigen weiteren Plan, um aus den Hausbauplänen einen Stadtbauplan werden zu lassen. Vorausgesetzt, daß alle Häuser gleich sind oder nur geringe Variationsunterschiede aufweisen, läßt sich mit Hilfe dieses einen Zusatzprogrammes dann eine ganze Stadt errichten. Das ist der Vorteil einer multiplizierenden Programmierung gegenüber einer rein addierenden, bei der allerdings jedes Haus immer wieder aufs neue im Grundprogamm verankert sein müßte.

Wir haben aber auch das Prinzip der Selbstorganisation von Strukturen kennengelernt. Viele Experimente haben zu der Erkenntnis geführt, daß biologische Strukturen normalerweise als Ergebnisse von Wechselwirkungen verschiedener Prozesse zu erklären sind, die sich gegenseitig ergänzen. Erst in diesem Jahrhundert sind diese Mechanismen allmählich verstanden worden, und erst in den fünfziger Jahren wurde durch Watson und Crick die besondere Rolle der DNS erkannt. Wir wissen heute, daß es keine räumliche Vorordnung in der DNS gibt, sondern daß die biologischen Strukturen in jedem einzelnen Individuum aufs Neue entstehen. Die Informationen dazu sind lediglich in verschlüsselter Form in der DNS gespeichert, es gibt dort aber keine 'Homunkuli'. Die benötigte Information muß jeweils nach Bedarf abgerufen werden, was aber nur in zeitlicher Abfolge geschieht. Das heißt: Aus Zeit wird Raum! Man kann diesen Vorgang schlecht ohne die Dimension der Zeit begreifen. Die zu einem bestimmten Zeitpunkt benötigte Information kann in der Zelle auch durch Außenreize aktiviert werden, die zu einem früheren Zeitpunkt noch nicht existieren konnten, also etwa dadurch, daß die Zelle zu diesem Zeitpunkt gegen ganz bestimmte andere Zellen stößt und sich dadurch eine neue Situation ergibt, die vorher noch nicht gegeben war. Eine solche Berührungsinduktion schafft also zusätzliche Information, die wir als das Prinzip der potenzierenden Programmierung bezeichnen können. Es ist in Experimenten vor allem durch H. Spemann nachgewiesen worden, daß solche Berührungskontakte bestimmte Entwicklungen auslösen, die ohne eine derartige Berührung nicht erfolgen. Auf diese Weise konnte etwa die Entwicklung eines Auges keineswegs nur am Kopf eines Embryos eingeleitet werden, sondern praktisch an jeder anderen Stelle der Außenfläche! In jedem Entwicklungsstadium übernehmen bereits vorhandene Elemente die Organisation weiterer Strukturen durch Induktion. Die Entwicklung einer embryonalen Zelle wird also durch ihre Nachbarzellen gesteuert, die sie veranlassen, einer der vielen Arbeitsanweisungen zu gehorchen, über die sie verfügt.


 

 

Grundabläufe der Formbildung

Das Wachstum erfolgt aber nicht nur durch bloße Addition von Zellen, sondern es kommt wie gesagt zum Beispiel an manchen Stellen des sich entwickelnden Gebildes dadurch zu Ausstülpungen, daß die Zellen sich lediglich vergrößern, ohne ihre Zahl zu verändern. Die speziellen Organe des Menschen wachsen im Wesentlichen nur durch Zellvergrößerung, nicht aber durch Zunahme der Zellenzahl. Das Herz eines erwachsenen Menschen besitzt die vielfache Größe des Herzens eines Säuglings bei gleicher Zellmenge, und die Gesamtzahl der Nervenzellen, beim Menschen über zehn Milliarden, sind bei der Geburt bereits vorhanden. Sie vergrößern sich später nur noch. Aus- oder Einstülpungen sind ein Grundprozeß biologischer Formbildung. Besteht eine zunächst flache Schale aus zwei Zellschichten, so stülpt sie sich nach oben, wenn die obere Zellschicht sich ausdehnt, oder sie stülpt sich nach unten, wenn die untere Schicht sich ausdehnt. Bisweilen geht das Wachstum in verschiedene Richtungen und mit verschiedenen Geschwindigkeiten. Dabei muß es nicht unbedingt nur einen Ausgangspunkt des Wachstums geben, Pflanzen etwa haben mindestens zwei Wachstumszentren, eines im Wurzelbereich und eines über der Erde.

Wir müssen nun auf die Vorgänge bei der geschlechtlichen Vermehrung höherer Lebewesen kommen. Das menschliche Spermium, also die männliche Samenzelle, ist eine einzelne Zelle, die in ihrer äußeren Gestalt an eine Kaulquappe erinnert. Zum größten Teil besteht es aus einem 'Kopf', in dem sich vor allem der Chromosomensatz befindet, aber auch ein Energiezentrum, das dazu dient, das Spermium auf seinem vergleichsweise langen Weg durch peitschenartige Bewegungen seines langen dünnen Schwanzes voranzutreiben. Es ist im Vergleich zu der Eizelle nur sehr winzig und im Gegensatz zu dieser mit dem bloßen Auge nicht sichtbar. Während alle übrigen Körperzellen des Menschen jeweils einen Satz aus 46 Chromosomen besitzen, die in 23 Paare aufgeteilt sind, bei denen jedes Teil dem anderen entspricht, enthalten die Samen- und die Eizelle nur jeweils 23 einzelne Chromosomen, und erst nach der Befruchtung entstehen wieder 23 Paare, indem sich jedem Chromosom der bis dahin unbefruchteten weiblichen Zelle nun ein Chromosom der männlichen zugesellt, sodaß dann der normale Satz wieder komplett ist. Dabei gibt es eine weitere Abweichung. Eines der Paare ist für das Geschlecht des Kindes verantwortlich. Sind beide Hälften dieses Paares identisch, so ist das Geschlecht des Kindes weiblich, sind sie aber unterschiedlich, so ist das Geschlecht männlich. Dabei wird die Unterschiedlichkeit durch das Spermium programnmiert, der Mann bestimmt also das Geschlecht des Kindes, je nachdem, welches seiner Spermien zufällig die Befruchtung der Eizelle herbeiführt.

Nach der Befruchtung beginnt sich die Eizelle in der beschriebenen Weise zu teilen und entnimmt dabei dem Körper der Mutter das nötige Rohmaterial. Währenddessen wandert sie von dem Eileiter innerhalb weniger Tage in die Gebärmutter und ist bei seiner Ankunft bereits zu einem größeren Zellhaufen angewachsen. Diese Zellen bilden aber nicht nur die späteren Körperzellen des Embryos, sondern auch dessen ihn unmittelbar umgebende Schutzhaut sowie die in der so entstehenden Blase befindliche Flüssigkeit, in der der eigentliche Embryo schwimmen wird. Erst etwa eine Woche nach der Befruchtung gräbt sich die 'Blastula', also die Blase, in die Schleimhaut der Gebärmutter ein. Danach entwickeln sich zwischen dem mütterlichen und dem embryonalen Organismus zahlreiche Verbindungen, die sich schnell vergrößern, während sich an ihnen Blutgefäße ausbilden. So wird ein enger Kontakt mit dem mütterlichen Blutkreislauf hergestellt. Nahrungsstoffe können so von der Mutter zum Embryo geleitet und Abfallstoffe können abgeleitet werden.

Zu Beginn der vierten Woche besitzt der Embryo bereits die Anlage eines Nervenzentrums mit der Vorstufe des Gehirnes. Gleichzeitig hat sich schon das Herz entwickelt, das bereits zu pumpen beginnt. So entwickelt sich das Kreislaufsystem des Embryos und übernimmt die Aufgabe, den wachsenden Organismus des Kindes seinerseits zu versorgen, was bei der steigenden Untergliederung dann nicht mehr von außen erfolgen kann. In der fünften Woche beginnt die Entwicklung der Arme und Beine, und nach etwa acht Wochen sind bereits die Finger und Zehen deutlich zu erkennen. Schon nach der siebten Woche ist der Kopf des Kindes deutlich entwickelt, Augen, Ohren, Nase und Mund sind zu erkennen, obwohl noch keine eigentliche Menschenähnlichkeit besteht. Die Vorstellung früherer Jahrhunderte, daß auf diese Weise ein von Anfang an präformierter Homunkulus heranwächst, ist natürlich völlig falsch. Das Gehirn ist bereits in seiner Entwicklung weit vorangeschritten, die wichtigste Muskulatur ist auch schon deutlich entwickelt, und die bis dahin noch sehr elastischen Knorpel verfestigen sich nun allmählich immer mehr zu einem festen Skelett. Inzwischen hat sich die Blastula sehr stark ausgedehnt. Der Embryo verändert ständig seine Gestalt, die Zellen differenzieren sich immer mehr, sie verschieben und vermehren sich und entwikkeln sich zunächst zu groben Formen, die dann immer mehr durchgestaltet werden. Schon nach drei Wochen entstand an dem noch primitiven Gehirn eine Vorwölbung, die sich immer mehr vergrößerte und eine innere Ausbuchtung entwickelte, aus der in der Folgezeit der hintere Bereich des Auges entstehen wird. Danach stülpt sich der Bereich der äußeren Vorwölbung dieser inneren Ausbuchtung entgegen, wodurch ein Hohlgebilde innerhalb eines Hohlraumes entsteht, das spätere Auge.

Ab Beginn des dritten Monates der Entwicklung bezeichnet man den bisherigen Embryo dann als 'Fötus'. Während dann bereits alle wichtigen Organe entwikkelt und erkennbar sind, befindet sich die Entwicklung der Geschlechtsteile noch in einem sehr frühen Stadium. Das liegt offenbar daran, daß zuvor die diesen Prozeß induzierenden Hormone gebildet werden müssen, ohne deren Einwirkung der Fötus in jedem Fall weibliche Merkmale ausbilden würde. In dieser Zeit beginnt sich der Fötus zu bewegen und offensichtlich zu üben, seinen sich fortentwickelnden Körper zu beherrschen. Obwohl er noch sehr klein - kaum größer als 2o cm - ist, kann er in der schwerelosen Situation, in der er sich in der Fruchtblase befindet, bereits Bewegungen vollbringen, zu denen er nach seiner Geburt nicht mehr in der Lage ist. Während nach dem zweiten Monat der Kopf noch ohne erkennbaren Hals mit dem Körper verbunden ist und von den Armen lediglich die Unterarme und die Hände ausgeprägt sind, zeigt der Fötus nach dem dritten Monat bereits deutlich die Proportionen des späteren Menschen. So schreitet die Entwicklung kontinuierlich voran. Bald beginnt der Fötus schon am Daumen zu lutschen, eine offensichtlich instinktive Verhaltensweise, die in der ersten Zeit nach seiner Geburt für ihn überlebenswichtig ist. Im sechsten Monat sind die meisten Organe schon vollständig entwickelt, und Augen, Ohren, Nase und Mund sind so ausgeprägt, daß man schon von individuellen Zügen sprechen kann. In dieser Zeit hört der Fötus sicher schon den Herzschlag der Mutter, der für ihn eine wichtige Bedeutung besitzen muß, sozusagen der erste psychologische Wegbegleiter in eine noch sehr fremde Welt.

Nach dem neunten Monat ist das Kind so weit entwickelt, daß der zur Verfügung stehende Raum im Mutterleib voll ausgenutzt ist. Das Kind ist reif für die Geburt. Die Wehen beginnen mit rhythmischen Kontraktionen, die endlich zur Ausstoßung des Kindes führen. Erst nach der Geburt verfestigt sich das Skelett des Kindes, die Knochen der Hand entwickeln sich teilweise erst jetzt aus Knorpelstücken. Die Fortentwicklung des Gehirnes, dessen Zellen ja schon alle prinzipiell vorhanden sind, vollzieht sich jetzt als Größenwachstum der Zellen. Allerdings steigt dabei die Zahl der sogenannten 'Axone' und 'Dendriten' als lange fadenartige Gebilde, die das Zusammenwirken der Zellen ermöglichen sollen. Die früheste Entwicklung findet in der äußeren Rindengegend des Gehines statt, die dazu dient, die Körperbewegungen zu steuern. Dabei werden erst grobe Bewegungen koordiniert, der Säugling kann zunächst nur die Arme und Beine bewegen, bevor er mit den Fingern etwas greifen kann. Danach entwickeln sich die sensorischen Regionen des Gehirnes, die vor allem zur Ausprägung des Tastsinnes führen. Erst danach entwickeln sich die Seh- und Hörregionen fort, obwohl sie schon vor der Geburt prinzipiell funktionsfähig waren.

Aber bis der Mensch erwachsen ist, ist es bekanntlich noch ein langer Weg. Kein Lebewesen benötigt eine derartig lange Reifezeit, und das hat sicher einen bestimmten Grund, da in der Natur nichts zufällig ist. Offensichtlich steht die Tatsache der langen Reifezeit in Verbindung mit der Intelligenz, denn fast alle menschlichen Verhaltensweisen müssen erlernt werden, sie sind also nicht angeboren. Wie wir wissen, liegt darin aber ein evolutionärer Vorteil.

Wir haben nun gesehen, wie aus toter Materie im Laufe einer für unsere Maßstäbe unendlich langen Zeit schließlich Leben wurde, wie sich aus einfachsten Anfängen im Bereich des Mikrokosmos allmählich immer kompliziertere Lebewesen entwickelten, und wie dadurch entsprechend den sich auch durch Wechselwirkungen ändernden äußeren Bedingungen dieses Planeten durch einen permanenten Anpassungsprozeß eine Entwicklungskette fortsetzte, an deren Ende der Mensch stand, der sich selbst den allerdings wohl etwas anmaßenden Namen 'Homo sapiens' gab. Denn es erscheint alles andere als weise, wie er mit seinem Planeten umgeht, der möglicherweise die einzige Lebensinsel in einem unendlichen Meer des Todes ist. Der Mensch ist ein Kind dieses blauen Planeten, ohne dessen Bedingungen er nicht denkbar wäre. Sowohl mit seinen physischen als auch mit seinen psychischen Gegebenheiten ist er ausschließlich in diese Welt geeicht. Schon eine verhältnismäßig geringe Abweichung der auf der Erde gegebenen Schwerkraft, der chemischen Zusammensetzung der Atmosphäre, der Temperatur oder sonstigen Witterungsverhältnisse, der ökologischen Bedingungen oder des der Erdrotation entsprechenden Tag-Nacht-Rhythmusses würde seine Überlebensmöglichkeit gefährden, wenn nicht unmöglich machen. Schon deshalb dürften Spekulationen, daß bei der Entstehung des Menschen genetische Einflüsse außerirdischer Lebewesen eine Rolle gespielt haben könnten, als abwegig angesehen werden können. Denken wir nur zum Beispiel an die stets linksdrehende Struktur der Doppelhelix, die für alles irdische Leben absolut verbindlich ist.

Die Relativitätstheorie

 

Als Albert Einstein im Jahre 1931 gemeinsam mit Charlie Chaplin der Uraufführung von dessen Film 'Lichter der Großstadt' beiwohnte, wurde er anschließend von einer begeisterten Menschenmenge ebenso wie dieser bejubelt. Chaplin erklärte ihm das so: "Mir jubeln die Leute zu, weil sie mich verstehen, und Ihnen, weil sie Sie nicht verstehen." Dabei ist Einsteins Relativitätstheorie gar nicht so schwer zu verstehen, wenn man einmal von dem mathematischen Formalismus absieht, in den sie so geheimnisvoll eingehüllt ist. Die Mathematik ist jedoch im Grunde nur das Werkzeug der theoretischen Physik, nicht aber, wie gemeinhin angenommen wird, der Kopf. Denn bevor jemand anfängt zu rechnen, muß er erst wissen, was er errechnen will, und dazu bedarf es einer fundamentaleren Fähigkeit, nämlich der Intuition. Da man aber, wie Einstein selbst oft genug gesagt hat, diese intuitiven Dinge auch mit ganz gewöhnlichen und allgemeinverständlichen Worten ausdrücken kann, wollen wir dabei auch bleiben. Die größte Schwierigkeit der Abstraktion liegt also nicht in der Beherrschung eines durchaus erlernbaren Instrumentariums, sondern in der Fähigkeit, sich von liebgewordenen Denkgewohnheiten zu befreien. Besonders schwierig ist das sicher in einem Fall, in dem es sich nicht nur um eine persönliche, sondern um eine allgemeine Denkgewohnheit handelt, mit der die Menschen seit Ewigkeiten ganz selbstverständlich umgegangen sind, weil es auch nichts innerhalb ihrer Erfahrungswelt gab, das sie hätte veranlassen können, sich von ihr zu befreien, so daß man ganz selbstverständlich annahm, daß sie einer tieferen Wahrheit entsprach. So wissen wir heute zwar zum Beispiel alle, daß die Tageszeit in Amerika zu der unserigen verschoben ist, aber selbstverständlich gehen wir davon aus, daß auch dort eine Stunde eben eine Stunde ist. Ebenso sicher würden wir das für jeden anderen Ort im Universum annehmen. Überall, so meinen wir, müßte eigentlich die Zeit gleichschnell vergehen. Das jedoch ist, wie Einstein nachgewiesen hat, eben nicht der Fall. Was hindert uns aber, das zu einzusehen? Im Grunde tatsächlich nichts anderes, als eine uralte Denkgewohnheit. Genauer gesagt stimmt das allerdings alles nur relativ, doch das bedarf einer näheren Erläuterung.

Um zu verstehen, wie Einstein zu seinen zunächst etwas merkwürdig anmutenden Überlegungen kam, müssen wir uns in seine Zeit zurückversetzen. Wir holen sogar am besten noch weiter aus und gehen zurück bis Aristoteles. Der hatte sich die Erde als von kristallinen Sphären umgeben vorgestellt, die die verschiedenen Himmelskörper tragen. Bei dieser Vorstellung der Kristallsphären blieben auch Ptolemäus und in gewisser WEise sogar noch Kopernikus, letzterer stellte dann nur die Sonne in ihren Mittelpunkt. Auch Kepler und Galilei änderten an den Kristallsphären noch nichts. Erst Descartes ersetzte die Vorstellung der Kristallkugeln durch ein von ihm als 'Äther' bezeichnetes Medium, das er sich flüssig vorstellte, und das sich in großen Wirbeln um die Erde bewegte, wobei sich die Erde in einer Ruhezone befand, um so erklärbar zu machen, daß sie bei ihrer Bewegung keinen erkennbaren Ätherwinden ausgesetzt war. Dieser Äther war seiner Meinung nach auch das Übertragungsmedium der Gravitation. Newton ergänzte später den physikalischen Raumbegriff durch die Einführung von sog. 'Inertialsystemen', wonach der Äther in einem solchen System, dem absoluten Raum, ruht. Aus dieser historischen Entwicklung ist bereits zu entnehmen, wie große Schwierigkeiten die Wissenschaftler und Philosophen mit dem Medium des 'Äthers' haben. Diese gehen ja sogar noch bis in unsere Zeit und unseren Alltag hinein, denn wir sprechen zum Beispiel immer noch davon, daß sich etwa Radiowellen durch den Äther bewegen, ohne daß wir uns darüber Rechenschaft geben, was der denn nun eigentlich ist. Sicher doch etwas anderes als das früher übliche Narkosemittel, das Lachgas, das ebenso bezeichnet wurde. Wir wissen also, daß es sich bei dem Äther zum Beispiel um das Übertragungsmedium elektromagnetischer Wellen handelt, die nichts anderes sind als Schwingungen des Äthers. Das ist übrigens noch gar keine so alte Erkenntnis, denn erst im vorigen Jahrhundert wurde durch Faraday und Maxwell das elektromagnetische Feld entdeckt. Danach wurde der Begriff der Kraft durch den des Kraftfeldes ersetzt, womit zum ersten Mal die alleinige Gültigkeit der Newtonschen Physik infrage gestellt wurde. Was aber ist das Medium des Feldes, und was schwingt da wirklich, wenn es offenbar weder Luft noch sonst irgend etwas ist? Das Problem ist in der Tat nicht unerheblich.


 

 

Das Michelson-Morley-Experiment

Ende des vorigen Jahrhunderts wollten die Physiker Michelson und Morley das genauer wissen und versuchten experimentell festzustellen, wie sich die Erde durch den Äther bewegte. Dieses Experiment wurde als das 'Michelson-Morley-Experiment' bekannt. Die beiden Physiker meinten, daß sich infolge der Erdbewegung das Licht auf der Erde mit unterschiedlichen Geschwindigkeiten fortbewegen müßte. Obwohl für dieses berühmte Experiment sogar zur Vermeidung ergebnisverfälschender Erschütterungen der gesamte Verkehr von Cleveland stillstand, woraus zu ersehen ist, welche Bedeutung man allgemein diesem Problem beimaß, verlief es enttäuschend: man konnte keinen Unterschied feststellen. Ruht also die Erde im Äther oder in einem Ätherwirbel, wie Descartes gemeint hatte? Fast alle führenden Physiker beschäftigten sich um die Jahrhundertwende mit diesem Problem, und zahlreiche Theorien und Hypothesen wurden entwickelt und wieder verworfen. Dieses war dann die Stunde Albert Einsteins. Im Jahre 19o5 veröffentlichte er wie schon erwähnt insgesamt drei Arbeiten in der Zeitschrift 'Annalen der Physik', unter anderem eine mit dem Titel 'Zur Elektrodynamik bewegter Körper', in der er die damals frappierende Deutung der negativen Versuchsergebnisse gab, daß es möglicherweise gar keinen Äther gibt!

Die mißlungenen Versuche, schrieb Einstein, führten ihn zu der Vermutung, daß es nicht nur in der Mechanik, sondern auch in der Elektrodynamik, deren Medium ja der Äther ist, keine absolute Ruhe gibt. Wenn es umgekehrt keine absolute Bewegung in ihm gibt, wird der Ätherbegriff aber sinnlos, und nur die relative Bewegung in Bezug auf einen anderen Körper bleibt in der Physik von Bedeutung. Das können wir uns eigentlich ganz gut vorstellen: wie schnell sich die Erde etwa relativ zur Sonne bewegt, läßt sich messen, nicht aber ihre absolute Bewegung im Raum. Es hat also gar keinen Sinn, nach einer absoluten Bewegung im Raum zu suchen. Wir kommen nun wieder zu dem bereits von Newton benutzten Begriff des Inertialsystems. Ein Inertialsystem ist ein Bezugssystem, in dem die uns bekannten physikalischen Gesetze gelten. Wenn es aber keinen absoluten Raum gibt, so ist auch er praktisch nur ein Bezugssystem, also etwas, in dem die Körper lediglich zueinander angeordnet sind, wie übrigens schon fast zweihundert Jahre zuvor Leibniz gesagt hatte. Ebenso sind diese Körper Bezugssysteme: alles, worauf man etwas bezieht, kann als Bezugssystem (oder Definitionssystem) dienen, nur nimmt man dazu sinnvollerweise nicht etwa ein Staubkorn, sondern einen genügend großen Rahmen, etwa einen Planeten. Alle solche Bezugssysteme eignen sich aber grundsätzlich zum Aufbau eines physikalischen Beobachtungssystemes, denn wäre eines von ihnen in dieser Hinsicht bevorzugt, so könnte man tatsächlich absolute Bewegungen in Bezug auf dieses System messen. Es ist aber eben alles relativ, und diese Alltagsweisheit in den Bereich der Physik übertragen heißt das 'Relativitätsprinzip'.

Wenn alle Inertialsysteme aber gleich sind, so muß sich ein Lichtsignal in jedem dieser Systeme in allen Richtungen mit der gleichen Geschwindigkeit ausbreiten, eben der Lichtgeschwindigkeit. So können wir uns das bis dahin unerklärbare Phänomen der Konstanz der Lichtgeschwindigkeit erklären: wie schnell auch immer ein Himmelskörper sich 'vorwärtsbewegt', das von ihm vorausgeschickte Licht ist nicht eher an seinem Ziel, als wenn der Himmelskörper etwa stillstände, die Lichtgeschwindigkeit hat immer den gleichen Wert, nämlich ca. 3oo ooo Kilometer pro Sekunde.

Dieses mag alles so gesehen ganz einleuchtend klingen, wir müssen uns aber vor Augen führen, was das tatsächlich für den Alltag bedeutet. Wir können uns etwa vorstellen, daß ein Mensch auf einem Bahnsteig steht, um dort auf einen Zug zu warten. In diesem Moment bricht ein Gewitter aus, in dessen Verlauf zwei Blitze, wie wir einfach annehmen wollen, im gleichen Augenblick niederschlagen, der eine in der einen Richtung des Gleises, und der andere in der anderen, beide aber in jeweils genau einem Kilometer Abstand von ihm. Da das Licht von beiden Orten zu ihm den gleichen Weg hat, wird es von dem Beobachter auch im gleichen Moment wahrgenommen, wenn er zum Beispiel über ein Spiegelsystem verfügt, das ihm gleichzeitige Beobachtung erlaubt. Was heißt nun aber wirklich 'gleichzeitig'? Wir wollen dazu einen anderen Fall annehmen: wir stellen uns vor, daß im gleichen Moment ein Zug an dem Beobachter vorbeifährt, auf dessen Dach ein anderer Beobachter mit einem gleichen Spiegelsystem sitzt. Und genau in dem Moment, in dem sich beide Beobachter gegenüberbefinden, schlagen die beiden Blitze ein. Die entscheidende Frage ist nun, ob auch diesem Beobachter die beiden Blitze in seinem Spiegelsystem als gleichzeitig erscheinen. Wir wollen die Antwort vorwegnehmen, sie heißt: nein! Weil sich nämlich der Zug mit einer wenn auch wesentlich geringeren als der Lichtgeschwindigkeit vorwärtsbewegt, und zwar vom hinteren Blitz auf den vor ihm einschlagenden zu, hat der hintere Blitz einen etwas längeren Weg als der vordere, um zu dem sich inzwischen vorwärtsbewegten Betrachter auf dem Zug zu kommen. So wird also dieser Beobachter immer behaupten, der vordere Blitz habe zuerst eingeschlagen, während der Beobachter auf dem Bahnsteig darauf besteht, beide Blitze hätten im gleichen Moment eingeschlagen. Vielleicht mag man sagen, dieses sei schließlich alles nicht weniger als logisch, wir müssen aber das eigentliche Problem dabei sehen. Wir sagten ja doch, daß sich beide Beobachter im Moment der Blitzeinschläge unmittelbar gegenüber befanden, in einem gedachten gemeinsamen Punkt gewissermaßen. Wie also können sie dennoch bezüglich der Blitzeinschläge verschiedener Meinung sein?

Wir kommen um dieses Problem auch nicht herum, wenn wir meinen, im eigentlichen Moment der Blitzeinschläge habe sich der Beobachter auf dem Zug noch ein wenig vor dem Beobachter auf dem Bahnsteig befunden, denn das würde ja nur dazu führen, daß sich beide Beobachter im Endergebnis einig wären. Sie sind es aber tatsächlich nicht. Und dennoch haben beide aus ihrer Sicht recht! Die Erklärung für dieses Phänomen liefert die Relativitätstheorie: beide Beobachter befinden sich im gleichen Moment zwar am gleichen Ort, aber in einem unterschiedlichen Inertialsystem, das durch den unterschiedlichen Bewegungszustand gekennzeichnet ist. Von einer gleichzeitigen Beobachtung unter diesen Umständen zu sprechen, ergibt keinen Sinn, denn wie gesagt vergeht die Zeit in verschiedenen Inertialsystemen nicht gleichmäßig. Wenn jemand sagt: "Jetzt", so müssen wir strenggenommen auch wissen, in welchem Inertialsystem er sich gerade befindet, nur spielt dieser Umstand natürlich für unsere üblichen Alltagserfahrungen keine Rolle. In derartig konstruierten Ausnahmesituationen aber können wir mit unseren Alltagserfahrungen nicht viel anfangen. Um also zu erreichen, daß sich beide Beobachter bezüglich der Blitzeinschläge wieder einigen können, müssen wir den Begriff der Gleichzeitigkeit relativieren und beiden zugestehen, daß sie von einem anderen Zeitbegriff ausgehen dürfen.


 

 

Eine Geschwindigkeit, der man nichts hinzuaddieren kann?

Einstein sah sich also mit dem Problem konfrontiert, daß das Licht immer die gleiche Geschwindigkeit hat, und daß es nicht möglich ist, dieser Geschwindigkeit einen Wert hinzuzuaddieren. Wenn also eine Rakete selbst mit nahezu Lichtgeschwindigkeit fliegt, wird das von ihr vorausgeschickte Licht nicht schneller an ihrem Zielort eintreffen als ein gleichzeitig neben der Rakete von einem ruhenden Leuchtturm ausgestrahltes Lichtsignal. Dieses unserer Alltagserfahrung widersprechende Phänomen beruht demnach auf der Tatsache, daß sich die Rakete durch ihren Bewegungszustand in ein anderes Inertialsystem versetzt - und theoretisch tut man das mit jeder Bewegung, nur daß das bei den relativ niedrigen Geschwindigkeiten, mit denen wir es in unserem Erfahrungsalltag zu tun haben, nicht ins Gewicht fällt. Bei allen Geschwindigkeiten nahe der Lichtgeschwindigkeit aber sehr wohl. Wir müssen uns dazu den Begriff der Geschwindigkeit einmal näher vor Augen führen. Wir sagen, das Licht habe eine Geschwindigkeit von ca. 3oo ooo km/s, oder ein Auto fahre hundert Stundenkilometer. Das heißt, wir messen die Geschwindigkeit, indem wir uns fragen, in wie kurzer Zeit ein wie langer Weg zurückgelegt wurde. Je kürzer die Zeit und je größer die zurückgelegte Strecke ist, desto größer ist die Geschwindigkeit. Da aber bezüglich der Strecke vom Leuchtturm oder der Rakete bis zum Ankunftsort des Lichtstrahles nichts zu deuten ist und da wir offenbar, wie schon das Michelson-Morley-Experiment zeigte, auch von der Tatsache einer absolut konstanten Lichtgeschwindigkeit auszugehen haben, können wir nur noch an der Zeit herumbasteln und also annehmen, daß sie vielleicht relativ und variabel sein könnte. So etwa dachte jedenfalls Einstein.

Wir haben nun bereits zwei relative Begriffe, den Raum und die Zeit, und wenn wir es uns richtig überlegen, messen wir im gewohnten Alltag die Zeit eigentlich immer auch als Funktion des Raumes. Denn alle unsere gewöhnlichen Uhren basieren auf dem Prinzip von Pendelbewegungen oder mechanischen Schwingungen, bei denen jedesmal innerhalb bestimmter Zeiteinheiten bestimmte Raumeinheiten durchmessen werden. Wenn wir aber die Konstanz der Lichtgeschwindigkeit auf Kosten der Zeitkonstanz sicherstellen wollen, müssen wir uns eine andere Uhr konstruieren, in der beide als voneinander abhängige Funktionen gemessen werden können. Wir stellen uns dazu eine Uhr vor, in der die Zeiteinheiten dadurch gemessen werden, daß statt eines schwingenden Pendels ein Lichtsignal zwischen zwei genau einen Meter entfernten Spiegeln von oben nach unten und umgekehrt hin und her eilt. Eine solche Uhr müßte äußerst präzise funktionieren. Nun stellen wir uns vor, daß eine solche Uhr in einem Raumschiff aufgestellt wurde, das sich auf uns zu bewegt. Gleichzeitig haben wir eine solche Uhr direkt neben uns aufgebaut. Wenn wir jetzt unsere eigene Uhr beobachten, werden wir eine ganz bestimmte Vorstellung davon bekommen, was für uns eine Stunde ist. Ganz ähnlich wird das auch einem Insassen des Raumschiffes mit seiner Uhr gehen. Wenn wir von unserem ruhenden Standpunkt aus die Uhr in dem auf uns zukommenden Raumschiff beobachten, werden wir auch darin das Lichtsignal mit gleicher Geschwindigkeit von oben nach unten und zurückrasen sehen können und dabei keinen Unterschied messen können. Dieses gilt aber wie gesagt nur für den Fall, daß sich das Raumschiff mit einer Geschwindigkeit auf uns zu bewegt, die sich nicht wesentlich von den Geschwindigkeiten unterscheidet, die eben unserer allgemeinen Alltagserfahrung entsprechen. Wenn sich aber das Raumschiff mit nahezu Lichtgeschwindigkeit auf uns zu bewegt, sieht die Sache plötzlich ganz anders aus. Dann nämlich sehen wir, daß sich das Lichtpendel auf einmal sehr viel langsamer bewegt, was nichts anders heißt, als daß die Zeit auf dem Raumschiff aus unserer Sicht sehr viel langsamer vergeht, als der Beobachter auf dem Raumschiff meint, für den die Zeit immer noch gleichschnell vergeht. Wie ist das möglich?

Um uns das klarzumachen, müssen wir uns einmal neben die Uhr auf dem Raumschiff stellen, um sie von der Seite zu betrachten. Dabei gibt es wieder zwei Beobachtungssituationen wie auf dem Bahnsteig, nämlich einmal die im Raumschiff und ein andermal die außerhalb des Raumschiffes, während dieses gerade vorbeifliegt. Der Beobachter im Raumschiff sieht dabei das Lichtsignal immer von oben nach unten eilen, nicht aber der Beobachter außerhalb des Raumschiffes, für den das Signal außerdem auf seinem Wege immer auch ein Stück nach vorne eilt, entsprechend dem Fluge des Raumschiffes. Das Licht hat also aus seiner Sicht einen weiteren Weg zurückzulegen, den wir nach Pythagoras sogar berechnen können, nämlich als Wurzel aus der Summe der Quadrate der beiden Wegstrecken: einmal nach unten oder oben, und zum anderen nach vorne. Je weiter sich das Raumschiff der Lichtgeschwindigkeit nähert, desto mehr gleichen sich dabei die beiden Katheten einem gemeinsamen Wert an, während es bei normalen Geschwindigkeiten angesichts der enormen Größe der Lichtgeschwindigkeit, mit der sich das Lichtpendel bewegt, praktisch nur eine Kathete gibt, mit der dann die Hypothenuse zusammenfällt, sodaß der Außenbeobachter das gleiche beobachtet wie der Innenbeobachter. Wenn wir uns aber damit abfinden wollen, davon auszugehen, daß die Lichtgeschwindigkeit konstant ist, können wir nicht annehmen, daß das Licht einen offensichtlich größeren Weg genauso schnell bewältigt wie den kürzeren, der nur von unten nach oben führt. Mit anderen Worten: der vor dem Raumschiff stehende Betrachter sieht ein sich viel langsamer bewegendes Lichtsignal als der Beobachter im Raumschiff, weil er lediglich die Projektion des viel weiteren  Weges sieht, das es tatsächlich zurücklegt. Damit sind wir zu dem angestrebten Ergebnis gekommen: wir können jetzt ohne Schwierigkeiten von einer Konstanz der Lichtgeschwindigkeit ausgehen, wenn wir dafür den Glauben opfern, daß die Zeit eine stets konstante Größe ist. Denn wer hat uns das im Grunde jemals gesagt? Vielleicht mag man auch hier sagen, so gesehen sei das alles an sich ganz logisch, wir müssen uns aber vor Augen führen, was das tatsächlich für die unterschiedliche Situation des Raumschiffinsassen und des außenstehenden Betrachters heißt. Als Konsequenz daraus ergibt sich nämlich das bekannte 'Zwillingsparadoxon': Wenn wir uns vorstellen, daß beide Beobachter Zwillinge sind, und der eine sich auf eine längere Reise mit einem derartig lichtschnellen Raumschiff begibt, so wird er als vielleicht noch relativ junger Mann eines Tages bei seiner Rückkehr von seinem inzwischen vergreisten Zwillingsbruder wieder auf der Erde begrüßt werden!


 


Die Verbindung von Raum und Zeit

Ganz gleich aber, ob wir nun ein Lichtsignal oder ein gewöhnliches Pendel für die Zeitmessung verwenden - immer muß dabei ein bestimmter oder relativer Raum in einer bestimmten oder relativen Zeit durchmessen werden. Das heißt, Raum und Zeit stehen miteinander auf eine viel innigere Weise in Verbindung, als wir uns das bisher klargemacht haben. Wir sehen, daß beide aufeinander bezogen und voneinander abhängig sind, und wir könnten uns theoretisch vorstellen, daß wir mitsamt der Pendeluhr plötzlich schrumpften oder uns ins Unermeßliche ausdehnten, ohne daß wir das auch nur merken würden, solange sich das Pendel dabei weiterhin mit der gleichen Geschwindigkeit in der Uhr bewegt, das heißt, wenn es den geschrumpften Weg entsprechend langsamer bewältigt oder den ausgedehnten Weg entsprechend schneller. Ja, wir können sogar sagen, daß wir genaugenommen gar nicht wissen, wie groß oder wie klein wir und unsere ganze Umgebung tatsächlich sind und wie schnell oder langsam darin die Zeit vergeht. Alles, was wir dazu als Nachweisinstrumente herbeiziehen können, sind Uhren oder Maßstäbe, mit denen wir aber nichts Absolutes messen, sondern nur etwas Relatives. Wir sagen zum Beispiel, eine Strecke sei einen Meter lang, wenn wir einem Meterstab daran legen und eine Übereinstimmung mit diesem  feststellen können. Was wäre aber, wenn dieser Maßstab sich plötzlich veränderte, wie es aus unserer Sicht tatsächlich ebenfalls auf einem Raumschiff der Fall wäre, das sich relativ zu uns mit annähernder Lichtgeschwindigkeit bewegt? Dort vergeht dann nämlich nicht nur die Zeit langsamer, sondern das Raumschiff wird auch immer kürzer, während es aber gleichzeitig an Masse zunimmt!

Den logischen Einwand, daß gerade diese Streckenverkürzung den zeitverkürzenden Effekt unseres Lichtpendels unwirksam mache, da auf diese Weise keine Hypothenuse entstehen könne, die länger ist als die vertikale Kathete, können wir durch folgendes Bild entkräften: wir stellen uns das Lichtpendel in dem Raumschiff auf einem Fernsehbildschirm dargestellt vor. Wenn sich das Raumschiff darauf nun der Lichtgeschwindigkeit nähert, ergibt sich auf dem Bildschirm der zeitverkürzende Effekt. Gleichzeitig stellen wir uns eine Wand vor, die die Grenze der Lichtgeschwindigkeit darstellt, über die keine Geschwindigkeit hinausgehen kann. Je mehr sich die Geschwindigkeit auf dem Bildschirm dieser Grenze nähert, desto mehr wird das ganze Bild gegen diese Wand gedrückt, sodaß es keine andere Möglichkeit hat, als sich in eine andere Projektionsebene fortzubiegen. Das heißt, auf dem Bildschirm selbst bleibt dabei alles beim Alten, und der Beobachter in dem Raumschiff stellt in seinem System keine Veränderung fest, wohl aber der Beobachter vor dem Bildschirm. So kann man sich also alle zeit- und streckenverkürzenden Relativitätseffekte als bloße Projektionsphänomene vorstellen, die sich aus der Perspektive eines anderen Inertialsystemes ergeben, und auch das Phänomen der Konstanz der Lichtgeschwindigkeit kann so leicht vorstellbar gemacht werden, da jede hinzuaddierte Geschwindigkeit dazu führt, daß sich das Projektionsbild lediglich aus der Beobachterebene herausbiegt. So stellen sich letztlich alle Relativitätsphänomene als bloße Projektionserscheinungen heraus, die sich daraus ergeben, daß wir kein Sinnesorgan besitzen, um das Raum-Zeit-Kontinuum in einem einzigen Moment wahrnehmen zu können. Unser Gehirn muß das alles in zeitlicher Abfolge organisieren und nimmt immer nur die drei räumlichen Dimensionen gleichzeitig wahr. Nur deshalb erscheinen uns Objekte in verschiedenen Bewegungszuständen anders, weil wir nur die verzerrten dreidimensionalen 'Schatten' vierdimensionaler Vorgänge sehen. Man muß aber davon ausgehen, daß die Zeitkoordinate eigentlich eine vierte Raumkoordinate ist, und ihre scheinbare Unterschiedlichkeit ergibt sich für uns nur aus der Arbeitsweise unseres Gehirns.

Wir haben also kein absolutes Maß, weder für den Raum, noch für die Zeit, aber das hat auf unsere übliche Erfahrungswelt keinen Einfluß. Der Rekordlauf eines Läufers wird etwa durch Drücken einer Stopuhr festgestellt, und in unserem Alltag können wir uns darauf verlassen, daß wir mit dieser Messung keinen Ärger bekommen, weil uns unsere Erfahrung sagt, daß alle Messungen, die so vorgenommen werden, üblicherweise übereinstimmen. Ob dabei aber irgend etwas uns zum Narren hält oder nicht, das wissen wir nicht und brauchen wir auch nicht zu wissen, weil eine solche Frage uns als rein theoretisch erscheinen darf. Wir können also nicht wissen, wie diese Werte wirklich aussehen, und wir könnten demnach keine Dehnung oder Schrumpfung unserer Erfahrungswelt feststellen, solange darin alle Verhältnismäßigkeiten weiterhin stimmen. Das heißt, nur diese Verhältnisse sind wichtig, und nicht irgend etwas Absolutes. Unter diesen Voraussetzungen könnten wir also auch keine äußere Veränderung dieses 'Raum-Zeit-Kontinuums' feststellen, und theoretisch könnte dieses sogar gerade durch eine Wäschewalze gedreht oder durch irgendwen oder irgend etwas in noch so verrückte Formen geknetet werden, ohne daß wir das feststellen könnten. Dieses sind nun aber durchaus keine albernen Überlegungen, sondern genauso verhält es sich tatsächlich: der Raum, oder richtiger gesagt das Raum-Zeit-Kontinuum, hat keine absolute Form, sondern ist gekrümmt, wie Einstein gesagt hat, und seine Krümmung kann dabei ganz unterschiedliche Formen annehmen, je nachdem, wie stark es dabei von einem Gravitationsfeld beeinflußt wird. Auch hier müssen wir unsere bisherigen Vorstellungen korrigieren, denn tatsächlich ist die Gravitation nichts anderes als eine Krümmung des Raum-Zeit-Kontinuums. Wir sollten aber richtiger sagen: nicht die Gravitation krümmt die Raumzeit, sondern der Einfluß einer großen Massekonzentration, etwa diejenige eines großen Himmelskörpers, tut dieses, und die daraus folgende Wirkung bezeichnen wir als Gravitation. Das war Einsteins revolutionäre Umdeutung der Newtonschen Physik, die damit zwar nicht überholt war, aber doch nur noch als ein Sonderfall der weit darüber hinausgehenden Einsteinschen Deutung erschien.


 

 

Die Krümmung des Raum-Zeit-Kontinuums

Um uns die Krümmung des Raum-Zeit-Kontinuums plastischer vorstellen zu können, stellen wir uns eine große runde Scheibe vor, auf der um ihren Mittelpunkt herum viele konzentrische Kreise aufgetragen worden sind. Wenn nun die Scheibe zu rotieren beginnt, stellen wir uns wieder zwei Beobachter dieses Vorganges vor, einen außerhalb der Scheibe und einen anderen, der auf ihr sitzen bleibt. Wenn wir in unserem Gedankenexperiment einmal davon absehen, daß ihm dabei mit zunehmender Geschwindigkeit der Scheibendrehung sehr schwindlig werden dürfte und er irgendwann zudem einfach hinuntergeschleudert würde, würde er keine besondere Veränderung der Scheibe feststellen. Ganz anders ginge es aber dem Außenbeobachter. Da sich aus seiner Sicht nämlich wie gesagt bei annähernder Lichtgeschwindigkeit alle Strecken des anderen Inertialsystemes verkürzen, würde sich zunächst ein Kreis auf der Scheibe um so mehr verkürzen, je weiter er am Außenrand liegt, da sich dort die Rotationsgeschwindigkeit zuerst der Lichtgeschwindigkeit nähert. Das heißt, je schneller die Scheibe rotiert, desto mehr verändert sich für den Außenbeobachter deren Form, die sich zunächst immer mehr der Gestalt einer Halbkugel nähert, um sich danach der Form einer immer länger werdenden Zigarre anzugleichen, die schließlich immer schmaler wird, bis sie sich am Ende völlig aus unserer Bildwelt herausbegibt. Damit hätten wir für den Außenbeobachter die relative Raum-Zeit-Krümmung sichtbar gemacht.

Bis zu Einstein hatten die Physiker einen an sich merkwürdigen Umstand einfach als gegeben hingenommen, ohne für seine wahre Natur eine tiefere Erklärung zu haben, nämlich die Beziehung zwischen Gravitations- und Trägheitsverhalten physikalischer Körper. Das physikalische Trägheitsgesetz besagt bekanntlich, daß ein Körper einer Bewegungsveränderung einen umso größeren Widerstand entgegensetzt, je mehr Masse er besitzt, und dieser Umstand sorgt für einen merkwürdigen Ausgleich unter dem Einfluß eines Gravitationsfeldes. Wenn wir nämlich von dem unterschiedlichen Luftwiderstand absehen, demzufolge unterschiedlich geformte Körper unterschiedlich schnell im freien Fall zu Boden fallen, fallen sie eigentlich alle gleich schnell. In einem Vakuum fällt demnach eine Feder ebenso schnell wie eine Eisenkugel, und das, obwohl die Eisenkugel doch viel schwerer ist. Eigentlich müßte also die Schwerkraft bewirken, daß sie viel schneller zu Boden fällt, denn da die Kugelmasse größer ist, wirkt tatsächlich auf sie eine größere Schwerkraft ein. Doch da wir andererseits wissen, daß schwerere Körper wegen des Trägheitsgesetzes einer Bewegungsveränderung einen größeren Widerstand entgegensetzen, ist eine derartig größere Kraft auch tatsächlich nötig, um die Kugel gleichschnell fallen zu lassen wie die Feder. Das Merkwürdige ist dabei der Umstand, daß sich beide Wirkungen genau aufheben: je schwerer der Körper, desto größer ist sein Widerstand, doch auch desto größer ist die auf ihn einwirkende Gravitationskraft, die ihn herunterzieht. Daß diese Kraftkongruenz ein absoluter Ausnahmefall ist, können wir bei allen anderen Krafteinwirkungen feststellen, denn es ist doch normalerweise sehr viel leichter, einen Wagen voller Federn zu beschleunigen, als einen mit Eisen beladenen Wagen. Diese geheimnisvolle Kongruenz brachte Einstein darauf, daß sich dahinter etwas weit Fundamentaleres verbergen mußte. Wie, wenn sich am Ende herausstellte, daß es weder eine Gravitationskraft noch ein Trägheitsverhalten der Körper gibt, sondern daß es in diesem Falle wirklich einmal so ist, wie es Aristoteles etwas allgemeiner annahm, daß nämlich in Bezug auf ihr Ruhe- oder Bewegungsverhalten alle Körper einen natürlichen Ort haben, und daß es lediglich einer äußeren Kraft bedarf, sie davon fortzubewegen, daß aber die Gravitationskraft eben keine solche Kraft ist, sondern nur eine Veränderung des Raum-Zeit-Kontinuums, wie wir bereits sagten? Demzufolge fallen die Körper also nicht auf die Erde, weil sie von dieser angezogen werden, sondern sie bleiben einfach an ihrem Ort, wobei sich das Raum-Zeit-Kontinuum, um es etwas vereinfacht zu sagen, plötzlich  unter dem Einfluß des Schwerefeldes zusammenzieht, also sozusagen gerade durch eine Wäschewalze gezogen wird.

Daß man auch diesen Vorgang relativ sehen kann, wollen wir uns an einem weiteren Beispiel verdeutlichen. Wir stellen uns einen Aufzug vor, der unter dem Einfluß der Schwerkraft in einem allerdings endlos langen Schacht zu Boden fällt. In unserem Gedankenexperiment gehen wir dabei davon aus, daß dieser Fallzustand so lange dauert, daß die sich im Aufzug befindlichen Menschen mittlerweile vergessen, daß sie ja eigentlich fallen, und diesen Zustand schließlich für völlig normal halten. Sie erleben dann in dem Aufzug das gleiche wie die Insassen eines Raumschiffes, nämlich daß alles um sie herum schwerelos ist. Sie können ihren Füllfederhalter ebenso frei herumfliegen lassen, weil der ja eigentlich auch wie sie im Aufzug herunterfällt, doch in Relation zu den Aufzugswänden eben nicht. Im Grunde wäre dieser Zustand der gleiche wie in einem frei im All schwebenden Raumschiff, woraus wir wieder sehen, daß sich unter dem Einfluß eines Schwerefeldes der relative innere Zustand aus der Sicht der Fahrstuhlinsassen nicht ändert, sondern daß sich diese Änderung nur aus der Sicht außenstehender Beobachter ergibt. Die nämlich wissen, daß dieser Fall kein gutes Ende nehmen wird, die Insassen selbst werden das aber erst beim Zusammenprall mit dem anderen Inertialsystem auf schmerzliche Weise feststellen und dann ein allerdings sehr absolutes Erlebnis haben. Wir stellen also fest, daß der außenstehende Betrachter den beschleunigten Fall des Aufzuges dem Einfluß des Schwerefeldes zuschreibt, während dessen Insassen überhaupt nicht mehr wissen, was überhaupt ein Schwerefeld ist. Dieses kann aber nur deshalb so sein, weil im Aufzug alle Gegenstände gleich schnell fallen, ganz gleich wie schwer sie sind. Wir sehen somit, daß die merkwürdige Äquivalenz schwerer und träger Masse etwas mit dem Relativitätsprinzip zu tun hat. Der freie Fall ist kein Bewegungszustand im absoluten, sondern nur im relativen Sinne, und der Fahrstuhl befindet sich nach wie vor an seinem natürlichen Ort, der allerdings gerade durch unsere Wäschewalze gezogen wird. Natürliche Orte in diesem Sinne sind immer durch den Zustand der Schwerelosigkeit gekennzeichnet, während der Einfluß der Schwerkraft immer den Ausnahmefall darstellt, der durch das Einwirken einer 'Kraft' gekennzeichnet ist, etwa entsprechend dem Einwirken einer gewöhnlichen physikalischen Kraft bei gleichmäßiger Beschleunigung.

Das wollen wir uns an einem weiteren Beispiel veranschaulichen. Dazu denken wir uns einen anderen Aufzug, der sich nicht im freien Fall innerhalb eines Schwerefeldes befindet, sondern weitab von jedem Himmelskörper im Weltraum, wobei er jedoch von irgendwoher an einem Zugseil mit stetiger Beschleunigung nach oben gezogen wird (also in die Richtung, die die Insassen für oben halten), und zwar genau mit einer Kraft, die unserer irdischen Gravitationskraft entspricht. Nun gibt es für die Beurteilung dieses Zustandes wieder zwei unterschiedliche Perspektiven, nämlich einmal diejenige eines Außenbeobachters in einem äußeren Inertialsystem, für den sich dieser Zustand wie hier von uns angenommen darstellt, und zum anderen diejenige der Fahrstuhlinsassen, für die sich nun plötzlich ganz irdische Verhältnisse eingestellt haben. Vorbei ist es mit dem Zustand der Schwerelosigkeit, denn nun fällt plötzlich alles wieder zu Boden, wie es sich doch 'eigentlich' gehört. Welcher Beobachter aber nun recht hat, ist wieder eine müßige Frage, da sie sich nicht absolut, sondern nur relativ beantworten läßt. Jeder befindet sich eben in einem anderen Inertialsystem.

Nun wollen wir uns einen Trick ausdenken, mit dessen Hilfe wir doch eine Entscheidung treffen können, wer denn hier nun recht hat. Wir stellen uns dazu vor, daß sich in der einen Wand der Aufzugskabine ein Loch befindet, durch das von einer äußeren Lichtquelle ein Lichtstrahl in den Aufzug fällt. Wenn nun der Außenbeobachter mit seiner Sicht der Dinge recht hat, müßte der Lichtstrahl, da sich der Aufzug ja im Zustand der Bewegung befindet, nicht an einer genau gegenüberliegenden Stelle der anderen Aufzugswand auftreffen, sondern eigentlich etwas tiefer, besonders dann, wenn sich der Aufzug inzwischen sehr schnell bewegt, mit einer Geschwindigkeit, die selbst gegenüber der Lichtgeschwindigkeit nicht mehr vernachlässigt werden kann. Dagegen müßte sich die Sache für die Aufzuginsassen so darstellen, daß der Lichtstrahl an der genau gegenüberliegenden Stelle der Kabinenwand auftrifft, wie das auch dann der Fall wäre, wenn die Kabine wirklich auf unserer Erde ruhte. Es ist aber tatsächlich so, um das Ergebnis vorwegzunehmen, daß der Lichtstrahl nicht genau gegenüber, sondern wirklich etwas weiter unten auftrifft. Er wird also abgelenkt. Heißt das nun, daß der Außenbeobachter recht hat? Die Antwort lautet: nein! Beide haben wirklich recht, und das ist nur so zu erklären, daß auch ein Lichtstrahl unter dem Einfluß eines Schwerefeldes abgelenkt wird, denn zwar besitzt er keine Masse, dafür aber um so mehr Energie. Wie wir aber bereits wissen, ist auch Energie nichts anderes als eine andere Erscheinungsform der Masse. Bei dem Lichtstrahl ist nur alle Masse in Energie umgewandelt, und deshalb kann auch er abgelenkt werden.

Licht wird also durch den Einfluß der Gravitation abgelenkt, sagte Einstein, und er folgerte, daß demnach auch das Licht durch Himmelskörper abgelenkt würde, wenn es sehr dicht an diesen vorbeikommt. Im Jahre 1919 wurde diese seine Vorhersage tatsächlich durch eine britische Untersuchungsexpedition, die sich dazu eigens nach Brasilien zur Beobachtung einer Sonnenfinsternis begeben hatte, auf spektakuläre Weise bestätigt. Noch eine andere schon viel früher gemachte Beobachtung bezüglich einer merkwürdigen Abweichung der Bahn des Planeten Merkur, die die Newtonsche Gravitationstheorie bis dahin nicht hatte erklären können, fand nun eine Deutung durch die Relativitätstheorie, die damit wohl neben der Quantenphysik als das wichtigste physikalische Ereignis dieses Jahrhunderts gelten kann.

Wir sind damit zum Abschluß eines Themas gekommen, das eigentlich viel zu kompliziert ist, um auf so engem Platz dargestellt werden zu können. Auch der Versuch einer möglichst bildhaften Darstellung hat zu bestimmten vereinfachenden Entstellungen geführt. Doch es soll uns nicht darum gehen, uns in einem Schnellkurs zu Multispezialisten heranzubilden, sondern es geht uns um einen ganzheitlichen Überblick über einen wichtigen Problemkreis. So können sich vielleicht unter Umständen gebietsübergreifende Ahnungen von Zusammenhängen oder eines tieferen Sinnes ergeben. Uns sind so zum Beispiel vor dem Hintergrund der Betrachtungen über die Funktionsweise des Gehirnes und der Art und Weise, wie es unser Wirklichkeitsbild zusammensetzt, ganz neue Aspekte der Relativitätstheorie aufgefallen: Könnte man das, was hier unter dem  Begriff  'Inertialsystem' gesehen wird, nicht auch als jenen Bereich betrachten, auf den unsere jeweilige Bewußtseinsmitte orientiert ist? So gesehen wäre also ein Inertialsystem nichts anderes als jener Bereich, der uns aus evolutionären Gründen als Erfahrungsbereich genügen sollte, während immer dann, wenn wir uns in Bereiche vorwagen, die uns eigentlich nichts anzugehen haben, Verzerrungen und Projektionsphänomene ergeben. Dieses ergänzt sich mit unseren früheren Betrachtungen zu dem gemeinsamen Sinn, daß es eine sehr viel innigere Verzahnung und wechselseitige Bedingtheit von Subjekt- und Objektwelt gibt, als wir innerhalb unseres materialistischen Weltbildes für möglich halten können.

Fortschritt: Eine Illusion?

 

Das Ziel und das Ideal aller Natur­wissenschaft ist im Grunde ein völlig durch­geführ­ter Ma­terialismus. Daß wir nun diesen hier als of­fenbar unmög­lich erkennen, be­stätigt eine andere Wahrheit, daß nämlich alle Wissenschaft im ei­gentlichen Sinne... nie ein letztes Ziel erreichen noch eine völ­lig ge­nügende Erklärung geben kann; weil sie das innerste Wesen der Welt nie trifft, nie über die Vor­stel­lung hinaus kann, viel­mehr im Grunde nichts weiter, als das Ver­hältnis einer Vorstellung zur ande­ren ken­nen lehrt... (Arthur Schopenhauer: Die Welt als Wille und Vorstellung, Bd.1, § 7)

Wie weit haben wir es doch gebracht! Schon in der Schule lernen wir, welche Entdeckungen unsere berühmten Wissenschaftler gemacht haben und wie uns das bis zum heutigen Stand vorwärtsgebracht hat. So haben wir uns vermeintlich auf einem linearen Weg in Richtung eines fortlaufenden Erkenntnisfortschrittes voranbewegt und dadurch die Natur immer besser erkannt. In Wirklichkeit verhält es sich aber eher so wie bei einem Reißverschluß, in dem die fortlaufende Verknüpfung zweier ineinandergreifender Zahnreihen erst einen Zustand herstellt, der ursprünglich nicht gegeben war, obwohl es beim Zurückblicken tatsächlich so aussieht, als sei man auf dessen apriorischer Gestalt lediglich fortgeschritten. Analog diesen beiden Zahnreihen können wir nun auf der einen Seite universale Prinzipien sehen und auf der anderen Seite dazugehörige Erkenntnisakte, ohne die aber das Erkannte noch nicht einmal den Zustand des Unerkannten gehabt hätte - etwa wie ein schon latent gegebener geschlossener Reißverschluß -, sondern ohne die es einfach nicht existiert hätte. Mit anderen Worten: die Wissenschaft ist weit kreativer, als sie gemäß ihrem Selbstverständnis selber einräumen möchte.

Um dieses besser zu verstehen, müssen wir uns zunächst die persönliche Situation des jungen Lernenden veranschaulichen, aus dem später ein Wissenschaftler werden soll. Dieser begegnet ja seinem Fachgebiet nicht als völlig unbeschriebenes Blatt und in aller Objektivität, sondern er ist ein kompliziertes menschliches Wesen, das durch alle möglichen Nebenumstände beeinflußt ist, bei denen es schon theoretisch größte Schwierigkeiten bereitet, sie von dem zu trennen, was er in späterer Rückschau als die „Sache selbst“ betrachtet, die er da erlernt hat. Eine solche kann es aber ebensowenig geben wie das Ding-an-sich. Wir müssen also näher untersuchen, wie die In-Bezug-Setzung zu den „Fakten“ des jeweiligen Sachgebietes erfolgt. Der Lernende ist von vornherein geprägt durch seine angeborene Dispostion und frühere Erfahrungen, die darüber bestimmen, wie er die Sache einschließlich aller Begleitumstände aufnimmt. So wird etwa sein Verhältnis zu seinem Lehrer wichtig sein, und da er unabhängig von der Sympathiefrage zunächst dessen Autorität akzeptieren muß, wird er auch den Lehrstoff als etwas betrachten, dem er sich als etwas Gegebenes zu nähern hat. ("Wir erinnern uns alle, wie ärgerlich unser Physiklehrer werden konnte, wenn wir in seinen Versuchen nicht das erkannten, was wir gemäß der herrschenden Theorie dadurch erkennen sollten. Wie konnten wir das aber, da wir diese Theorie bis dahin ja noch gar nicht kannten?" [1]) Er wird dabei also die ihn bestimmenden Nebenumstände als solche gar nicht wahrnehmen, sondern sie unbewußt seinem scheinbar äußerlichen Ziel zurechnen. So erlernt er im Grunde weniger objektive Einzeldinge, aus denen sich erst danach ein Gesamtbild ergibt, sondern dieses Gesamtbild wird ihm als Denkrahmen durch viele unterbewußte Begleitumstände von vornherein vermittelt und bestimmt als solches erst den Wert des jeweiligen zu erlernenden Einzeldings, von dem wir ja wissen, daß es jeweils immer nur ein bestimmter Aspekt des Ganzen ist, von dem er also notwendigerweise ein stets mitwachsendes Verständnis bzw. eine Vermutung haben muß. Thomas Kuhn hat für diesen Denkrahmen den Begriff „Paradigma“ geprägt und ihm eine entscheidende Rolle bei allen wissenschaftlichen Erkenntnisakten zugeschrieben[2]:

Ein offenbar willkürliches Element, das sich aus zufälligen persönlichen und historischen Umständen zusammensetzt, ist immer ein formgebender Bestandteil der Überzeugungen, die von einer bestimmten wissenschaftlichen Gemeinschaft in einer bestimmten Zeit angenommen werden. Dieses Element von Willkür deutet aber nicht darauf hin, daß irgendeine Gruppe von Wissenschaftlern ihren Beruf ohne eine Reihe anerkannter Überzeugungen ausüben könnte.... Zumindest bei ausgereiften Wissenschaften sind Antworten auf solche Fragen (oder vollwertiger Ersatz dafür) fest in das Ausbildungsritual eingebettet, welches die Studierenden auf ihre fachliche Tätigkeit vorbereitet und ihnen die Zulassung dafür erteilt. Weil diese Ausbildung streng und dabei starr ist, vermögen jene Antworten sich tief im wissenschaftlichen Denken zu verankern.  Wenn der einzelne Wissenschaftler ein Paradigma als gegeben betrachten kann, braucht er bei seinen Hauptwerken nicht mehr zu versuchen, sein Fachgebiet von den Grundprinzipien aus unter Rechtfertigung jedes neu eingeführten Begriffs neu aufzubauen... Er kann sich also ausschließlich auf die subtilsten und esoterischsten Aspekte der Naturerscheinungen, mit denen sich seine Gruppe befaßt, konzentrieren... Seine Forschungen gehen nicht mehr, wie bisher üblich, in Bücher ein, die sich... an jeden am Thema Interessierten wenden. Sie erscheinen vielmehr in kurzen Artikeln, die sich nur an die Fachkollegen wenden, an diejenigen, bei denen die Kenntnis eines gemeinsamen Paradigmas vorausgesetzt werden kann und die sich als die einzigen erweisen, welche die an sie gerichteten Arbeiten zu lesen vermögen...

 


 

 

Die grundsätzliche Unüberwindbarkeit der Scholastik


So verschieden von der Scholastik ist diese Situation also keineswegs, weil das Paradigma für den Einzelnen sehr verpflichtend ist, selbst wenn es sich nicht exakt definieren läßt. Es zwingt ihn aber auf vielerlei Weise in die allgemeinverbindliche Bahn, schon dadurch, daß es sein eigenes Denken und dessen Grundannahmen bestimmt. Wenn er dabei Definitionshilfe benötigt, so wird er sie gegebenenfalls mehr oder weniger zwanghaft von seiner wissenschaftlichen Gemeinde erhalten - beginnend bei freundschaflichen Ratschlägen über massive Hinweise bis zu deutlichen oder verborgenen Karriereeinschränkungen. Diese Praxis erscheint in vieler Hinsicht zwangsläufig, denn es wäre wohl zu schwierig für den Einzelnen, sich ohne äußere Nachhilfe zu einer in allen Einzelheiten identischen Auffassung der gemeinsamen Materie durchzuarbeiten, wenn diese Einzelheiten nur über Begriffe und Einzelbeobachtungen verstanden werden können, die ja eben immer nur aus einem holistischen Zusammenhang verständlich werden, in den der Lernende tendenziell erst allmählich hineinwachsen kann. „Tendenziell“ soll hier heißen, daß er es natürlich prinzipiell niemals schaffen kann, da die Erkenntnisse immer den Anstrich persönlicher Auffassung behalten müssen. Denn die Individualität des Einzelnen wird sich niemals völlig ausschalten lassen. Da wäre leicht die Gefahr allgemeiner Abgleitung ins Subjektive gegeben, sodaß die Wissenschaft ihren normierenden Charakter nur durch eine gewisse Gruppendisziplin erhalten kann. Der Gedanke ist wichtig: es wird hier also nicht gemeinsam etwas Objektives erkannt, sondern durch Gruppenzwang hergestellt; Erkenntnis wird durch Normierung verfestigt, die dem Einzelnen keine allzu große Freiheit gestattet. Das war in der Scholastik ebenso und konnte niemals anders sein. Wie hätte sich sonst ein Konsens in Glaubensfragen über so lange Zeit erhalten lassen, wenn nicht nötigenfalls mit den so drastischen Methoden, durch die andererseits die Geschichte des Christentums belastet ist? Hätte man sie den Heretikern überlassen, so hätte sich die Kirche wahrscheinlich in unzählige Einzelsekten aufgelöst. Das kann in der Wissenschaft eigentlich nicht anders sein, sodaß wir vermuten müssen, daß auch hier sehr viel Dogmatismus im Spiel ist, obwohl die Durchsetzungsmechanismen des technokratischen Apparates allerdings viel subtiler sind und sein können, weil er anders funktioniert als die Theokratie. Anders als durch dogmatischen Zwang aber läßt sich gar kein wirklicher Konsens herstellen - es sei denn, die Auffassung einer Sache sei zwangsläufig in einem bestimmten Stadium evident, weil irgendwann einleuchtet, daß sie nur so und nicht anders gesehen werden kann. Das ist aber so lange fraglich, als wir noch nicht einmal jeder für sich sagen können, was wir denn erkannt haben, sodaß wir dabei auf die Autorität bestimmter Bezugspersonen vertrauen müssen, deren Autorität aus der Rückkoppelung mit und Einbindung in die gesellschaftlichen Institutionen erwächst. Das kann jeder bei sich selber nachprüfen. Zwar wissen wir nämlich zum Beispiel, daß sich seit der Aufklärung das Vernunft-Ideal durchgesetzt hat, doch leider kann uns niemand sagen, was denn unter den Begriffen ‘Aufklärung’ und ‘Vernunft’ tatsächlich zu verstehen ist. Natürlich haben sich einige Philosophen dafür intelligente Definitionen einfallen lassen - wie etwa Kant -, doch wurden die ja zu allen Zeiten nur von wenigen gelesen, während aber die übrigen nach wie vor auch ohne diese Definitionen wußten, „was zu denken war“. Das kennen wir aus dem Alltag. Paradigmen können also ohne klare Regeln wirksam sein. In diesem Falle liegt das Paradigma im ganzen gesellschaftlichen Apparat aller Mitwirkenden, ihrer persönlichen Motive und ihrer jeweiligen Schicksalsverstrickungen, die wir alle mit berücksichtigen müssen, um zu verstehen, warum welche „Fakten“ erkannt werden. So weiß zwar kaum jemand, was unter den jeweiligen Leitbegriffen wirklich zu verstehen ist, und selbst die Philosophen liefern ja dieses Verständnis nur nachträglich, nachdem die Dinge schon so weit gereift sind, daß Definitionsarbeit geleistet werden kann, aber alle handeln im Sinne dieses Verständnisses. Somit wird deutlich, daß das ohne Institutionalisierung nicht gehen kann. Nur Mystiker könnten es ohne dieses, da sie sich auf höhere Erkenntnisquellen beziehen, sodaß es durchaus auch undogmatische Religionen gibt, wie etwa den Buddhismus. Aber das entspricht nicht der westlichen Tradition und prägt somit auch nicht das Bild moderner westlicher Wissenschaft, die wir durchaus als eine Art Religion bzw. Religionsersatz sehen müssen.

Der heutige Wissenschaftler hat sich also schon lange von seinem früheren Ideal eines freien Gelehrten entfernt, obwohl dieses immer noch das tiefere Prestige des Berufes in der übrigen Öffentlichkeit bestimmt. Leute wie Erasmus von Rotterdam, Galilei, Kepler oder auch noch Leibniz entsprachen sicher noch in etwa diesem Ideal des freien Gelehrten, doch der heutige Wissenschaftler ist nur noch ein Technokrat und insofern kaum noch unterschieden von dem bloßen Anwendungstechniker. Der Unterschied ist erheblich, wenn nicht sogar fundamental: während nämlich der Gelehrte bei aller gesellschaftlichen Einbindung noch im Wesentlichen selbstbestimmt und selbstverantwortlich war - ein unabhängiger Wahrheitssucher und „faustischer Mensch“, um es mit Spengler zu sagen -, so ist der moderne Wissenschaftler nur noch ein in das technokratische System eingebundener Bürger. Das bürgerliche Element mit allen Begleiterscheinungen ist dabei sehr wesentlich und sogar absolut dominant. Das ausgeprägte Karrieredenken und eine entsprechende das gegenseitige kollegiale Verhältnis bestimmende Ellbogenmentalität, die den jeweils anderen ängstlich im Auge behält, müßte bei Gelehrten im Sinne des ursprünglichen Ideals als bedauerliche persönliche Entgleisung empfunden werden, bei den heutigen Technokraten dagegen ist ein solches Verhalten einfach systemimmanent. Die Technokratie ist auf reale Durchsetzung, Autorität und Wirksamkeit in der durch sie bestimmten Gesamtgesellschaft ausgerichtet, und das bestimmt notwendigerweise auch das Innenverhältnis des Apparates. Nicht Wahrheitssuche ist das Motiv des Technokraten, sondern bürgerliche Karriere. Daraus alleine erwächst die Autorität und Wahrheitsvermutung, denn diese beruht kaum noch auf dem Mitdenken der übrigen Gesellschaftsteile, wozu in der heutigen hektischen Zeit kaum noch Raum gegeben ist, sondern auf der Akzeptanz des real Gegebenen durch die unmittelbar Betroffenen. Die Betroffenheit der übrigen Gesellschaft ist sehr wesentlich. Sie erfolgt weniger verbal als indirekt faktisch, d.h. es braucht dazu nicht argumentiert zu werden, sondern da der ganze Alltag des modernen Menschen an den wissenschaftlichen und damit verbundenen technologischen Apparat rückgekoppelt ist, ist sie ganz unmittelbar schicksalhaft gegeben. Dieser Apparat bedarf also keiner Scheiterhaufen für Andersdenkende, und wer sich demnach wissenschaftskritisch oder nicht im Sinne der naturwissenschaftlichen Paradigmen äußert, braucht weder mit persönlichen Anfeindungen zu rechnen, noch wird er allzusehr auf Gegenstimmen stoßen. Denn solche kommen allenfalls nur von Journalisten oder Sonderlingen, während die Wissenschaftler selbst sich den Luxus leisten können, sich aus jeder Diskussion herauszuhalten. Sie brauchen Andersdenkende noch nicht einmal zu ignorieren, sondern nur wie stets in ihrem Institut zu erscheinen und durch ihr Wirken im weißen Kittel im Sinne ihrer Karriere an der Verfestigung gerade jener gesellschaftlichen Normen mitzuwirken, die alle Andersdenkenden einfach nur faktisch, statt argumentativ ins Unrecht setzen. Doch natürlich: wer sich niemals zu argumentieren genötigt sah, kann es auch kaum, und wer solches tatsächlich von einem modernen Wissenschaftler erwartet, wird nur Informationen über sein berufliches Prozedere erhalten, nicht mehr. So wäre es dem beruflichen Prestige eines modernen Wissenschaftlers auch eher abträglich, wenn er noch dem alten Gelehrtenideal wirklich entspräche und etwa Bücher schriebe oder ähnliches. Dieses würde eher als ein Ausscheren aus der Gruppe aufgefaßt, während sein eigentliches Prestige aus seiner Zugehörigkeit zu dieser erwächst. Man weiß, wer er ist, er hat einen Namen, und das genügt. Je länger er dazugehört und je mehr sein Name genannt wird, desto höher ist sein Prestige. Natürlich muß er auch dafür etwas tun, aber dieses muß den gängigen Normen entsprechen. Er kann als Redner auf wichtigen Kongressen sprechen oder Artikel in wichtigen Zeitschriften veröffentlichen (die allerdings auch nicht zu sehr aus dem Rahmen fallen dürfen, zumal die Länge des Artikels offensichtlich wichtiger ist als der Inhalt, den oft nur absolute Spezialisten verstehen). So haben Preisverleihungen wie etwa der Nobelpreis schon lange nicht mehr die Funktion, den Preisträger selbst zu ehren, sondern das Paradigma, zu dessen Absicherung er beigetragen hat. Das ist sehr deutlich, obwohl die Tendenz hier etwas karikiert wurde, um sie herauszustellen.

 


 

Professionalität als Denkblockade


Daß der einzelne Wissenschaftler so sehr in seine Gruppe eingebunden ist, hat für den wissenschaftlichen Fortschritt sowohl Vor- als auch Nachteile. Natürlich können auf diese Weise Forschungsarbeiten sehr professionell vorangetrieben werden, und es können auch durch staatliche Finanzierung große Projekte in Angriff genommen werden, für die Einzelkämpfer keine Mittel besäßen. Auf der anderen Seite führt eine solche Teamarbeit aber zu esoterischer Abschottung. Der einzelne Wissenschaftler braucht ebenso wie im Außenverhältnis auch im Innenverhältnis seine gedanklichen Voraussetzungen nicht mehr ständig zu überprüfen, sondern weiß sich bei seiner Arbeit in die Gruppe eingebunden, die mit allen Implikationen der Aufgabe vertraut ist. Er muß diese also nicht mehr vor sich oder anderen erklären und artikulieren, sondern kann sich mit Teilforschung beschäftigen, deren Voraussetzungen unter Umständen nur noch wenige Kollegen verstehen. Der Forscher ist insofern kein Denker mehr, sondern nur noch Arbeiter. Es wäre zu viel von ihm verlangt, wollte man von ihm eine tiefere Begründung seines Tuns erwarten, die in einen größeren Zusammenhang oder etwa eine persönliche Universalphilosophie eingebunden ist, denn hierfür liefert das Paradigma Ersatz. Eine wirkliche philosophische Einbindung seines Tuns im Sinne einer ernstzunehmenden Wahrheitssuche wäre allerdings für den gedanklichen Fortschritt auf dem Wege zu einer universalen Wahrheit auch gar nicht nötig, wenn der wissenschaftliche Gesamtapparat so arbeiten würde, daß eine geistige Hierarchie gegeben ist - also etwa so wie unser Gehirn, in dem alle Neuronen ja auch für sich getrennt arbeiten, aber dennoch vom Gesamthirn dabei gesteuert oder kontrolliert werden. Eben dieses ist aber im modernen Wissenschaftsbetrieb nicht mehr der Fall, und insofern ist die Bezeichnung Technokratie gerechtfertigt. Die Perspektive ist dabei auf bedenkliche Weise verloren gegangen, und der einzelne Wissenschaftler ist nur noch ein Massenmensch, der sich auf die Vorgaben der Gruppe verläßt, die aber ihrerseits nur aus vielen solchen Massenmenschen besteht, sodaß das Gruppenverhalten am Ende nicht mehr, sondern weniger Intelligenz zeigt als das eines Einzelnen - ein bekanntes soziologisches Phänomen. Kuhn:

Bei näherer Untersuchung, sei sie historisch oder im modernen Labor, erscheint dieses Unternehmen als Versuch, die Natur in die vorgeformte und relativ starre Schublade, welche das Paradigma darstellt, hineinzuzwängen. In keiner Weise ist es das Ziel der normalen Wissenschaft, neue Phänomene zu finden; und tatsächlich werden die nicht in die Schublade hineinpassenden oft überhaupt nicht gesehen. Normalerweise erheben die Wissenschaftler auch nicht den Anspruch, neue Theorien zu finden, und oft genug sind sie intolerant gegenüber den von den anderen gefundenen. Normalwissenschaftliche Forschung ist vielmehr auf die Verdeutlichung der vom Paradigma bereits vertretenen Phänomene und Theorien ausgerichtet... Diese Einengungen aber, die das Vertrauen zu einem Paradigma zeitigt, erweisen sich als wesentlich für die Entwicklung der Wissenschaft... In weitem Maße sind dies die einzigen Probleme, welche die Gemeinschaft als wissenschaftlich anerkennt oder welche in Angriff zu nehmen sie ihre Mitglieder ermutigt. Andere Probleme, einschließlich vieler, die früher Norm gewesen waren, werden als metaphysisch abgelehnt, als Angelegenheit einer anderen Disziplin betrachtet oder manchmal einfach für zu problematisch gehalten, um Zeit daran zu verschwenden...

Eine neue Theorie wird immer mit gleichzeitigen Anwendungen auf einen konkreten Bereich von Naturphänomenen angekündigt; ohne diese stünde sie noch nicht einmal im Vorhof der Anerkennung. Nachdem die Theorie angenommen ist, begleiten die gleichen oder andere Anwendungen sie in die Lehrbücher, die der Berufsausbildung zugrunde liegen. Sie stehen dort nicht lediglich zur Ausschmückung, auch nicht bloß zur Dokumentation. Im Gegenteil, der Prozeß des Erlernens einer Theorie hängt vom Studium der Anwendungen ab, einschließlich des Lösens von Übungsaufgaben mit Papier und Bleistift und mit Geräten im Labor. Wenn beispielsweise der Student der Newtonschen Dynamik jemals die Bedeutung von Begriffen wie „Kraft“, „Masse“, „Raum“, „Zeit“ erfaßt, so tut er dies weniger dank der unvollständigen, wenn auch manchmal hilfreichen Definitionen in seinem Lehrbuch, als vielmehr durch Beobachtung und Teilnahme an der Anwendung dieser Begriffe bei Problemlösungen. Dieser Prozeß des Lernens durch „Finger­übun­gen“ oder praktische Arbeit hält während der gesamten Periode der Einführung in den akademischen Beruf an...

Obwohl viele Wissenschaftler leicht und gut über die einzelnen Hypothesen sprechen, die einem konkreten Teil der laufenden Forschung zugrundeliegen, sind sie doch nur wenig besser als Laien, wenn es um die Charakterisierung der feststehenden Grundlagen ihres Gebiets, seiner legitimen Probleme und Methoden geht... So gibt es Grund für die Annahme,... daß Paradigmata die Forschung ebenso durch unmittelbare Vorbildwirkung wie durch abstrahierte Regeln leiten. Die normale Wissenschaft kann nur so lange ohne Regeln voranschreiten, wie die betreffende wissenschaftliche Gemeinschaft vorbehaltlos die bereits erzielten Problemlösungen anerkennt... Solange die Paradigmata jedoch gesichert bleiben, können sie ohne Übereinstimmung hinsichtlich ihrer abstrakten Formulierung oder ohne den Versuch einer abstrakten Formulierung überhaupt funktionieren...

Wer historische Tatsachen ernst nimmt, muß den Verdacht haben, daß die Wissenschaft nicht zu dem Ideal tendiert, welches uns unsere Vorstellung von einem kumulativen Wesen nahegelegt hat. Vielleicht ist sie ein Unternehmen anderer Art... Es ist klar, daß die meisten wissenschaftlichen Revolutionen nicht als Revolutionen, sondern als Erweiterungen wissenschaftlicher Erkenntnis angesehen wurden... Ich bin der Meinung, daß es ausgezeichnete Gründe dafür gibt, warum sich die Revolutionen als fast unsichtbar erwiesen haben. Wissenschaftler und Laien beziehen einen großen Teil ihrer Vorstellung von schöpferischer wissenschaftlicher Tätigkeit aus einer maßgeblichen Quelle, welche systematisch die Existenz und Bedeutung wissenschaftlicher Revolutionen verschleiert... Wissenschaftliche Lehr­bü­cher stellen sich auf einen bereits ausgeprägten Bestand an Problemen, Daten und Theorien ein, sehr oft gerade auf die Paradigmata, denen sich die wissenschaftliche Gemeinschaft zum Zeitpunkt der Abfassung jener Schriften verbunden fühlt... Da aber Lehrbücher pädagogische Vehikel für das Fortbestehen der normalen Wissenschaft sind, müssen sie immer dann ganz oder teilweise neu geschrieben werden, wenn sich Sprache, Problemstruktur oder Normen der normalen Wissenschaft ändern. Kurz gesagt, sie müssen im Gefolge jeder wissenschaftlichen Revolution neu geschrieben werden, und wenn sie neu geschrieben sind, verschleiern sie zwangsläufig nicht nur die Rolle der Revolutionen, die sie hervorgebracht haben, sondern sogar deren Existenz. Wenn der praktizierende Wissenschaftler oder der Lehrbücher lesende Laie zu seinen Lebzeiten keine Revolution erfahren hat, erfaßt sein geschichtliches Bewußtsein nur die Ergebnisse der letzten Revolution auf dem betreffenden Gebiet... Charakteristischerweise enthalten wissenschaftliche Lehrbücher wenig Geschichtliches, und zwar entweder in einem einführenden Kapitel oder häufiger in gelegentlichen Hinweisen auf die großen Helden eines früheren Zeitalters. Durch solche Hinweise erhalten Studierende und Fachleute das Gefühl, sie nähmen Teil an einer beständigen historischen Tradition. Und doch hat die vom Lehrbuch suggerierte Tradition, an der die Wissenschaftler teilzunehmen glauben, tatsächlich niemals existiert... Teils durch Auslese und teils durch Verzerrung werden die Wissenschaftler früherer Zeitalter ausdrücklich so dargestellt, als hätten sie an der gleichen Reihe fixierter Probleme und in Übereinstimmung mit der gleichen Reihe fixierter Kanons gearbeitet... Und es ist auch kein Wunder, daß, da die Bücher tatsächlich neu geschrieben werden, die Wissenschaft wiederum weitgehend kumulativ erscheint... Die Versuchung, die Geschichte rückwärts zu schreiben, ist allgegenwärtig und dauerhaft...

Der Wettstreit zwischen Paradigmata kann nicht durch Beweise entschieden werden, warum den Befürwortern konkurrierender Paradigmata eine vollkommene Gegenüberstellung der gegenseitigen Standpunkte nicht gelingen kann... Innerhalb des neuen Paradigmas treten alte Ausdrücke, Begriffe und Experimente in ein neues Verhältnis zueinander... Darum kann ein Gesetz, das einer Gruppe von Wissenschaftlern nicht einmal demonstriert werden kann, einer anderen gelegentlich intuitiv als evident erscheinen...  Gerade weil es ein Übergang zwischen inkommensu­rablen Dingen ist, kann er nicht Schritt um Schritt vor sich gehen, von Logik und neutraler Erfahrung eindeutig erwirkt. Er muß, wie der Gestaltwandel, auf einmal (wenn auch nicht notwendigerweise in einem Augenblick) geschehen oder überhaupt nicht... Die Übertragung der Bindung von einem Paradigma auf ein anderes ist eine Konversion, die nicht erzwungen werden kann. Lebenslanger Widerstand, besonders von solchen, deren produktive Laufbahn sie einer älteren Tradition normaler Wissenschaft verpflichtet hat, ist keine Verletzung wissenschaftlicher Normen, sondern ein Hinweis auf das Wesen der wissenschaftlichen Forschung selbst... Derjenige, der ein neues Paradigma in einem frühen Stadium annimmt, muß das oft entgegen den durch Problemlösungen gelieferten Beweisen tun. Das heißt, er muß den Glauben haben, daß das neue Paradigma mit den vielen großen Problemen, mit denen es konfrontiert ist, fertig werden kann, wobei er nur weiß, daß das alte Paradigma bei einigen versagt hat. Eine Entscheidung dieser Art kann nur aufgrund eines Glaubens getroffen werden... Etwas muß wenigstens einigen Wissenschaftlern das Gefühl geben, daß der neue Gedanke auf dem richtigen Wege ist, und manchmal sind es nur persönliche und unartikulierte ästhetische Erwägungen, die das tun können... Allmählich wird die Zahl der Experimente, Instrumente, Artikel und Bücher, die auf dem Paradigma fußen, wachsen. Überzeugt von der Fruchtbarkeit der neuen Anschauung, werden immer mehr die neue Art der Ausübung normaler Wissenschaft annehmen...

Das wissenschaftliche Training als solches ist nicht darauf zugeschnitten, den Menschen hervorzubringen, der leicht einen neuen Weg entdeckt... In ihrem normalen Zustand ist also eine wissenschaftliche Gemeinschaft ein immens wirksames Instrument für die Lösung der Probleme und Rätsel, die ihr Paradigma definiert. Außerdem muß das Ergebnis der Lösung dieser Probleme zwangsläufig Fortschritt bedeuten. Hier gibt es also kein Problem... Für diejenigen zumindest, die sich mit einem neuen Paradigma durchgesetzt haben, muß der Ausgang der Revolution ein Fortschritt sein, und sie können sehr gut dafür sorgen, daß zukünftige Mitglieder der Gemeinschaft die vergangene Geschichte in der gleichen Weise einschätzen werden...

Ohne Zweifel werden diese Bemerkungen den Eindruck erwecken, als sei das Mitglied einer reifen wissenschaftlichen Gemeinschaft, wie die Hauptfigur in Orwells „1984“, das Opfer einer von den derzeitigen Machthabern neu geschriebenen Geschichte. Und dieser Eindruck ist keineswegs ganz unangemessen... Die bloße Existenz der Wissenschaft hängt davon ab, daß die Vollmacht, zwischen Paradigmata zu wählen, den Mitgliedern einer besonderen Gemeinschaft übertragen ist. Von welch besonderer Art diese Gemeinschaft sein muß, wenn die Wissenschaft überleben und wachsen soll, erhellt daraus, daß der Einfluß der übrigen Menschheit auf das wissenschaftliche Unternehmen äußerst gering ist... Die Anerkennung der Existenz einer allein kompetenten professionellen Gruppe und ihrer Rolle als des ausschließlichen Schiedsrichters in Fragen fachwissenschaftlicher Leistungen hat weiter Implikationen. Die einzelnen Mitglieder der Gruppe müssen aufgrund ihrer gemeinsamen Ausbildung und Erfahrung als die alleinigen Kenner der Spielregeln oder einer gleichwertigen Basis für unzweideutige Urteile angesehen werden... Zwar wächst die Wissenschaft sicherlich in die Tiefe, aber vielleicht nicht auch in die Breite. Wenn sie es aber tut, wird diese Breite sich hauptsächlich in der Vermehrung wissenschaftlicher Spezialgebiete ausdrücken...

Wir müssen vielleicht die - ausdrückliche oder unausdrückliche - Vorstellung aufgeben, daß der Wechsel der Paradigmata die Wissenschaftler näher und näher an die Wahrheit heranführt... Nichts von dem, was gesagt worden ist und noch gesagt werden kann, macht den Fortschritt zu einem Prozeß der Entwicklung auf etwas hin.  Wir sind alle fest daran gewöhnt, die Wissenschaft als das Unternehmen zu sehen, das unausgesetzt einem von der Natur gesteckten Ziel näherkommt. Aber muß es denn ein solches Ziel geben?..  Ist es wirklich eine Hilfe, wenn man sich vorstellt, daß es eine vollständige, objektive, richtige Erklärung der Natur gibt und daß das richtige Maß einer wissenschaftlichen Leistung der Grad ist, in dem sie uns diesem endgültigen Ziel näherbringt? Wenn wir lernen könnten, die Entwicklung, von dem aus, was wir wissen, an die Stelle der Entwicklung, auf das hin, was wir wissen möchten, zu setzen, würde vielleicht eine Anzahl lästiger Probleme verschwinden.

 


 


Der unvermeidbare Zirkelschluß

 

Aus all diesem geht recht deutlich hervor, daß wir es hier mit einem Prozeß zu tun haben, der sich selbst mitsamt allen Implikationen produziert - jedenfalls nicht auf etwas vorher bereits Gegebenes hin. Stattdessen können wir aber feststellen, daß mit der „fortschrei­tenden“ Erkenntnis eine gleichzeitig mitwachsende Realität aufgebaut wird, die nur zum Teil Zirkelschlußcharakter hat. Denn es gibt natürlich durchaus einen Fortschritt, doch der sieht anders aus als in einer Gesellschaft aus lauter mehr oder weniger selbstbestimmten wahrheitssuchenden Individuen. Es denkt nur noch die Gemeinde, und da diese durch ihr jeweiliges Paradigma bestimmt ist, so muß sich erst dieses ändern, wenn bestimmte neue Erkenntnisse (oder auch nur Moden!) dieses erforderlich machen. Der Einzelne kann sich dabei relativ leicht anpassen, und eigentlich ist es diese ständige Anpassungsfähigkeit an neue Fakten, was wir üblicherweise unter Intelligenz verstehen. Die wissenschaftliche Gemeinde ist also vermindert intelligent, erbringt aber mit entsprechendem Forschungsaufwand dennoch unter Umständen erstaunliche Leistungen, die nicht nur das Prestige des Berufsstandes lebendig halten, sondern wirklich eine Fortschrittsvermutung für sich haben. Wir können leicht einsehen, daß dieser Fortschritt in vieler Hinsicht rückgekoppelt ist - zunächst an seine eigenen Grundannahmen, sodann auch an die technischen Anwendungen, die ihrerseits bezüglich ihrer Zweckmäßigkeit rückgekoppelt sind (das Auto oder das Flugzeug werden um so notwendiger, je mehr es davon gibt und je mehr sie deshalb unsere Welt und Alltagspraxis bestimmen). Das Prestige eines Berufsstandes, der es so sehr in der Hand hat, die Abhängigkeit der gesamten Gesellschaft von der eigenen Tätigkeit zu bestimmen, ist somit zumindest so lange nicht gefährdet, als die allgemeine Vermutung besteht, daß man sich wirklich auf eine bessere Zukunft zubewegt. Und es ist erstaunlicherweise wirklich so, daß diese Vermutung stets neuen Auftrieb bekommt, trotz, aber auch wegen aller Rückkoppelung. Wir können hier wieder jenen universalen Mechanismus vermuten, der sich erst aus rückgekoppelten Akten selbst erschafft. Wenn das ganze Universum gar nicht anders entstanden ist, so hätten wir es hier mit dem bekannten Paradox zu tun: zwar handelt es sich um keinen wirklichen Fortschritt, doch immerhin um einen solchen, der der strengen Definition von Fortschritt absolut genügt. Und zwar geht dabei, wie wir inzwischen allgemein recht gut erkennen, im Laufe der Zeit die Perspektive verloren, doch mag das nur vorübergehend der Fall sein, weil der in Abständen erfolgende Paradigmenwechsel für die jeweils nötige Anpassung sorgt, sodaß man nicht die ganze Erkenntnismethode selbst für völlig unbrauchbar halten muß. Die dabei entstehende Fortschrittsvermutung hat in jedem Fall eine erstaunliche Suggestionskraft, sodaß am Ende tatsächlich der Eindruck entsteht, man habe sich in Richtung auf ein objektiv gegebenes Ziel fortbewegt und man habe das Sosein einer Welt erkannt, die auch zuvor schon in unerkanntem Zustand vorhanden gewesen war. Doch gerade hieran müssen wir aus allgemein philosophischen Gründen inzwischen grundsätzliche Zweifel anmelden. Da wir aber nicht davon ausgehen können, daß das alles ein rein menschlicher Akt gewesen ist, so müßte eigentlich der Weltgeist permanent irgendetwas hinzufügen, das der anderen und quasi-objektiven Seite des Reißverschlusses entspräche. Ist das möglich? In der Tat lassen sich bei wichtigen wissenschaftlichen Entdeckungen sehr oft merkwürdige Umstände feststellen, die zur Verfestigung der „Fakten“ geführt haben. Insgesamt haben wir es hier jedenfalls mit einem kreativen Akt zu tun, denn niemand kann bestreiten, daß sich das Universum fortentwickelt. Kuhn:

Frühere Generationen behandelten ihre eigenen Probleme mit ihren eigenen Geräten und ihren eigenen Kanons für eine Lösung. Auch haben sich nicht nur die Probleme geändert. Vielmehr hat sich das ganze Netz von Tatsachen und Theorien, welches das Lehrbuchparadigma der Natur anpaßt, verschoben...

Dieses Netz selbst ist ein Rückkoppelungsprodukt der Wissenschaft. Ein Fortlaufen auf einem Kreis kann so leicht als ein Fortlaufen auf einer geraden Linie erscheinen. Dieser ganze Prozeß verschleiert vor allem die Tatsache, daß stets Subjektiva in die Erkenntnisse eingeflossen sind und daß sich insofern Naturwissenschaft von Geisteswissenschaft sehr wesentlich nur bezüglich der Idee unterscheidet, die sich mit ihnen verbindet.

 


[1] Eigenzitat.
[2] T.S. Kuhn: Die Struktur wissenschaftlicher Revolutionen..

WELLE ODER TEILCHEN?

 

Wenn uns die Physik heute auf einen im Wesentlichen mystischen Weg weist, so kehrt sie damit in gewisser Weise zu ihrem Ursprung zurück, der 25oo Jahre zurückliegt. Es ist interessant, der Entwicklung der westlichen Wissenschaft auf ihrem gewundenen Pfad zu folgen, angefangen bei den mystischen Philosophen der alten Griechen bis zu der eindrucksvollen Entfaltung intellektueller Gedanken, die sich immer mehr von ihren mystischen Ursprüngen entfernten, um eine Weltanschauung zu entwickeln, die in scharfem Gegensatz zu der des fernen Ostens stand. In ihren jüngsten Stadien überwindet die westliche Wissenschaft schließlich diese Ansicht und kehrt zu derjenigen der alten Griechen und der östlichen Philosophien zurück. Diesmal jedoch basiert sie nicht nur auf Intuition, sondern auf sehr genauen, komplizierten Versuchen und auf streng formaler mathematischer Logik. (Fritjof Capra).

Weit mehr als die Relativitätstheorie haben die im letzten Jahrhundert unternommenen Vorstöße in den Bereich des Allerkleinsten unser jahrtausendealtes und dementsprechend gefestigtes Wirklichkeitsverständnis, auf dem auch die Physik aufbaute, erschüttert. Die meisten Physiker gehen immer noch davon aus, daß es kleinste Elementarbausteine gibt, die vermutlich nicht weiter unterteilbar sind. Ein solches Teil ist zum Beispiel das Elektron. Was aber ist ein Elektron wirklich, wie sieht es aus, und welche Eigenschaften besitzt es? Diese Frage sollte uns nicht als unwichtig erscheinen, wenn sie auch mit unserer alltäglichen Erfahrungswelt nicht allzu viel zu tun hat, denn immerhin handelt es sich dabei um des Pudels Kern. Unsere ganze Erscheinungswelt setzt sich ja ansich aus Teilchen und Schwingungen zusammen, aus Schwingungen eines Mediums, dessen tiefere Natur immer noch sehr rätselhaft ist. Bei diesem sog. Äther handelt es sich einerseits nur um ein abstraktes Bezugsmedium, andererseits aber kann es schwingen und gemäß der Relativitätstheorie auch gekrümmt sein und besitzt demnach also objektive Eigenschaften. Hier scheint ein begrifflicher Widerspruch zu liegen, den auch Einstein nur noch verschärft hat. Wir halten hier zunächst nur fest, daß innerhalb dieses nach wie vor äußerst problematischen Mediums etwas schwingt, oder richtiger gesagt, daß es die Natur dieser Sache zu sein scheint, eine Schwingung dieses Mediums zu sein. Nicht also schwingt etwas, sondern dieses Etwas kommt dadurch in die Welt, daß das Medium schwingt. Dieses ist die Natur des Lichtes, das uns eine so bunte optische Erfahrungswelt liefert. Die Gegenstände, die wir derartig bildhaft sehen, sind also gar nicht so, wie wir sie sehen. Wir wissen, daß sie eigentlich nichts anderes sind als Ansammlungen von Molekülen oder Atomen, deren äußere Elektronen durch das auffallende Licht angeregt wurden und entsprechend ihrer speziellen Reflektionseigenschaften dieses in der Weise in Form von Photonen zurückgeben, daß uns unser Auge das uns bekannte Bild liefert. Der materielle Aspekt dieses Bildes aber setzt sich in Wirklichkeit nur aus Atomen zusammen, die wiederum in weit größerem relativen Maße als etwa unser Planetensystem völlig leer sind. Da wüßten wir doch gerne, wie denn nun eigentlich die letzten Manifestationen der Welt aussehen, aus der diese sich zusammensetzt, eben zum Beispiel die winzigen Elektronen.

Newton etwa stellte sich die kleinsten Materieteilchen als feste und undurchdringliche Partikel vor, die unvergleichlich härter seien als die 'porösen' makroskopischen Körper, die aus diesen kleinsten Teilchen aufgebaut sind, sie waren seiner Meinung nach so hart, daß sie nie verschleißen oder zerbrechen konnten. Inzwischen aber hat sich herausgestellt, daß auch die Elektronen ebenso wie andere letzte Elementarteilchen nichts anderes sind als bloße Schwingungen. Sie sind also im Grunde nichts als Energie, die aber wiederum nur eine andere Erscheinungsform der Masse ist, sodaß sie so gesehen durchaus eine wenn auch winzige Masse besitzen. Wir müssen uns demnach die kleinsten Teilchen der Materie als einen kleinen Ausschnitt eines umfassenden Energiefeldes vorstellen, in dem die Feldstärke ungewöhnlich hohe Werte annimmt. Materieteilchen sind also nichts anderes als eine lokale Energiekonzentration, die aber nicht scharfkantig entsprechend der Newtonschen Vorstellung gegen ihre Umgebung abgegrenzt ist. Eine für sich bestehende und wesentlich gegenüber ihrer Umgebung andersartige Substanz, aus der ein Elektron besteht, gibt es nicht. Auch die Elektronen sind zugleich Quanten wie Schwingungen. Es bleibt aber nicht dabei, daß sie nur in sofern weder Fisch noch Fleisch und dennoch beides zusammen sind, sondern so scheint es auch bei ihren sonstigen Eigenschaften zu sein. Wie Werner Heisenberg in seiner berühmten 'Unschärferelation' festgestellt hat, ist es unmöglich, den Elektronen zugleich einen bestimmten Ort und einen bestimmten Impuls zuzuweisen. Dieses liegt einerseits an den äußeren Bedingungen der Versuchsanordnung, denn da die Untersuchungsinstrumente für diesen Bereich des Allerkleinsten vergleichsweise sehr grob sind und demnach recht brutal in das zu untersuchende Objekt eingreifen, verfälschen sie zwangsläufig auch immer das Untersuchungsergebnis. Wie soll man etwas über die Natur eines Quants sagen, wenn man es dazu mit einem anderen (Licht)quant beschießen muß? So kann man je nach Versuchsanordnung immer nur einen Aspekt des Elektrons feststellen, entweder seinen augenblicklichen Ort oder aber seinen Impuls (das heißt Stärke und Richtung seiner Bewegung). Diese Entweder-oder-Beobachtung ist aber durchaus nicht nur auf die unzulängliche Versuchsmethode zurückzuführen, wie schon Heisenberg erkannte, sondern sie ist offensichtlich Ausdruck einer tieferen Wirklichkeit. Genau genommen scheint das Elektron gar kein Gegenstand von dieser Welt zu sein, sondern es existiert gewissermaßen hinter einer Grenze, die unsere Welt gegen eine andere abgrenzt, und es zeigt uns von dort immer nur eine Teilansicht von sich, je nachdem, welche wir gerade gerne sehen wollen. Hier kommt ein ganz wichtiger Aspekt in unsere Betrachtung, nämlich, daß derartige Untersuchungen immer beobachterbedingt sind, und zwar in einer sehr wesentlichen Weise. Das heißt, die Dinge hätten ohne den Beobachter eine ganz andere Gestalt, und die Frage ist, ob sie überhaupt eine haben. Die Konsequenz daraus ist, daß der Beobachter einen erheblichen Anteil nicht nur daran hat, wie ihm die Welt erscheint, sondern auch daran, wie ihre tiefere Wirklichkeit beschaffen ist!


 

 

Nicht von dieser Welt

Das Elektron kann ganz urplötzlich seinen Ort wechseln und von einer Bahn auf die andere springen, ohne jeden Zeitverlust und demnach schneller als die Lichtgeschwindigkeit, von der wir doch gelernt haben, daß sie eine nicht überschreitbare Naturkonstante ist. Auch dieses scheint darauf hinzuweisen, daß ein Elektron kein Gegenstand dieser Welt ist. Alle derartigen Quanten scheinen nicht von dieser Welt zu sein, und sie gehorchen nicht den üblichen Gesetzen der makroskopischen Physik, sondern den bereits von Planck postulierten Quantenbedingungen. Wir müssen uns also allen Ernstes damit abfinden, daß im Bereich des Allerkleinsten, aus dem sich unsere Erscheinungswelt zusammensetzt, die in dieser geltenden physikalischen Gesetze nicht mehr gelten. bei der Untersuchung der Interferenzeigenschaften des Lichtes stehen wir vor der Konsequenz, daß, wenn die These von der Quanteneigenschaft des Lichtes ebenso richtig ist wie diejenige von seiner Welleneigenschaft, die Quanten gewissermaßen über ein Absprachesystem verfügen müssen, das es ihnen ermöglicht, sich so zu verhalten, daß das beobachtete Interferenzmuster zustande kommt. Je tiefer wir zu der eigentlichen Natur der Dinge vorzudringen versuchen, desto mystischer und rätselhafter erscheint uns die Welt.

Verfügen die Quanten möglicherweise doch über ein Bewußtsein, wie die Panpsychisten sagen? Gerade diese Dinge, die gar nicht richtig von dieser Welt sind? Kommt hier von einer Seite Bewußtsein in unsere Welt, von der wir es nun wirklich nicht vermuteten? Und ist demnach die eigentliche Natur der Dinge weder Materie noch Energie, sondern Bewußtsein? Oder ist Bewußtsein eine dritte Erscheinungsform dieser Dinge? Was wissen wir aber über das einzelne Quant oder Photon, das seinen Weg mit dem anderen abzustimmen scheint? Wir können schließlich nur nachträglich aus dem sich ergebenden Interferenzmuster seinen Weg feststellen, doch über die Entscheidung, die es dazu vorher traf, wissen wir nichts. Wir haben ja schon gesehen, daß sich die Eigenschaften eines Quants - und das gilt für alle Elementarteilchen - nicht genau bestimmen lassen. Kennen wir seinen Ort, so können wir nicht mehr seine Absicht feststellen, kennen wir aber seine Absicht, so wissen wir nicht mehr, wo es sich befindet. Eigentlich wissen wir dann also nicht, wer diese Absicht hatte. Wir können demnach in diesem Bereich nichts auf den Punkt bringen. So kennen wir zum Beispiel beim Prozeß des radioaktiven Zerfalls die Halbwertzeiten, also jene Zeitspannen, innerhalb derer eine bestimmte Menge schwerer Atome ihrer Zahl nach zur Hälfte zerfallen sind. Aber dabei handelt es sich nur um rein statistische Werte, die das Verhalten einer großen Vielzahl von Atomen beschreiben, das heißt, wir wissen nicht, wann der einzelne Atomkern zerfällt oder zerfallen wird. Es ist tatsächlich so, daß sich das einzelne Atom in dieser Hinsicht in keiner Weise festlegen läßt, und es gibt nicht die mindeste Möglichkeit, das in Erfahrung zu bringen

Man könnte nun wieder meinen, daß das etwas mit unserer Unfähigkeit zu tun hat, in diesem Bereich exakte Untersuchungen anzustellen, tatsächlich scheint sich aber auch hinter diesem Umstand eine tiefere Wirklichkeit zu verbergen. Das einzelne Quant hat keine spezifizierbare Eigenschaft, und sein Verhalten scheint lediglich vom Gesetz des Zufalls bestimmt zu sein. Wir können höchstens einen Teilaspekt einigermaßen scharf herausholen, je größer aber eine solche Bestimmtheit ist, desto unbestimmter wird jede andere Eigenschaft. Dennoch gelten selbst die bestimmten Eigenschaften nicht einmal, wie es scheint, für ein einzelnes Quant, sondern nur wieder für eine Vielzahl. Das heißt demnach, daß ein einzelnes Elektron eigentlich gar keine Eigenschaft besitzt und sich noch nicht einmal auf Kosten seiner Impulseigenschaft auf einen bestimmten Ort festlegen läßt, sondern daß auch dieser Ort nur ein rein statistischer Wert ist, während sich das einzelne Elektron die Freiheit herausnimmt, sich in jedem Moment theoretisch überall aufzuhalten. Wenn wir also das einzelne Elektron beobachten (falls wir das könnten), so können wir keinen Ort dafür bestimmen, und nur wenn wir etwas länger hinsehen und viele Elektronen beobachten, so stellen wir fest, daß sie insgesamt die Tendenz haben, sich mit Vorliebe an einem bestimmten Ort aufzuhalten. In diesem Fall sprechen wir von einem statistischen Ort oder von einer Aufenthaltswahrscheinlichkeit. Damit aber noch nicht genug, muß der Beobachter den Eindruck gewinnen, daß auch dieser wahrscheinliche Ort nur ihm zuliebe eingenommen wird. Die Quanten scheinen Wegen zu folgen und Eigenschaften zu besitzen, die alle möglichen Erscheinungen annehmen können, die ihnen der Beobachter gerne zuweisen möchte, während sie in Wirklichkeit vielleicht gar nicht existieren. So sind also die Wellen oder Schwingungen unseres ohnehin höchst mysteriösen Mediums Äther selber höchst mysteriös, sie haben keine Eigenschaften, sondern höchstens Tendenzen zu Eigenschaften. Und fast scheint es so, als seien die Manifestationen, zu denen sie schließlich auf statistischem Wege gelangen, beobachter- oder bewußtseinserzeugt, wobei wir uns nicht klar darüber sind, ob es sich dabei um das Bewußtsein des Beobachters oder der Materie handelt oder ob diese gar auf geheimnisvolle Weise miteinander kommunizieren. Wir müssen ja allerdings bereits bei der Untersuchung der Arbeitsweise des Gehirnes feststellen, wie sehr dabei das Fundament ins Wanken gerät, auf dem unsere Wirklichkeit errichtet ist - diese Erkenntnisse aber sind sicher geeignet, es noch mehr ins Wanken zu bringen.


 

 

Erklärungsnotstände

Die Wellenfunktionen der Quanten sind aber durchaus nicht monoton, sondern äußerst kompliziert, und theoretisch können sie alle möglichen Informationen gespeichert haben. Die Wellenfunktionen können ein Kode sein, in dem der Gesamtzustand der Welt verschlüsselt ist. Es wäre also vorschnell geurteilt, wenn man sagen wollte, Elementarteilchen seien nicht in der Lage zu kommunizieren. Wir verlassen hier aber den Bereich der Physik, und das liegt eigentlich weniger daran, daß diese Materie nichts mehr damit zu tun hätte, sondern daß es den normalerweise sehr nüchternen Physikern bei solchen Betrachtungen recht unbehaglich wird. Sie wollen beobachten und messen und sich nicht in Spekulationen verlieren, die vermutlich zu nichts führen. Solche Fragen, pflegen Physiker im allgemeinen zu sagen, sind für die Wissenschaft sinnlos, denn diese interessiert nur das Verhalten bestimmter Dinge und nicht, welche Realität sich dahinter verbirgt. Am besten kümmert man sich nicht darum, was sich hinter einem Vorhang abspielt, hinter den man ohnehin nicht blicken kann, sondern beschränkt sich auf das, was man greifen kann. Und daraufhin stürzen sie sich wieder in ihre Beobachtungen und Berechnungen, aber fast sieht es so aus, als seien ihre so geheimnisvollen mathematischen Formeln in diesem Zusammenhang nichts anderes als magische Zauberformeln, mit deren Hilfe sie einen Spuk bannen wollen. So gesehen ist die moderne Wissenschaft nichts anderes als eine andere Erscheinungsform uralter Geisterbeschwörungen. Es vermittelt ein angenehmes Realitätserlebnis, sich in ganze Berge von Papier voller mathematischer Formeln einwühlen zu können und dabei hin und wieder Erfolgserlebnisse zu haben, über die man mit Kollegen sprechen kann. Mit diesen Betrachtungen wollen wir uns keineswegs über die Physiker lustig machen, sondern erkennen darin ganz normale menschliche Regungen, die zur Aufrechterhaltung des Wirklichkeitsbildes dienen, auf das wir alle ganz elementar angewiesen sind. Und diesen Hinweis bringen wir auch wieder nur deshalb, um daran deutlich zu machen, wie sehr konstruiert unsere gesamte Wirklichkeit in jeder Hinsicht ist. Nach außen hin aber bleibt uns das Bild bewahrt, das wir weiterhin von der Wissenschaft und den Wissenschaftlern haben, und das ist wichtig, denn im Grunde ist darauf unsere gesamte Gesellschaft mit allen ihren Bewußtseinsinhalten aufgebaut. Die Physiker zeigen uns ihre großen Erfolge, ihre tiefe Verunsicherung aber behalten sie tunlichst für sich. Diese Verunsicherung ist in doppelter Hinsicht verständlich, denn einerseits wurde ihnen ihr ureigenstes Fundament unter den Füßen fortgerissen, und andererseits müssen sie jede weitere Tätigkeit auf diesem nun so schwankenden Boden infragestellen, da ja doch alle ihre Meßergebnisse unmittelbar beobachtererzeugt zu sein scheinen. Tatsächlich stellen sich aber doch viele Physiker diesem Problem, und es gibt unter ihnen viele verschiedene Interpretationen, mit denen sie die beobachteten Dinge zu deuten versuchen. Wir wollen die wichtigsten davon im folgenden aufzählen:

 

1) Die Kopenhagener Interpretation

(benannt nach dem dänischen Physiker Niels Bohr, dem diese These zugeschrieben wird und der als der wohl maßgeblichste Interpret der Quantenwelt gelten kann).

Diese Interpretation hat inzwischen die größte Verbreitung gefunden. Ihr zufolge gibt es keine tiefere Realität hinter den beobachteten Ereignissen, und es gibt kein Bedürfnis wie auch keine Möglichkeit für uns, hinter irgendeinen Vorhang zu sehen. Man muß deshalb das Verhalten der Quanten letztlich auf den bloßen Zufall zurückführen. Schließlich ist die uns bekannte Erscheinungswelt der Quantenwelt aufgedoppelt, und es kann uns demnach genügen, daß die Quantenwelt zumindest in der Lage ist, dieser Erscheinungswelt als Trägermedium zu dienen. Dieses ist keineswegs eine nur etwas bequeme Einstellung, sondern gründet auf der Überzeugung, daß die Erscheinungswelt nicht lediglich und letzten Endes ein Ergebnis der Quantenvorgänge ist, sondern etwas ganz anderes. Das Ganze ist mehr als die Summe seiner Teile, hieße das demnach. In der Tat war Bohr keineswegs nur ein bloßer Pragmatiker, der mit seiner These eben wie die breite Mehrheit der Physiker oder Techniker nur sagen wollte, gewisse Fragen hätten keinen Sinn, sondern seine Sicht war durchaus philosophisch gemeint. Er meinte tatsächlich nichts anderes, als daß es keine eigentliche Quantenwelt gebe, und daß es demnach nur eine rein abstrakte quantenmechanische Beschreibung ihrer Manifestationen gebe. Obwohl es gute Gründe dafür gibt, die Dinge so zu sehen, wehrte sich doch gerade Einstein erheblich gegen die Annahme, daß es wirklich keine tiefere Realität auf der Quantenebene geben sollte. Berühmt geworden ist in diesem Zusammenhang sein Ausspruch: "Gott würfelt nicht." Er wollte also an der Determiniertheit aller Dinge festhalten und führte die Unmöglichkeit, ihrer wahren Natur auf den Grund gehen zu können, auf die Beschränktheit unserer Erkenntnisfähigkeit zurück. Er erdachte immer wieder neue Gedankenexperimente, um die Vertreter der Bohrschen These zu widerlegen, wurde aber von diesen stets seinerseits durch seine eigenen Thesen widerlegt, wie Werner Heisenberg in seinen Erinnerungen 'Der Teil und das Ganze' beschreibt. Dieser war der Freund und Schüler Bohrs und gehörte zu den bedeutendsten Verfechtern der Bohrschen These. Nach Heisenbergs Meinung ist die Hoffnung, jemals durch geeignetere Erkenntnismethoden eine determiniertere Quantennatur zu entdecken, ebenso unbegründet wie die Hoffnung, "in unerforschten Gebieten der Antarktis das Ende der Welt zu entdecken." Mit anderen Worten, auch er war der Ansicht, daß sich ein tieferes Prinzip hinter der Undeterminiertheit verbirgt.

Wir müßten uns übrigens in der Tat fragen, in wiefern uns die Entdeckung weiterbrächte, daß es doch eine sehr bestimmte Quantenwelt gibt. In gewisser Weise ist eine solche Annahme ja der These vergleichbar, daß das Leben unseres Planeten von einem anderen Stern kommt, denn hätten wir ganz bestimmte und feste Korpuskeln, müßten wir uns sogleich fragen, woher diese denn ihre Bestimmtheit nähmen und woraus diese wirklich beschaffen wären. Im Altertum gab es ein Weltmodell, demzufolge die Erdscheibe auf dem Rücken einer Schildkröte ruhte. Und um zu erklären, worauf diese Schildkröte ruhte, nahm man an, daß sie auf dem Rücken einer anderen Schildkröte saß und so fort. Mit einem Wort: wir kommen doch nicht um die Erkenntnis herum, daß sich der Urgrund der Dinge irgendwo im Nichts auflösen muß, bisher ist es uns immer nur gelungen, uns um diese letzte Konsequenz herumzumogeln.


 

 

Verschiedene weitere Erklärungsversuche

 

2) Die Kopenhagener Interpretation in einer anderen Variante.

Dieser These zufolge gibt es zwar keine tiefere Quantenwirklichkeit, dennoch aber eine Wirklichkeit der Erscheinungen, die sich daraus manifestieren. Diese Manifestation erfolgt durch den Beobachtungsvorgang. So gesehen ist also jede Manifestation eine Interferenzerscheinung aus der nur potentiellen Quantenrealität und der bewußtseinsbedingten Beobachterinterpretation. Das hieße, daß es ohne eine Beobachtung gar keine Realität gibt, und daß nur der Beobachtungsvorgang diese Realität erschafft. Demzufolge besäßen wir alle eine geradezu magische Fähigkeit, uns eine Welt zu erschaffen, die es eigentlich gar nicht gibt und der keine tiefere Wirklichkeit entspricht. Kein elementares Ding existiert wirklich, bevor es ein beobachtetes Phänomen geworden ist, heißt das im Klartext. Damit kommen wir auf eine alte philosophische Sicht der Dinge zurück, für die vor allem der Name des Bischofs Berkeley steht, wie bereits in unserer anfänglichen historischen Aufstellung erwähnt. So gesehen ist die tiefere Natur der manifesten Welt eigentlich geistiger Art. Der wahre Urstoff der Welt wäre also weder Materie, noch Energie, sondern nur der Geist.

 

3) Die These der impliziten oder eingefalteten Ordnung.

Dieser Interpretation zufolge gibt es allerdings hinter dem 'Vorhang', also unterhalb der Quantenstufe, eine tiefere Wirklichkeit, die jedoch bisher nur durch verborgene Variablen beschrieben werden kann, während es aber durchaus möglich ist, daß wir eines Tages besser hinter den Vorhang sehen können. Hiernach ist das Quantenverhalten also keineswegs rein zufällig, sondern gehorcht tieferen Gesetzmäßigkeiten, denen zufolge die Quanten gute Gründe haben, warum sie sich so und nicht anders verhalten, wenn wir diese Gründe auch (noch) nicht zu durchschauen vermögen. Diese These kommt der Meinung Einsteins sehr nahe, und es gibt neuerdings einen Trend unter jüngeren Physikern in diese Richtung. Der eingangs zitierte Fritjof Capra sowie vor allem der englische Physiker David Bohm gehören zu ihnen. Letzterer vertritt eine Theorie der 'impliziten Ordnung', das heißt ein gewissermaßen holografisches Weltbild, demzufolge in jedem Teil des Universums bereits dessen gesamte Information, wenn auch in vielleicht etwas verschwommener Form, enthalten ist. Wir kommen später noch darauf zurück. Trotz der Aufspaltung der makroskopischen Welt in verschiedene sich stark unterscheidende Erscheinungen ist die Welt in ihrem Urgrund ganzheitlich verbunden. Danach ist eine Aufteilung der Welt in Subjekt und Objekt nicht möglich, denn beides bedingt sich wechselseitig und ist sogar wesentlich eins. Obwohl diese Sichtweise wie gesagt völlig im Widerspruch zu unserem materialistischen Weltbild steht, kann sie prinzipiell nicht gerade als neu bezeichnet werden, wie wir unserer anfänglichen historischen Übersicht entnehmen können. Es scheint aber so zu sein, daß die Dinge umso mehr zusammengehören, je näher sie sich sind, wobei allerdings dieser Bezug nicht unbedingt in räumlicher oder zeitlicher Hinsicht gelten muß, sondern vielleicht vielmehr in sinngebender Weise zu sehen ist. Dieses wiederum erinnert an die Lehre der 'Synchronizität' von C.G. Jung und Wolfgang Pauli, auf die wir noch zu sprechen kommen.

 

4) Die Viele-Welten-Theorie.

Die Welt besteht danach aus einer bei allen Entscheidungsvorgängen permanent anwachsenden Zahl von Universen. Wenn also etwa eine Münze geworfen wird, wird tatsächlich keine Entscheidung zwischen Kopf oder Zahl getroffen, sondern beide Ereignisse treten ein, wobei sich aber jeweils das Universum in zwei Teiluniversen teilt, in der beide Realitäten eintreten, während wir selbst danach in nur einem dieser Universen weiterexistieren und während unser anderes Ich in einem anderen Universum weiterexistiert, von dem wir dann aber keine Ahnung mehr haben. Diese in der Tat etwas exentrisch anmutende Theorie hat den Vorzug, verschiedene sich widersprechende Ergebnisse und Quantenereignisse (wie etwa das Meßproblem) ohne Widerspruch erklären zu können. Aus diesem Grunde hat auch diese Theorie allen Ernstes nicht wenige und nicht unbedeutende Anhänger. Dieser Viele-Welten-Theorie scheint die vor allem von Heisenberg verfochtende These, daß es nicht einmal eine einzige existierende Welt gibt, polar gegenüberzustehen. Eine solche lediglich potentiell existierende Welt ist aber eigentlich davon doch nur noch graduell zu unterscheiden.

 

 

5) Der neue Realismus.

Danach ist die Welt tatsächlich so, wie sie uns erscheint, und sie existiert auch unabhängig von uns, egal ob wir sie wahrnehmen oder nicht. So exotisch uns die Viele-Welten-Theorie anmuten muß, so naiv müßte uns eigentlich mittlerweile diese Auffassung erscheinen, aber Einstein stand ihr im Grunde gar nicht so fern, und auch Max Planck könnte zu ihren Vertretern gerechnet werden. Muß es nicht eine tiefere Wahrheit oder Ursache hinter den Erscheinungen geben, also etwas, das dafür verantwortlich ist, daß die Dinge sich in einer Art und Weise manifestieren, daß wir ein so vollkommenes Wirklichkeitserlebnis haben, und geht demnach nicht jede Hinterfragung und Auseinanderpflückung an der eigentlichen Natur der Dinge vorbei? Einstein scheint dieser makroskopischen Realität einen größeren Wert beigemessen zu haben als der mikroskopischen und war, wenn man es so sagen darf, bereit, letztere zugunsten ersterer zu opfern. Er verfocht aber vor allem gegen Bohr die Auffassung, daß es doch eines Tages noch möglich sein würde, beide Realitäten in eine wie auch immer geartete Übereinstimmung zu bringen. Auf einer lediglich wahrscheinlichkeitsbedingten Basis wollte er die Welt nicht aufgebaut sehen.


 

Und noch weitere Modelle

 

 

6) Die Notwendigkeit einer neuen Logik.

Wenn man, so meinen die Verfechter dieser Auffassung, beide Realitäten nicht in Übereinstimmung bringen kann, so liegt das möglicherweise nur an unseren auf die makroskopischen Realitäten fixierten Denkgewohnheiten, die nicht zuletzt auch sehr unmittelbar mit unseren Sprachgewohnheiten verknüpft sind. In gewisser Weise folgt unser ganzes auch individuelles Denken lediglich Denkkonventionen, wir denken (wie schon gesagt) in Assoziationen, das heißt Denkmustern, die neue ähnliche Denkmuster hervorbringen, wobei Logig im Grunde nichts anderes ist als Erfahrung. Deshalb muß unsere Logik in einem Bereich versagen, in dem wir bisher noch keine Erfahrung haben sammeln können. Ebenso wie Einstein mit unseren überkommenen Zeitvorstellungen aufgeräumt und uns dadurch auch die Willkürlichkeit unserer Denkstrukturen offenbart hat, könnte es möglich sein, mit neuen Auffassungen an die Quantenerfahrungen heranzugehen und sie durch neue Denkstrukturen so mit der makroskopischen Erfahrungswelt in Verbindung zu bringen, daß beide nicht mehr in Widerspruch zueinander erscheinen. Leben wir denn nicht auch in der makroskopischen Welt in einem wahren Wust von unterschiedlichen und teilweise sehr gegensätzlichen Phänomenen, die wir dennoch letztlich alle in ein uns als folgerichtig erscheinendes Gesamt-Denksystem integriert haben? So wäre es also nicht so sehr nötig, neue Theorien über die unterschiedlichen Erscheinungen der Quanten- und der makroskopischen Erscheinungswelt zu entwickeln, als vielmehr neue Denktheorien und logische Systeme.

 

7) Die Realität wird erst durch das Bewußtsein des Beobachters erschaffen.

Demnach kann die Realität nur durch ein höherentwickeltes Bewußtsein als solche erlebt werden, und wo kein derartiges Erlebnis ist, da existiert auch tatsächlich nichts. Also hätte es zu einer Zeit, da etwa nur einzellige Lebewesen wie zum Beispiel Amöben existierten, auch keine außer deren Wahrnehmung vorhandene Realität gegeben. Eine Amöbe hat kein Raum- und Zeiterlebnis, also gibt es auch weder Raum noch Zeit. Hier könnte man etwa Kant zitieren mit seiner Auffassung, daß Raum und Zeit nur apriorische Denknotwendigkeiten sind. Tatsächlich wird mit dieser Auffassung zumeist nur Kant zitiert, aber auch Leibniz und Schopenhauer haben sich ähnlich geäußert. Der österreichisch-ungarische Physiker und Mathematiker Johann von Neumann hat die Auffassung der bewußtseinserzeugten Realität in seinem berühmten, bereits 1932 erschienenen Buch 'Mathematische Grundlagen der Quantenmechanik' am radikalsten formuliert: "Das in der wahrgenommenen makroskopischen Welt herrschende Prinzip der Kontinuität ('Natura non facit saltus') wird nur durch einen Mitteilungsprozeß in der ihrem Wesen nach diskontinuierlichen Welt vorgetäuscht - dadurch, daß der Mensch meistens nur die Summe vieler Quadrillonen von Elementarprozessen auf einmal apperzipiert, so daß das alles nivellierende Gesetz der großen Zahlen die wahre Natur der einzelnen Prozesse völlig verschleiert." Mit anderen Worten: die Erscheinungswelt ist eine lediglich durch das erkennende Bewußtsein auf die eigentliche Potentiarealität aufgedoppelte Eigenschaft. Die Potentiarealität der Quantenebene kann man sich dabei am besten als eine Art Flimmerkasten aller gleichzeitig bestehenden Möglichkeiten vorstellen, in der die Bestimmtheiten erst dadurch entstehen, daß der Beobachterprozeß, also das erkennende Bewußtsein, sie manifestiert. Die Gegenstände der Erscheinungswelt hätten keine Eigenschaften, wenn sie nicht von einem bewußten Betrachter wahrgenommen würden, und das gilt zum Beispiel nicht nur für die ja wirklich erst in unserem Kopf entstehenden Farben, sondern darüber hinaus auch für die Wellen oder Schwingungen, die für den Farbeindruck verantwortlich sind. Unsere gesamte Realität wird also nur durch das Bewußtsein erzeugt. Wenn wir zu den Grenzen unserer Welt vorzudringen versuchen, begegnen wir am Ende niemandem als uns selbst. Vielleicht mag auch diese Theorie sehr bizarr anmuten, man muß aber wissen, daß von Neumann nicht irgendwer war. Letztlich geht das gesamte Computerzeitalter auf ihn zurück. Sein eigentliches Tätigkeitsfeld waren die USA, wo er noch heute als der Vater der Computertechnik angesehen wird.

 

 

8) Eine weitere Spielart der bewußtseinserzeugten Realität.

Sie geht in sofern noch über die vorige Version hinaus, als sie fragt, ob nicht das Bewußtsein erst die Welt erschafft. Das heißt, nicht nur die aufgedoppelten Erscheinungen sind Bewußtseinsprodukt, sondern überhaupt alles. Mit anderen Worten, der Beobachter ist in gewisser Weise identisch mit dem Weltenschöpfer, also Gott. Man kann das etwas abgemildert so auffassen, daß Gott durch die Augen des Betrachters in die Welt blickt und sie dadurch erst in diesem Moment erschafft. Hier gibt es viele untergeordnete Spielarten: bin ich Gott, oder sind wir alle es? Gibt es nur mich, oder sind die anderen auch existent, jedoch lediglich als Spielarten meiner selbst? Und so weiter.

 

9) Die Potentia-Welt.

Wir hatten diese vor allem von Heisenberg vertretene Version bereits erwähnt. Danach gibt es gar keine tiefere Realität, wie bereits die Kopenhagener Deutung sagt, doch die Erscheinungen sind sehr wohl real. Nach Heisenberg gibt es unterhalb der Quantenebene nichts Faktisches, sondern lediglich Potentialitäten, also Wahrscheinlichkeiten oder Verwirklichungstendenzen. Alles ist zugleich möglich, und theoretisch existieren hier wirklich viele Universen gleichzeitig, jedoch auf einer für uns sehr befremdlichen Ebene, in der noch nichts endgültig festgelegt ist. Die uns vertraute Wirklichkeit ist somit gewissermaßen nur eine Bündelung dieser vielen zugleich existierenden Möglichkeiten, in der sich die Vielfalt zu einer Einzelheit manifestiert und hochsteigert, vergleichbar einem kollektiven Konsens. Man könnte auch den Vergleich einer Massenpartei wählen, in der die Vielfalt der Meinungen der einzelnen Mitglieder zu einem Gesamtbeschluß zusammengefaßt wird, der zwar keinem der einzelnen Mitglieder wirklich behagt, aber gewissermaßen der kleinste gemeinsame Nenner ist, wobei äußere Gegebenheiten und gesellschaftliche Denkströmungen (die in diesem Bild für das erkennende Bewußtsein stehen können) den Ausschlag zu diesem Entschluß gegeben haben. Aber auch das Denken der einzelnen Parteimitglieder ist wechselseitig durch die Gesamtgesellschaft bestimmt, wodurch sich der Kreis von hinten schließt, sodaß man auch wieder sagen kann: das, was das Betrachter erkennt, ist letztlich nur er selbst und seine Auffassung von den Dingen.


 

 

 

Vielleicht nur eine Fiktion.

In dem Doppelspalt-Experiment konnten wir die Wege der einzelnen Photonen nicht bestimmen. Wir wußten lediglich, welches Interferenzmuster auf der Projektionswand erscheinen würde, wir wußten aber nichts über das einzelne Photon. Alles, was wir über das einzelne Quant wissen, ist wie gesagt die Wahrscheinlichkeit seines voraussichtlichen Verhaltens. Einstein hielt es für möglich, daß Photonen durch 'Geisterwellen' geleitet würden, wobei dieser Begriff allerdings für ihn eine lediglich mathematische Größe war, der keine eigentliche Realität zukam. Weder Wellen noch Quanten waren demnach wirkliche Gegebenheiten, sondern bloße Projektionen in die Wirklichkeit von einer dahinter verborgenen Wesenheit, die eben nicht von dieser Welt war und sich somit nur mathematisch beschreiben ließ. Weder unsere Worte, noch unsere durch die Worte geprägte Begriffsfähigkeit reichen aus, diese Gegebenheit wirklich zu erfassen. Hinter jener Wand, die unsere Welt gegen die Potentia-Ebene abgrenzt, liegen Energieströme, in denen auf eine uns verborgene Weise Informationen gespeichert sind, die sich unter dem Auge des Beobachters auf eine Weise manifestieren, die grundsätzlich für den Einzelfall unberechenbar ist. Ein einzelnes Elementarteilchen ist vielleicht nur eine Fiktion, eine rein abstrakte Annahme, es ist keine wirklich abzusondernde Einheit, die unabhängig und für sich existiert. Das heißt, es gibt gar keine einzelnen Partikel, es gibt sie als solche nur in unserer Vorstellung, weil wir nicht anders können, als alles auf Grundelemente zurückzuführen, während die Welt nur ganzheitlich zu verstehen ist. Alle Eigenschaften des Elektrons wie Masse, Ladung, Spin oder Ort sind nur rein statistische Eigenschaften. Eine Analogie bietet hier die Biologie: wenn wir ein Lebewesen auseinandernehmen und in seine Einzelteile zerlegen, werden wir niemals erfahren, wie es denn nun wirklich funktioniert, weil wir es durch einen solchen Bebachtungsvorgang zugleich töten. Der Begriff 'Leben' ist eben auch nur ein holistischer Begriff, und so muß man es wohl auch bezüglich des Quantenverhaltens sehen. Wir wissen ja, daß unser Erkenntnisapparat, das Gehirn, holistisch arbeitet, und somit ist eine makroskopische Erscheinung wie etwa der Stuhl, auf dem wir gerade sitzen, nichts anderes als eine begriffliche Fiktion, die wir dementsprechend auch den Quantenvorgängen auferlegen beziehungsweise in sie hineininterpretieren. Demgegenüber ist das einzelne Quant also lediglich eine reine Abstraktion, und es ist einfach nicht zulässig, ein einzelnes Quant zu betrachten. Wie wollten wir zum Beispiel etwas über den Aufbau eines Ameisenhaufens erfahren, wenn wir lediglich eine einzelne Ameise mit in unser Labor nehmen, um aus ihr etwas darüber zu erfahren? Wir wissen, daß es unzulässig ist, eine einzelne Ameise zu betrachten, weil sie in viel höherem Maße ein Kollektivwesen ist, als wir das etwa von Tieren wissen, die keine Staaten bilden. Wir können etwas über das Wesen des als Einzelgänger bekannten Tigers erfahren, wenn wir ihn einzeln betrachten (und auch das nur, solange wir ihn nicht aus seiner vertrauten Umwelt herausnehmen), nicht aber können wir aus der Betrachtung einer einzelnen Ameise etwas über ihr eigentliches Wesen erfahren. Wir sagen bewußt sogar: 'über ihr eigentliches Wesen', und nicht lediglich: 'über den Ameisenstaat', denn dieses Tier zeigt sein eigentliches Wesen erst im Kollektiv. Das gleiche kann man etwa über Stare sagen, deren oft erstaunliche Flugformationen ungeahnte Fähigkeiten des einzelnen Vogels erkennen lassen, die sich aber eben nicht im einzelnen Vogel manifestieren, sondern erst im Kollektiv. Das Ganze ist mehr als die Summe seiner Teile!

Die Flugformationen der Stare sind demnach vergleichbar mit den Manifestationen unserer Erfahrungswelt, doch ebenso wie dort ist es nicht zulässig zu glauben, daß solche Manifestationen sich auf Einzelereignisse zurückführen lassen. Man kann davon ausgehen, daß der einzelne Star sich außerhalb seines Kollektivs ganz anders verhalten würde als in der Gesellschaft seiner Artgenossen. Vermutlich wäre er völlig desorientiert und hätte gar keine Lust zu fliegen, jedenfalls aber nicht so. Man kann auch hier fragen, wieso der einzelne Star in seinem Kollektiv weiß, wie der Schwarm insgesamt zu fliegen beabsichtigt. Bedarf es dazu nicht einer vorherigen Absprache, damit es zu immer wieder neuen und interessanten Flugmustern kommt? Ganz sicher kommen solche Formationen nicht rein zufällig zustande, denn sie sind alles andere als chaotisch. Sie bilden immer wieder geradezu unglaubliche Harmonien. Doch wie kann der einzelne Vogel diese Formationen aus seiner einzelnen Perspektive auch nur sehen, da sie nur von unten so erscheinen? Auch hier kommen wir zu dem Phänomen, daß solche Formationen möglicherweise nur dem menschlichen Harmonieverständnis als harmonisch erscheinen. Jedenfalls aber haben wir hier eine schöne Analogie, die uns das Quantenverhalten zwar nicht verständlicher macht, aber doch nicht als ein völlig unbekanntes Phänomen erscheinen läßt.

Was das Photonenverhalten in dem Doppelschlitzversuch angeht, so lieferte übrigens Nils Bohr ein interessantes Erklärungsmodell. Demnach kann man sich vorstellen, daß ein und dasselbe Photon zugleich durch beide Schlitze geht, aber in zwei unterschiedlichen Welten ('Viele-Welten-Theorie'). Das Interferenzmuster ergibt sich danach als Überlagerung beider Welten. Er stellte sich diese Mischwirklichkeit nicht als bloße Gesamtsumme beider Welten, sondern als deren innige Verschmelzung vor. Jede der beiden Welten wirkt als Interferenz auf die andere ein und bewirkt das Zustandekommen des bekannten Musters. Dieses Denkmodell hat etwas Bestechendes, denn es könnte uns auch viele Schicksalsereignisse, die wir bisher nur als bloßen Zufall sahen, in einem neuen Lichte sehen lassen, wie auch Jungs Synchronizitäts- Lehre. Deja-vu-Erlebnisse ließen sich vielleicht als Doppelbelichtungen erklären und so weiter.


 

Die beobachterbedingte Realität

Das Problem der beobachtererzeugten Realität enthält aber eine scheinbar unlösbare Paradoxie. Wenn wir durch Beobachtung eine Möglichkeit zu einer Tatsache werden lassen, beeinflussen wir ja die Entwicklung der Möglichkeiten, wir beeinflussen den Gang der Dinge und tun damit der sich erst entwickelnden Realität vorzeitig Gewalt an. Dieses erinnert an das Zeitparadoxon, nach dem es eigentlich unmöglich sein müßte, mittels einer Zeitmaschine in die Vergangenheit zurückzugelangen, um dort die Weichen in einer uns angenehmen Weise für uns zu stellen. Hätten wir etwa so unseren Urgroßvater vor einem verhängnisvollen Unfall bewahrt, wäre sein ganzes Leben möglicherweise anders verlaufen, und er hätte eine andere Frau als unsere als Krankenschwester tätige Urgroßmutter kennengelernt und geheiratet, und somit hätte es uns gar nicht gegeben. Dieses ist ein ernstes Problem bezüglich der Determiniertheit einer Kausalkette, das auch mit dem Meßproblem zusammenhängt, wenn auch nur im Bereich des uns vielleicht als wirklichkeitsfremd erscheinenden Mikrokosmos. Die Erklärung des mangelnden  Wirklichkeitsbezuges vermag aber nur Pragmatiker zu beruhigen, nicht aber prinzipiell denkende Menschen, die alles auf den Punkt bringen wollen.

Die Verwirklichungstendenzen der Potentiawelt werden mathematisch durch die sogenannte 'Wellenfunktion' dargestellt. Dabei handelt es sich um eine reine Abstraktion, mit der man aber zu rechnen versucht und in der alle potentiellen Möglichkeiten erfaßt werden, die in einem beobachteten System vorhanden sind und die sich durch den Beobachterprozeß manifestieren. Diese Wellenfunktion kann man als die Sprache der Elektronen auffassen, in der entsprechend dem holographischen Weltbild die Gesamtheit aller Informationen gespeichert ist. Mit dem Begriff der Wellenfunktion ist vor allem der Name des österreichischen Physikers Erwin Schrödinger verbunden, der für diese eine bestimmte Wellengleichung entwickelt hat, die die isolierte Betrachtung von einzelnen Materieteilchen zwischen vorbereitendem Messungs- und endgültigem Beobachtungsvorgang ermöglichen soll. Solange wir das System sich selbst überlassen, bleibt es dabei, sich entsprechend der Wellengleichung im Rahmen lediglich potentieller Möglichkeiten zu verhalten, sobald wir jedoch die Messung durchführen, kommt es zum 'Wellenkollaps', das heißt, alle anderen potentiellen Möglichkeiten verzichten auf ihre bloß wahrscheinliche Realisierungstendenz zugunsten einer unter ihnen, die dann in den Status einer eindeutigen Manifestation in dieser Welt gehoben wird. Eine solche Entwicklung versucht man mit der Wellengleichung zu berechnen. Es ist aber zu bedenken, daß es sich auch dabei immer nur um Wahrscheinlichkeiten handeln kann, während sich das einzelne Ereignis auch ganz anders manifestieren kann.

In der Sprache der Wellenfunktion ist die ganze Welt kodiert, was vor allem nach dem Überlagerungsprinzip geschieht, nachdem sich verschiedene Wellenstrukturen gegenseitig addieren oder subtrahieren können, ähnlich den Überlagerungsphänomenen bei sich gegenseitig überschneidenden konzentrischen Wellenkreisen, die von zwei in einen See geworfenen Kieselsteinen ausgehen. So können also keine Informationen verlorengehen, weil sich derartige Interferenzmuster immer wieder rückwärts entschlüsseln lassen. Jede Welle, die durch eine andere Welle hindurchgeht und sie überschneidet, verändert dabei nur während dieser Passage vorübergehend ihre Gestalt, geht danach aber unverändert weiter. Übrigens kann man sich auch den Elektronensprung als ein derartiges Interferenzphänomen vorstellen: wenn sich die Bilder zweier Wellenmuster gegenseitig überlagern, dann kann nur eine geringe Verschiebung beider Ebenen dazu führen, daß hier eine Interferenzaufdoppelung verschwindet, während sie gleichzeitig(!) woanders auftaucht! In einem solchen Interferenzmuster kann die Energie sehr plötzlich von einem Ort lokaler Konzentration zu einem anderen wechseln. Theoretisch kann dabei aber jede beliebige Wellengestalt aus einer Mehrzahl von Einzelwellen aufgebaut sein, die etwa alle für sich auch nur die Form einer sehr reinen Sinuswelle haben könnten, sodaß sich hinterher ein Wellenmuster ergibt, das vielleicht demjenigen gleicht, aus dem sich unsere akustischen Signale zusammensetzen. Der Fähigkeit, Informationen zu verschlüsseln und weiterzugeben - etwa an andere Quanten, die letztlich selbst nichts anderes sind als Informationsbündel -, sind dabei keine Grenzen gesetzt.

Alle Elementarteilchen sind so gesehen nichts anderes als Ergebnisse (Interferenzen) von Wechselwirkungen verschiedener Energiefelder. Energiefelder sind praktisch über das ganze Atom verteilt und erzeugen permanent alle möglichen Teilchen, die aber sofort innerhalb von Mikrosekunden in die Potentiaebene wieder verschwinden, weil sie für den Aufbau der wirklichen Materie nicht benötigt werden. Wir können uns die Potentiawelt auch als multidimensional vorstellen, wenn wir jedem potentiellen Ort, an dem sich ein noch nicht manifestes Teilchen befindet, ein eigenes Koordinatensystem zuweisen. Demnach hätte jeder Ort drei Dimensionen, und die Vielzahl aller Orte also 3 x n Dimensionen. Wenn wir eine Messung durchführen, reduzieren wir diese Vieldimensionalität auf eine Dreidimensionalität, die uns eine Erfahrbarkeit ermöglicht, weil unser Gehirn nur auf diese geeicht ist. Aus dieser Betrachtung wird der bewußseinsbedingte Manifestationsvorgang verständlich. Sobald unser Bewußtsein in das Geschehen eingreift, reduziert es seiner apriorischen Arbeitsweise gemäß die Multidimensionalität auf die Dreidimensionalität und führt so ganz zwangsläufig den Wellenkollaps herbei. So plausibel uns dieser Vorgang so gesehen erscheinen mag, so weist er dennoch auf eine ganz fundamentale und nicht aus der Welt zu schaffende Verbindung von Subjekt und Objekt hin. Und diese Verbindung ist sicherlich nicht nur eine zufällige Schrulle der Quanten, sondern sie weist eindeutig darauf hin, daß es eine wesentliche Subjekt-Objekt-Trennung in Wirklichkeit gar nicht gibt, daß es sich dabei also nur um eine Illusion handelt. Alle manifesten Vorgänge unserer Erfahrungswelt sind aber als äußerst klar abgegrenzte Phänomene vorhanden, sie sind als das, was sie uns erscheinen, entweder da oder nicht da, sie sind rot oder blau, und wir kommen normalerweise nicht auf den Gedanken, daß sie sich hinter unserem Rücken möglicherweise ganz anders verhalten könnten.

Unsere Psyche sträubt sich allerdings dagegen, das einzusehen, weil wir ganz elementar auf die Bestimmtheit und Permanenz der manifesten Welt angewiesen sind, aber unser Verstand sollte begreifen, daß auch unsere Psyche insofern lediglich ein Mitarbeiter beim kollektiven Aufbau der Wirklichkeit ist. Wer schafft diese Realität? Die Antwort kann lauten: wir selbst! Aber das ist nur eine Teilantwort, denn wie gesagt gibt es keine Trennung zwischen Subjekt und Objekt. Wir sind also bezüglich dessen, was sich durch unser Zutun manifestiert, keineswegs frei. Aber wir können vielleicht festhalten, daß geistige Kräfte bei allen diesen Wechselbeziehungen eine ganz wesentliche Rolle spielen. Es gibt keine Trennung zwischen Materie und Energie, und es gibt auch keine Trennung zwischen toter Dingwelt und lebender Geistwelt. Materie, Energie und Geist erscheinen so nur als verschiedene Varianten einer gemeinsamen Wesenheit. Die Wellenfunktion hat sowohl materielle als auch ideelle Eigenschaften. Das, was wir als materielle Gegebenheiten erkennen, sind in Wirklichkeit Konstruktionen unserer psychisch bedingten Wahrnehmung. Dieser Gedanke mag dem Leser bisher noch schwer zu fassen sein, weil gewissermaßen die holistische Verarbeitung dieser Dinge vermutlich bei ihm erst auf der Stufe einer nur schwachen Potentialität steht - schließlich ist er noch voll in seinen üblichen Denkkategorien und psychischen Bedingtheiten befangen und unterliegt auch in sofern einer Massenhalluzination.


 

 

Das Wesen der Dinge

Aber solche Schwierigkeiten sind ganz natürlich und wie gesagt mindestens so sehr psychisch wie verstandesmäßig bedingt. In diesem Zusammenhang mag uns ein Zitat von Werner Heisenberg trösten: "Ich erinnere mich an viele Diskussionen mit Niels Bohr, die bis spät in die Nacht dauerten und fast in Verzweiflung endeten. Und wenn ich am Ende solcher Diskussionen allein einen kurzen Spaziergang im benachbarten Park unternahm, wiederholte ich mir immer und immer wieder die Frage, ob die Natur wirklich so absurd sein könne, wie sie uns in diesen Atomexperimenten erschien." - Aber eigentlich sind diese Schwierigkeiten wirklich nur durch unsere eingefahrenen Denkgewohnheiten bedingt, denn am Ende wird uns das Grundprinzip der Welt durch diese Erkenntnisse nicht als komplizierter, sondern sogar ganz im Gegenteil als sehr viel einfacher erscheinen, denn sie gestatten uns, die Vielfalt der Erscheinungswelt auf einige allerdings sehr abstrakte Wirkungsmechanismen zurückzuführen. Und daß man auf alle diese Erkenntnisse im Prinzip auch schon durch bloßes Nachdenken kommen kann, können wir bereits bei Schopenhauer nachlesen, der alle diese Erkenntnisse bereits im 19. Jahrhundert vorweggenommen hat..

Übrigens ist der Gedanke, daß auch die Wellen- oder Partikelgestalt der Elementarteilchen letztlich bewußtseinserzeugt ist, nicht ganz unbegründet. Die eigentliche Natur der Welt hat - wenn sie sich uns nur über unser Gehirn in Wechselwirkung mit diesem mitteilen kann - die Tendenz oder vielleicht gar keine andere Möglichkeit, als sich in der Terminologie unserer Analogiemuster zu artikulieren, die ihrerseits evolutionär als Folge einer gar nicht so sehr polaren permanenten Wechselwirkung zwischen Geist und Materie entstanden sind. So würde dann das Wellen- oder Teilchenmuster nur deshalb benutzt, weil es bereits sehr geläufige Anologien dazu aus der makroskopischen Welt gibt. Demnach wären dieses nur Vorstellungskrücken oder Erfassungsmuster, die dem Gehirn des Betrachters entspringen. Analog kann man sich denken, daß das Wesen der Dinge sich weiterer sehr bekannter Metaphern bedient, um sich verständlich zu machen und von seiner eigentlichen Natur Kunde zu geben. Somit wäre etwa die Wellenform lediglich als ein Wegweiser aufzufassen, der auf die anders nicht beschreibbare Natur des Quants hinweist. Sie ist eine Erscheinungsform dieser Welt, die von der eigentlichen Natur nur indirekt Kunde gibt. Vielleicht mag diese Auffassung als etwas sehr spekulativ erscheinen, sie hat aber den Vorteil, die Gegensätzlichkeit von Wellen- und Teilcheneigenschaft zu erklären, indem beide Bilder auch nur als Interferenzerscheinungen mit dem erkennenden Bewußtsein erscheinen. Wir sollten einmal daran denken, wie oft das stilisierte Bild des elektromagnetischen Feldes - zwei ineinanderverflochtene Ringe - sowohl in der dinglichen als auch in der davon gar nicht so leicht zu trennenden Ideenwelt vorkommt! Möglicherweise nicht zufällig erscheint es uns bei allen Schwierigkeiten beim Eintauchen in die letzten Geheimnisse der Welt stets so, als hätten wir so etwas eigentlich schon immer geahnt (siehe die alten Griechen), so, als erblickte sich das Bewußtsein letztlich nur selbst in einem Spiegel. Wir sollten daran denken, daß bezüglich der Natur des Lichtes auf einem niedrigeren Niveau die Alternativen Welle oder Teilchen schon in früheren Zeiten von den Physikern erörtert wurden und daß sich dadurch später Fakten geschaffen haben könnten. Wenn Walt Disney ein griechischer Philosoph gewesen wäre, würden uns möglicherweise heute die Elektronen wahlweise als Mickymäuse oder Donald Ducks erscheinen. Im Zusammenhang mit der Theorie der morphogenetischer Felder wird sehr deutlich vorausgesetzt, daß auf gedanklich noch nicht erschlossenem Gebiet Ideen die Wirklichkeit bestimmen können.

Wenn wir uns die Elementarteilchen lediglich als Manifestationen einer dahinter verborgenen tieferen Wirklichkeitsebene vorstellen, dann werden wir eigentlich von der Notwendigkeit befreit, uns das Atom als überwiegend völlig leer vorzustellen. Dann wäre dieser Raum durchaus nicht leer, er wäre durch sich selbst angefüllt, durch etwas, das man als Energiefeld oder Bewußtseinsfeld betrachten kann, das sich hier und da gelegentlich etwas kräuselt und dadurch punktuell starke Feldkonzentrationen hervorrufen kann, die wir dann als Materiebausteine betrachten. Wir können uns auch das Bild eines Wasserstrudels vor Augen führen, der durchaus stellenweise statische Muster aufweist, obwohl er eigentlich nur aus permanent fließendem Wasser besteht. So kann Materie nichts als eine aufgesetzte Manifestation eines in einer tieferen Existenzebene verborgenen Urstromes aller Dinge sein, vergleichbar den als 'Solitonen' bekannten Interferenzphänomenen. Derartige Solitone können wir auf jedem Wasserstrahl finden, es sind lokale punktweise Verdickungen, die sich entweder überhaupt nicht oder nur langsam vor- oder auch rückwärts bewegen. Auch auf Bachläufen kann man Solitone bisweilen beobachten, wenn die Strudelverhältnisse entsprechend sind. Auch Meereswellen sind eine Realität, die etwas über den Wasserfluß aussagt, denn sie entstehen auch bei auf der Stelle stehendem Wasser lediglich dadurch, daß sich alle Wasserpartikel im richtigen Moment auf und nieder senken, wobei es sich bei den Wellen praktisch nur um einen Informationsfluß und nicht um einen materiellen Fluß handelt. So stapeln sich auch die Möglichkeiten des Elektrons durch einen Informationsfluß zu handgreiflicher Materie auf, und aus Geist wird Materie.


 

 

Spukerscheinungen auf Blasenkammerfotos und das EPR-Experimant

Auf Blasenkammerfotos, auf denen Elektronenbahnen abgebildet sind, sehen wir offenbar wirkliche Spuren von Objekten, obwohl wir zwingend folgern müssen, daß diese tatsächlich unwirklich sind. Dabei handelt es sich dennoch ganz offensichtlich um Teile, die nicht nur potentiell existieren. Wir sehen also etwas, obwohl es nicht wirklich existiert. Das dafür infragekommende Denkmodell liefern die Solitone. Es ist nämlich durchaus nicht so, daß ein und dasselbe Elektron die sichtbare Spur erzeugt hat. Das bedeutet, daß durch ein Gruppenverhalten eine scheinbar statische Figur zustande kommt. Genaugenommen handelt es sich bei derartigen Fotos um paranormale Phänomene, sie sind also wirkliche Spukerscheinungen, mit denen es hier ausgerechnet die Physiker zu tun bekommen, die doch eigentlich von soetwas am allerwenigsten wissen wollen. Man sieht nämlich keineswegs durchgehende Elektronenbahnen, sondern immer nur Folgen von einzelnen winzigen Punkten, die von sehr vielen Elektronen stammen können, wobei die Kontinuierlichkeit der durchgehenden Linie ein Produkt des beobachtenden Bewußtseins zu sein scheint. Diese These ist zwar keineswegs unumstritten, aber die Annahme einer wirklichen Existenz der dargestellten Teilchen ist noch viel weniger haltbar. Wir können demnach nur feststellen, daß wir am Ende ein Foto in der Hand halten, auf dem etwas zu erkennen ist, aber wir dürfen nicht daraus auf eine eindeutige dahinter existierende Realität schließen. Die Realität existiert erst auf der Ebene des Fotos, das durch verschiedene Vorgänge zustande gekommen ist. Wenn wir diese zurückverfolgen, wird sich die Realität irgendwo ausblenden müssen. Aber sicher haben diese tatsächlich existierenden Fotos etwas Beruhigendes an sich, und sie ermöglichen es den Physikern, wieder zur Tagesordnung zurückzugehen und das Philosophieren denen zu überlassen, die nichts besseres zu tun haben. Der berühmte Mathematiker Johann von Neumann sagte einmal zu einem Schüler: "In der Mathematik brauchen Sie die Dinge nicht zu verstehen, Sie gewöhnen sich einfach an sie." Das gilt natürlich auch für die Physik und überhaupt alle Bereiche unserer Erfahrungswelt. Oft wird ein Phänomen einfach nur mit einem wissenschaftlichen Namen versehen, und selbst ein kritischer Geist unterliegt damit im Laufe der Zeit dem Eindruck, diese Sache sei bereits erklärt.

Übrigens können wir auch für die unmittelbaren Eigenschaften der Elementarteilchen davon ausgehen, daß sie beobachterbedingt sind. So zum Beispiel bei den sogenannten 'Spins'. In Wirklichkeit gibt es nämlich gar keine bestimmte Rotationsachse des Elektrons. Dieses scheint sich eher um alle möglichen Achsen gleichzeitig zu drehen, die lediglich eine bestimmte Tendenz haben, die sich aber infolge bewußter Beobachtung augenblicklich manifestiert. Diese Tatsache kann uns als Voraussetzung für ein bestimmtes Experiment dienen, für das wir zwei Elektronen benutzen, die einen genau entgegengesetzten Spin haben, sich also gegenseitig zu Null ergänzen (in dem Fall ihrer Beobachtung). Wenn wir diese beiden Elektronen nun auseinanderbringen, bleibt die sich gegenseitig ausgleichende Gesamtsumme ihrer Spins als definite Eigenschaft weiterhin bestehen, da sie schon ihre Identität ändern müßten, wenn sich ihre Spins änderten. Man sagt in ihrem Fall, sie seien miteinander phasenverwickelt oder befänden sich in einem Zustand paralleler Polarisation. Jede Phase eines dieser Teilchen hängt davon ab, was das andere gerade macht: sie sind miteinander 'korreliert'. Wir können jetzt diese beiden Teilchen in zwei weitentfernte Labors an entgegengesetzten Weltteilen bringen und dann eines davon durch einen Beobachtungsvorgang (etwa in Form einer Blasenkammeraufnahme) zum Kollaps bringen. Die logische Konsequenz dieses Experimentes ist ungeheuerlich: im gleichen Moment der Beobachtung muß sich auch das tausende von Kilometern entfernte andere Teilchen manifestieren, da es ja eine seiner definiten Eigenschaften ist, einen dem gemessenen Teilchen genau entgegengesetzten Spin zu haben. Woher aber kann dieses Teilchen in dem Moment wissen, was in dem anderen Labor am anderen Ende der Welt gleichzeitig geschieht? Es kann keine Botschaft erhalten haben, jedenfalls keine von dieser Welt, in der ja die Lichtgeschwindigkeit als höchste Geschwindigkeit gelten muß. Das Teilchen aber verändert sich augenblicklich. Dieses Experiment wurde als das EPR - Experiment bekannt, benannt nach Albert Einstein, Boris Podolsky und Nathan Rosen. Vor allem Einstein hatte es ursprünglich als Gedankenexperiment entwickelt, um damit Niels Bohrs Auffassung von einer 'Nicht-Lokalität' aller Ereignisse zu widerlegen, wie man solche Konsequenzen bezeichnete. Allerdings wurde nicht Bohr, sondern Einstein widerlegt, und zwar endgültig viele Jahre später durch den Physiker John Bell.


 

 

Das Bellsche Theorem

Das sogenannte Bellsche Theorem, das im Jahre 1964 veröffentlicht wurde,  beruht auf einer verbesserten Versuchsanordnung, die an jedem der Beobachtungsorte eine direkte nur auf Korrelation beruhende Beobachtung erlaubt. Man muß also nicht erst am anderen Ort nachfragen, was dort gemessen wurde, um erst danach und rückwirkend Vergleiche anstellen zu können. In diesem Experiment werden aus einer in der Mitte zwischen zwei Meßstationen liegenden Quelle miteinander korrelierte Photonenpaare ausgesendet, an denen bestimmte Eigenschaften gemessen werden, die davon abhängen, wie die an beiden Meßstationen jeweils verwendeten Calcitkristalle zueinander ausgerichtet sind. Das heißt, es ist unwichtig, wie die Kristalle an sich ausgerichtet sind, wichtig ist nur, wie sie zueinander stehen, sodaß das Meßergebnis am Ort A immer sowohl von der Calcitneigung dieses Ortes wie auch derjenigen des Ortes B abhängt. Wenn man den Kristall nun plötzlich anders ausrichtet, bekommt man ein anderes Meßergebnis, was nicht anders erklärt werden kann, als daß das gemessene Photon zugleich den Winkelstand des einen wie auch des anderen in jedem Augenblick kennen muß.

Da derartige Versuchsergebnisse auch über weiteste Entfernungen beibehalten werden, könnte man auf die Idee kommen, auf dieser Basis eine überlichtschnelle Informationsübermittlung zu konstruieren. Doch diese Annahme erweist sich als falsch, weil es sich hier um ausgesprochene Quantenereignisse handelt. Man stelle sich ein Bild vor, das aus unzähligen Bildpunkten besteht, die permanent alle für sich ständig ihre Helligkeit ändern können, ohne daß man jeweils weiß, was sie im einzelnen dazu bewegt, während sie doch insgesamt ein makroskopisches Bild ergeben, das auf ihrer Wahrscheinlichkeitsverteilung aufgebaut ist. Das heißt: ihre Gesamtsumme ergibt das Bild, während jedes einzelne Teilchen nach wie vor völlig unberechenbar bleibt. Es ist wohl wirklich so, daß dieses Quantenverhalten permanent durch nicht-lokale Ereignisse der geschilderten Art bestimmt ist, sodaß also auf der Quantenebene ständig alle Teile des Universums jenseits von Zeit und Raum miteinander in Verbindung stehen, während zugleich die aufgedoppelten Eigenschaften unserer makroskopischen Erscheinungswelt nur lokal bestimmt sind. Daraus folgt, daß eine nichtlokale Nachrichtenübermittlung unmöglich ist, da ein solcher Code ja auch eine aufgedoppelte makroskopische Eigenschaft wäre. Wenn also vor der Nachricht das Gesamtbild etwa konturlos flimmert, kann eine Quantennachricht an dieser Erscheinung nichts ändern, und sie würde dann nicht erkannt.

Als Konsequenz dieses Experimentes kommen wir zu dem Ergebnis, daß das Prinzip der örtlichen Ursachen falsch sein muß. Das wiederum wirft ein völlig neues Licht auf die uns scheinbar so bekannte Welt, in der alle möglichen Erscheinungen wie auf einer Bühne vor einem Vorhang ablaufen, hinter dem alles gleichzeitig abgesprochen ist, und zwar jenseits von Zeit und Raum, wie es allen Ernstes scheint. Es gibt also einzelne unabhängige Teile der Welt gar nicht, auf der Potentia-Ebene der Wellenfunktionen steht alles miteinander in Verbindung. Zwar gilt das nur für miteinander 'korrelierte' Teilchen, also solche, die irgendwann einmal zueinander gehörten, aber letztlich ist ja alles in der Welt zur Zeit des ‚Urknalls’ einmal zusammengewesen. Was da aber auch immer für ein Spiel gespielt wird - sicher ist, daß dabei nicht alles so ist, wie es uns erscheint, denn nicht nur die unmittelbar wahrgenommenen Dinge unserer Erfahrungswelt, sondern auch die Beobachtungen im Bereich der Quantenphysik werden durch den Beobachter bzw. dessen Bewußtsein beeinflußt. Gleichzeitig wäre es aber absurd, zu folgern, daß alles das, was uns da vorgegaukelt wird, bis in seinen tiefsten Wesenskern ein Produkt des menschliches Geistes sei, da wir ja doch wissen, daß der Mensch erst am Ende der unendlich langen Evolutionskette in die Welt gekommen ist, als bereits alle Quantenereignisse - wenn auch nicht bis hinein in jeden Einzelvorgang, so aber doch bezüglich ihrer aufgedoppelten Eigenschaften - festgelegt waren. Denn nur aus der physikalischen Welt und ihren Bausteinen ist die biologische aufgebaut und entstanden, und das gilt demnach auch für den Menschen und - so sollte man jedenfalls meinen - sein Bewußtsein. Auf welcher Bewußtseinsstufe also hat sich der Kollaps, der zu unserer Erscheinungswelt geführt hat, vollzogen? Sollten wir vielleicht etwas tiefer gehen, etwa versuchsweise bis zur Ebene der Mäuse? "Ich kann mir nicht vorstellen," sagte Einstein dazu, "daß eine Maus das Universum verändert, nur weil sie es betrachtet." Gerade hieraus aber leitete der Physiker Everett seine uns so absurd anmutende 'Viele-Welten-Theorie' ab. Nicht das Universum ändere sich durch den Beobachtungsprozeß, meinte er, sondern der Beobachter ändert sich, indem er aufgespalten wird. Wir sehen also, daß wir eine schwierige Wahl zu treffen haben zwischen zwei Annahmen, die uns beide gleichermaßen absurd erscheinen.


 

 

 

Schrödingers Katze

Der Physiker Erwin Schrödinger hat das Meßproblem mit einem dramatisierten Gedankenexperiment verdeutlicht, das seitdem als 'Schrödingers Katze' bekannt ist. Wenn man annimmt, daß nicht nur das, was am Ende einer Photonenbahn beobachtet wird, davon abhängig ist, welchen Weg ein einzelnes Photon nimmt, sondern das Leben einer Katze, die sich in einem abgeschlossenen kleinen Raum befindet, in den Giftgas einströmt oder nicht, je nachdem, welchen Weg das Photon nimmt, wird das Problem sehr klar. Irgendwo auf dem Wege zur Katze muß sich das Photon wohl oder übel bequemen, sich zu entscheiden und sich damit aus seiner vieldeutigen Potentiawelt herausbegeben. Jedenfalls werden wir beim Öffnen des Kastens entweder eine tote oder eine lebendige Katze vorfinden, und dieser Vorgang wird ebenfalls nicht anders als beobachterbedingt anzusehen sein. Aber durch wessen Beobachtung? Durch das des Menschen oder das der Katze? Wäre ersteres der Fall, so müßte sie gerade erst in dem Moment des Öffnens tot umfallen, was man noch feststellen könnte. Aber da es sich hier um einen sehr prinzipiellen Fall handelt, der nicht unserer Erfahrungswirklichkeit widersprechen darf, würde man solches sicher nicht beobachten können. Der Beobachtungsvorgang würde zwar den Kollaps herbeiführen, aber der würde dann nachträglich noch bis in die Vergangenheit hineinreichen, um dort ausgeführt zu werden. Will man diese Konsequenz vermeiden, bietet sich uns als einzige Zuflucht wieder nur die 'Viele-Welten-Theorie', derzufolge wirklich nachträglich noch eine Aufspaltung in zwei Universen festzustellen wäre, in denen beide Ereignisse eingetreten wären. Diese Theorie bietet also auch hier die einzige Alternative zu einer sonst ebenso schwierigen Annahme, nämlich der beobachterbedingten nachträglichen Beeinflussung der Vergangenheit, gleich ob es sich um das Bewußtsein der Katze oder des Menschen handelt. Wenn der Mensch also endlich den Kasten öffnet, würde er nach dieser Theorie zwar nicht nachträglich die Vergangenheit beeinflussen, aber er wüßte, in welchem Universum er sich nun befindet, entweder in dem mit der lebendigen oder in dem mit der toten Katze.

Oder sollen wir vielleicht sagen, dieses Gedankenexperiment sei schlechthin unzulässig, weil wir hier die Potentiawelt in die Ebene unserer Erscheinungswelt gehoben haben, und da gäbe es eben eine ganz klare Grenze? Demnach ist ja die Erscheinungswelt zwar der Quantenwelt aufgedoppelt, ohne sich aber deren Realität zu eigen machen, vergleichbar etwa auch einem Auto, das gleichfalls nur den Rädern und deren Realität aufgedoppelt ist, ohne sich deren Realität zu eigen zu machen, denn aus der Tatsache, daß sich die Räder drehen und jeden Straßenhuckel ausgleichen müssen, folgt nicht das gleiche Schicksal für die Karosserie. Dieses wäre zwar ein guter Ausweg aus unserem Dilemma, aber er funktioniert nicht. Es gibt tatsächlich lokale Quantenvorgänge, die zu konkreten Meßergebnissen in unserer Erscheinungswelt führen, sonst gäbe es nicht nur keine Blasenkammeraufnahmen, sondern überhaupt keine Quantenphysik.

Die vergangenheitsverändernde Wirkung bestimmter Beobachtungsvorgänge wurde auch im Bereich der Astronomie deutlich. Astronomen haben nämlich vor einigen Jahren zwei verschiedene Quasare mit absolut identischen Eigenschaften entdeckt, die außerhalb jeder Wahrscheinlichkeit lagen. Man konnte sich auf dieses merkwürdige Phänomen lange keinen Reim machen, bis man darauf kam, daß es sich um zwei verschiedene Bilder ein und desselben Quasars handelte, die durch Lichtbeugung zustandekamen. Zwischen diesen beiden Bildern befand sich nämlich eine selbst unsichtbare Galaxie, deren Gravitationsfeld die Ablenkung der Lichtstrahlen bewirkte. Nun können wir das einzelne Lichtquant betrachten und sehen, welchen Weg es zu uns genommen hat, links oder rechts an der Galaxie vorbei. Auf jeden Fall muß diese Entscheidung ja schon vor vielen Milliarden Jahren gefallen sein, da der Quasar entsprechend viele Lichtjahre entfernt ist. Dennoch können wir aber auch heute noch durch die Wahl des Experimentes bestimmen, wie das Meßergebnis ausfällt, ob wir also den rechten oder den linken Weg für das einzelne Quant postulieren können. Wir bringen dabei die beiden Strahlen, die von den unterschiedlichen Bildern ausgehen, durch eine Linse zusammen und lassen sie auf eine Bildplatte fallen. Dabei entsteht ein Interferenzmuster, die dem Wellencharakter des Lichtes entsprechen und für das einzelne Quant bedeuten, daß es beide Wege nahm. Man kann aber auch die Bildplatte von dem Brennpunkt der Linse fortbewegen, wo beide Strahlen noch oder schon wieder auseinanderliegen und erhalten dadurch zwei Quasarbilder auf ihr. Dieses heißt aber, daß jedes Photon nur einen Weg genommen hat. So sind wir also durch den Meßvorgang Herr über die Vergangenheit geworden, denn wir können heute noch bestimmen, welchen Weg das Photom vor vielen Milliarden Jahren gegangen ist. Auch dieses bestätigt die Auffassung, daß die Zeit eigentlich nichts anderes als eine vierte Raumkoordinate ist, und daß die uns gewohnte Unterteilung in Vergangenheit, Gegenwart und Zukunft eine rein subjektive Angelegenheit ist.

Wenn also das Bewußtsein des Betrachters, und demnach wohl jedenfalls ein höheres Bewußtsein, einen so großen Einfluß auf die Beschaffenheit auch der physikalischen Welt hat, erhebt sich die Frage, wie diese denn um Gottes Willen ausgesehen hat, bevor der Mensch oder seine Vorläufer die Bühne betraten. Handelte es sich allen Ernstes nur um eine Potentia-Welt, in der alle möglichen Ereignisse praktisch gleichzeitig irgendwie existierten, wenn auch vielleicht nicht so klar und eindeutig? Und gälte das gleiche für Bereiche des 'jetzt' existierenden Universums, die noch niemals bewußt erkannt wurden? Können wir uns demnach etwa die Dinosaurier sozusagen als verschmierte Potentia-Geistwesen vorstellen, die gleichzeitig andere Tiere fraßen oder nicht, vergleichbar etwa dem Hindugott Shiva mit seinen vielen Armen, die überall gleichzeitig zu sein scheinen? Es gibt nicht wenige, die wirklich dazu neigen, eine solche Auffassung zu vertreten. Man muß das vorsichtig ausdrücken, denn die Konsequenzen sind in der Tat verwirrend. Eine eindeutige Theorie mit hinreichender Erklärungsfähigkeit scheint nötig zu sein, aber immer noch zu fehlen. Aber es gibt ja auch in unserer Erfahrungswelt viele beobachtererzeugte Dinge. Ein Horizont zum Beispiel ist keine objektiv gegebene Sache. Oder ein Regenbogen, der aus jeder Perspektive sich anders erstreckt - von einem Punkt A zu einem Punkt B auf der Erdoberfläche, die vom jeweiligen Standort des Betrachters abhängen. Oder ein Spiegelbild, dem keine tatsächliche Wirklichkeit hinter der Spiegelglasscheibe entspricht.

Wenn der Beobachter so entscheidend in fundamentale physikalische Prozesse eingreifen kann, muß dem ein elementares Prinzip zugrundeliegen, das auf eine wechselseitige Bedingtheit von Geist und Materie hinweist. Vielleicht kann man die materielle gegen die geistige Welt am ehesten dadurch abgrenzen, daß man die allgegenwärtige und -mögliche, jedenfalls aber unklare und nicht festgelegte Potentiawelt als die eigentlich materielle Welt und demgegenüber jeden Festlegungsakt als das geistige Prinzip betrachtet. Die materielle Seite der Welt mischt also ständig alle Lose durcheinander, und der Geist greift dann eines der Lose heraus, was den Manifestationsakt beschließt. Demnach wäre jeder physikalische Körper unserer Erscheinungswelt eine Interferenzerscheinung von Geist und Materie, wenn man den üblichen Materiebegriff etwas abwandelt. Aber wir müssen große Schwierigkeiten haben, den Materiebegriff zu definieren, weil überall, wohin wir sehen, eben Materie manifest existiert. Wir teilen darin das Schicksal des König Midas, der kein guter Chemiker hätte werden können, weil er kein anderes Element als das Gold kennenlernen konnte.

Main page Contacts Search Contacts Search