Home > Philosophie, Physik > Wie kann Neues im Universum entstehen?

Wie kann Neues im Universum entstehen?

Eine der am besten untersuchten und experimentell bestätigten physikalischen Theorien ist die Quantenmechanik. Alle bisherigen Beobachtungen im Mikrokosmos werden von ihr mathematisch korrekt beschrieben und Ergebnisse richtig vorhergesagt. Im Gegensatz dazu wirft ihre philosophische Interpretation Fragen auf. Einige Teilcheneigenschaften haben vor einer Messung keinen festgelegten Wert. Man kann in Form der sogenannten Wellenfunktion nur eine Wahrscheinlichkeit für jeden möglichen Wert angeben. Bei einer Beobachtung wird genau ein Wert gemessen, die Wellenfunktion selbst wird irrelevant. Die heute am häufigsten vertretene Interpretation des Messvorgangs als eines „Kollaps der Wellenfunktion“ wird als „Kopenhagener Deutung der Quantenmechanik“ bezeichnet.

Das dabei für eine philosophische Interpretation Merkwürdige ist die angenommene Bedeutung des Messvorgangs. Vor der Messung gibt es eine Vielzahl von möglichen Ergebnissen, bei der Messung wird nur ein einziger realisiert. Der Formalismus der Quantentheorie ist offenbar richtig, denn bei einer großen Zahl von Experimenten wurde gezeigt, dass es sich tatsächlich nicht um eine bloße Unkenntnis des Beobachters bzgl. des wahren Wertes handelt, der gemessene Wert existiert vor der Messung tatsächlich noch nicht.

Die Seltsamkeit der Quantentheorie rührt daher, dass man für eine messbare Eigenschaft annimmt, dass sie vor der Messung bereits existiert, aber keinen Wert hat. Überträgt man dieses Verhalten auf die Welt der uns mit unseren Sinnen unmittelbar zugänglichen Objekte, dann könnte man z.B. behaupten, ein Objekt hätte eine Farbe, aber diese sei vor ihrer Beobachtung (Messung) weder rot, noch grün oder blau oder …, sondern diese Farbe würde erst dann festgelegt, wenn jemand das erste Mal das betreffende Objekt anschaut.

Für die folgenden Überlegungen ist noch ein weiteres Naturgesetz wichtig: In der Thermodynamik wird der Begriff der Entropie verwendet. Betrachten wir äußere Eigenschaften eines Systems (den Makrozustand), dann gibt die Entropie an, auf wie viele verschiedene Weisen dieser Zustand im Inneren des Systems (den Mikrozuständen) realisiert werden kann. Man hat hier einen direkten Bezug zum Begriff „Information“. Je größer die Entropie eines Systems mit gegebenem Makrozustand ist, umso mehr Information wird benötigt, um die verschiedenen möglichen Mikrozustände zu beschreiben bzw. voneinander zu unterscheiden.

Bekenstein hat anhand von Untersuchungen zur Entropie schwarzer Löcher gezeigt, dass die maximal mögliche Entropie eines Objekts nicht proportional zur Masse, sondern zum Quadrat der Masse des Objekts ist. Die maximale Entropie eines doppelt so schweren Systems ist also nicht doppelt, sondern viermal so groß. Wenn wir jetzt die Masse eines Objekts proportional zur Anzahl der Teilchen und die Größe der Entropie proportional zur Menge an Informationen setzen, um den inneren Zustand dieses Objekts zu beschreiben, dann stellt sich die Frage: Wieso ist die Informationsmenge eines aus zwei gleich großen Objekten zusammengesetzten Gesamtobjekts doppelt so groß wie die Summe der Informationsmengen der beiden Teilobjekte? Eine mögliche Antwort: Im zusammengesetzten System gibt es neue Wechselwirkungen der Bestandteile der jetzt in dem System vereinigten Teilchen.

Die These, dass das Ganze mehr ist als die Summe seiner Teile, bietet Erklärungspotenzial auf allen Ebenen einer Naturbeschreibung. Eingangs wurde bereits das mit der Interpretation des Messvorgangs verbundene Rätsel erwähnt. Wieso sollte ein Teilchen eine Eigenschaft haben, diese Eigenschaft aber bis zum Messvorgang keinen Wert? Das Rätsel verschwindet, wenn man die gemessene Eigenschaft nicht als Teilcheneigenschaft betrachtet, sondern als Eigenschaft der mit dem Messvorgang einhergehenden Wechselwirkung zwischen dem messenden System und dem gemessenen Teilchen.

Auch der Messvorgang bleibt so nicht mehr rätselhaft und der mit ihm verbundene „Kollaps der Wellenfunktion“: Die Wellenfunktion gibt für das messende System (einschließlich der bewussten Beobachter) an, welche Freiheitsgrade es bei der Vergrößerung des Systems um das zu messende Objekt gibt. Der Messvorgang selbst hat nichts mit dem Vorhandensein eines bewussten Beobachters zu tun, sondern ist die Aufnahme einer Wechselwirkung zwischen zwei Objekten, die jetzt eins sind und neue Eigenschaften erhalten. Die Entropie des Gesamtsystems ist nach der Messung höher als die Summe der Entropien der beiden Teile zuvor.

Vor dem Messvorgang gibt es zwei Systeme, das Messgerät und das zu messende Teilchen. Der Messvorgang vereinigt sie zu einem gemeinsamen. Das zusammengesetzte System besitzt neue Eigenschaften, eine davon ist die gemessene. Oder anders formuliert: Die gemessene Eigenschaft besaß vor der Messung nicht keinen Wert, sondern existierte noch nicht. Die gemessene Eigenschaft ist keine Teilcheneigenschaft, sondern eine der Wechselwirkung.

Folgt man einem reduktionistischen Determinismus, dann ist eine logische Konsequenz, dass die Entwicklung aller Objekte im Universum bereits von Anfang an festgestanden hat. Mit genügend großer Rechenkraft ausgestattet, hätte ein intelligenter Beobachter zu Beginn des Universums aus der Beobachtung des glühend heißen Plasmas schlussfolgern können müssen, dass 14 Milliarden Jahre später vernunftbegabte Menschen auf einem Planeten Erde existieren werden. Wenn wir jedoch alternativ annehmen, dass bei der Entstehung zusammengesetzter Systeme die neuen Wechselwirkungen neue Eigenschaften hervorbringen, dann werden selbstorganisierende und evolutionäre Mechanismen besser verständlich. Einige Aspekte sind besonders wichtig:

(1) Die Möglichkeiten für die Entstehung komplexer Systeme werden durch die Naturgesetzlichkeiten für die einfachen Systeme eingeschränkt. Was auf einer niederen Ebene physikalisch oder chemisch oder biologisch unmöglich ist, kann nicht entstehen.

(2) Einige Eigenschaften der komplexen Systeme können bei der Analyse ihrer Teilsysteme nicht vorhergesagt werden. Sie tauchen überraschend auf, sind neu. Andererseits sind neue Eigenschaften nicht völlig willkürlich (siehe (1)), sodass man – zum Beispiel mit der Wellenfunktion – durchaus zu Wahrscheinlichkeitsaussagen gelangen kann, vor allem wenn die betreffenden Kompositionsvorgänge bereits häufiger beobachtet worden sind.

(3) Versucht man aus den beobachteten Eigenschaften der komplexen Systeme ein Modell auf der Grundlage ihrer einfachen Komponenten zu bilden, kann man auf unüberwindliche Schwierigkeiten stoßen. Das Beispiel mit der Kopenhagener Deutung der Quantenmechanik wurde bereits erwähnt. Die Stringtheorie könnte ebenfalls in diese Kategorie fallen: Man versucht, alle beobachteten Eigenschaften der Elementarteilchen in ein einziges Modell noch einfacherer Teilchen zu pressen und erhält mathematische Beschreibungen, die beliebige „Universen“ beschreiben (10^500), die mathematisch nicht mehr sinnvoll handhabbar sind und die sich empirisch nicht prüfen lassen.

Ein weiteres Beispiel könnte das Problem mit dem freien Willen sein: Er ist ein Phänomen, das den ganzen Menschen betrifft. Betrachtet man jedoch die Zellen, aus denen das Gehirn besteht, dann sollte das menschliche Verhalten determiniert sein. Betrachtet man hingegen die Atome, aus denen sich die Zellen zusammensetzen, dann zufällig. Offensichtlich ist keine der Betrachtungen angemessen, weil der Mensch über Eigenschaften verfügt, die zwingend weder aus den Eigenschaften seiner Zellen noch seiner Atome folgen. Sie setzen eine Komplexität voraus, über die nur der gesamte Mensch verfügt.

(4) Es muss zwischen zwei verschiedenen Wahrscheinlichkeiten unterschieden werden. Eine a priori Wahrscheinlichkeit gibt an, wie wahrscheinlich es ist, dass ein komplexes System aus einfachen entsteht. Die a posteriori Wahrscheinlichkeit besagt, wie gut ein System in seiner Umwelt bestehen kann. Es ist möglich, dass eine bestimmte Entwicklung sehr unwahrscheinlich ist, sich aber, wenn sie eingetreten ist, selbst erhält. Das erklärt die Wirkungsweise der Evolution und warum diese nicht nur ein biologisches Phänomen ist, sondern ein allgemeines Prinzip für die Entwicklung komplexer Strukturen aus einfachen Komponenten.

Wenn man annimmt, dass in komplexen Systemen neue und emergente Eigenschaften entstehen können, dann verliert ein Phänomen wie Abwärtsverursachung (oder ~kausalität) seinen mysteriösen Charakter. Die komplexen Strukturen sind wirkmächtig auch in Richtung der einfachen Strukturen: Nicht die Bewegung von Atomen und Molekülen bestimmt, wie Zellen funktionieren, sondern in Zellen laufen Vorgänge ab, die Moleküle erzeugen, bewegen und zerlegen. Nicht elektrische Signale im Gehirn beeinflussen, was der Träger des betreffenden Gehirns denkt und wie er handelt, sondern die Gedanken des Betreffenden verursachen seine Handlungen – und können dann natürlich auch physikalisch anhand seiner Hirnströme nachvollzogen werden.

Das Neue an diesem Erklärungsversuch besteht darin, dass es ein gemeinsames Prinzip auf allen Ebenen unserer Naturbeschreibung bietet. Die Quantenphysik ist nicht mehr mysteriös und schwer mit der „klassischen“ Welt vereinbar, sondern folgt denselben Regeln wie alle anderen Beobachtungen, die wir über die Natur gemacht haben. Diese Interpretation zeigt auch die Grenzen, die den Naturwissenschaften gesetzt sind. Die übliche Methode ist die Zerlegung in Teilkomponenten oder die Abstraktion von Besonderheiten der Einzelfälle. Das ist häufig sehr erfolgreich, aber manchmal gehen dabei die besonderen Eigenschaften der komplexen Systeme verloren.

Unser Gehirn besteht aus denselben Atomen wie totes Fleisch, dieses wiederum aus denselben wie ein Stück Kohle und eine Pfütze Wasser. Aber die Wechselwirkungen sind jeweils andere und diese bestimmen den besonderen Charakter der einzelnen Objekte.

Abschließend ein Beispiel aus der Quantenmechanik: Ein häufig verwendetes Experiment im Zusammenhang mit dem EPR-Paradoxon und der Bellschen Ungleichung ist die Messung des Spins zweier verschränkter Teilchen. Bei einem Teilchenzerfall entstehen zwei neue Teilchen, die aufgrund eines Erhaltungssatzes entgegengesetzte Spins haben müssen. Bis zur Messung sind diese unbekannt. Die exerimentell bestätigte Aussage der Bellschen Ungleichung ist, dass die Messung des Spins eines Teilchens den Wert des Spins des zweiten verschränkten Teilchens festlegt.

Interpretieren wir den ungemessenen Spin als Teilcheneigenschaft, bleibt die instantane Festlegung des Spins des zweiten Teilchens bei der Messung des Spins des ersten rätselhaft. Nach der hier vorgestellten Interpretation ist die Annahme eines Spins der Teilchens vor der Messung desselben eine sinnlose metaphysische Spekulation. Erst mit der Messung erfahren wir etwas darüber und haben dann zugleich einen gültigen Wert. Die Instantanität ist nicht mehr rätselhaft, nach der Messung bilden das Messsystem und beide Teilchen ein neues gemeinsames System, in dem der Spin im gesamten System bekannt ist. Vor der Messung „wusste“ das Messsystem nur, dass es bei der Beobachtung eines Teilchens ein zweites mit komplementären Eigenschaften geben muss, weil das Paar durch ein Verschränkungsexperiment entstehen würde. Nach der Messung werden die bereits bekannten Größen (z.B. die Gesamtmasse) durch weitere ergänzt.

Was in diesem Beispiel für den Spin angenommen wurde, gilt im Übrigen auch für alle übrigen physikalischen Größen, z.B. für die Masse. Zerfällt ein massebehaftetes Teilchen in zwei kleinere massebehaftete Komponenten und sind verschiedene Zerfallsergebnisse möglich, dann liegt mit der gemessenen Masse eines Teilchens instantan auch die Masse des zweiten fest. Vor der Messung haben wir anhand der Wellenfunktion für mögliche Zerfallsergebnisse nur Wahrscheinlichkeiten für die Masseverteilung.

KategorienPhilosophie, Physik Tags:
  1. 24. Mai 2016, 22:34 | #1

    „Die Seltsamkeit der Quantentheorie rührt daher, dass man für eine messbare Eigenschaft annimmt, dass sie vor der Messung bereits existiert, aber keinen Wert hat.“ Den Grund dafür kann man eigentlich ziemlich leicht erklären: Wer sich morgens auf die Waage stellt, verändert dadurch (leider) sein Gewicht nicht. Die Wirkung der Messung ist auf den gemessenen Zustand zu klein (sogar wenn jemand wie ich auf der Waage steht). Aber in der Quantenphysik kann man eigentlich gar nicht mehr „messen“, sondern Zustände nur noch dadurch feststellen, dass man sie verändert. Das bedeutet aber auch, dass man nach der „Messung“ den vor der Messung bestehenden Zustand nun kennt, aber durch die „Messung“ einen neuen Zustand erzeugt hat. (Sowas passiert nicht nur in der Quantenphysik.)

  2. 27. Mai 2016, 09:35 | #2

    @Götz Kluge

    Das trifft den Punkt nicht ganz. Die HUR (Heisenbergsche Unschärferelation) beschreibt, dass man bestimmte miteinander gekoppelte Eigenschaften nicht gleichzeitig mit beliebiger Genauigkeit messen kann, weil die Messung dieser Eigenschaften mit einem System erfolgt, dass selbst derartige Eigenschaften besitzt – und diese selbst nur mit endlicher Genauigkeit bekannt sein können – und Messsystem und Messobjekt zum Zeitpunkt der Messung miteinander interagieren.

    Die HUR erklärt aber nicht, warum bestimmte Eigenschaften zum Zeitpunkt der Messung überhaupt erst einen Wert erhalten. Die beiden Haupterklärungen (Kollaps der Wellenfunktion oder Realisierung aller möglichen Werte in Paralleluniversen) sind beide unbefriedigend. Erstere, weil sie den Messvorgang (und vielleicht den daran beteiligten bewussten Beobachter) mystifizieren. Letztere weil sie unbeobachtbare Elemente in die Physik einführt.

    Mein Ansatz (deshalb auch der Titel des Artikels „Wie kann Neues im Universum entstehen?“) versucht, diesen Unterschied in der Erklärung der Makrowelt und der Quantenphysik zu beseitigen und beide mit einem gemeinsamen Ansatz zu beschreiben: Wenn Objekte zum ersten Mal in Kontakt kommen, somit interagieren und hinterher ein gemeinsames neues und größeres Objekt bilden, dann erzeugt dieser Wechselwirkungsvorgang neue Eigenschaften und diese Eigenschaften haben Werte.

    Ein Beispiel aus der Makrowelt, wobei ein Analogieschluss auf die Quantenphysik verwendet wird: Aus einer Menge Holz kann man (unter anderem) einen Tisch herstellen, der ein, drei oder vier Beine haben kann. Trotzdem würde niemand auf den Gedanken kommen, dem Holz eine Eigenschaft „Beinigkeit“ zu geben, deren Wert (0, 1, 3, 4) solange unbestimmt ist, bis der Tischler mit dem Holz arbeitet und einen Tisch herstellt oder etwas anderes mit eben null Beinen.

    Meiner Meinung nach besteht das Hauptproblem in der Physik im Reduktionismus, nämlich dass man versucht, alle messbaren Eigenschaften auf kleinste Teilchen zurückzuführen, obwohl die Werte dieser Eigenschaften erst in deutlich komplexeren Anordnungen gemessen werden können. Meine Erklärung habe ich bereits genannt: Nicht die Teilchen haben diese Eigenschaften, sondern die Wechselwirkung der Teilchen erzeugt sie.

    Wenn man das so interpretiert, ist die Erklärungslücke zwischen der Mikrowelt und der „normalen“ Welt nicht mehr vorhanden, denn dort wird wie in meinem Beispiel oben niemand ernsthaft anzweifeln, dass erst die Arbeit des Tischlers (seine Wechselwirkung) mit dem Holz den Tisch und seine Beine erzeugt.

    Quantenphysikalisch: Die Wellenfunktion des Holzes enthält als einen Wert jeden möglichen Tisch, den man daraus erzeugen kann. Der Tischler lässt diese Wellenfunktion implodieren zu einem einzigen Tisch. Klingt seltsam? Ist es auch, denn die normalsprachliche Formulierung ist eine ganz andere: Holz hat bestimmte Eigenschaften, die festlegen, was man damit realisieren kann und was nicht. Das schränkt die Möglichkeiten des Tischlers ein, aber der Tisch und dessen Beine entstehen erst durch seine Arbeit.

  3. Peter
    27. Mai 2016, 20:22 | #3

    Der Messvorgang selbst hat nichts mit dem Vorhandensein eines bewussten Beobachters zu tun, sondern ist die Aufnahme einer Wechselwirkung zwischen zwei Objekten, die jetzt eins sind und neue Eigenschaften erhalten.

    Wieso tritt die Wechselwirkung erst mit dem Messvorgang auf? Die Masse des Messgerätes existiert doch schon vorher. Nur weil ich das Messgerät aus dem Schrank hole, ändert sich die Entropie doch nicht. Masse und Energie (und damit Information) sind konstant und wechselwirken immer.

    Lee Smolin hatte, wenn ich das richtig verstanden habe, in Im Universum der Zeit gerade darauf hingwiesen, dass z.B. die Messung einer Wurfparabel eben nicht die gleiche ist, wenn ich den Versuch 10 Meter weiter links durchführe. Nur das mathematische Modell ist gleich. Jupiter, Sonne oder Alpha Centauri wirken dann aber etwas anders auf den Versuch, aber sie wirken halt. Immer.

  4. 30. Mai 2016, 15:42 | #4

    @Peter

    Wenn Objekte aufgrund ihrer Masse über die Gravitationskraft *immer in allen Eigenschaften* wechselwirken, wäre ein Gedankenexperiment wie das der Schrödingerkatze sinnlos und ein Quantencomputer unmöglich, denn die Gravitation kann im Gegensatz zur elektromagnetischen Wechselwirkung nicht abgeschirmt werden. Man würde den Zustand der Katze auch messen können, ohne den Behälter zu öffnen, indem man anhand der Gravitation bestimmt, ob die Katze im Behälter steht oder liegt.

    Tatsächlich gilt das mit der bereits vorhandenen Wechselwirkung aber immer nur für die bereits bekannten Objekteigenschaften, ehe die Separation stattfindet. Für alle Eigenschaften, die sich danach ändern, muss erst ein erneuter Kontakt stattfinden, um ihren Zustand zu ermitteln.

    Ein typischer Fall sind die Experimente mit dem Spin, die im Zusammenhang mit der Bellschen Ungleichung vorgenommen worden sind. Hier ist vor dem Experiment bekannt, dass ein Zerfall eines Objekts in zwei Objekte erfolgen wird und diese jeweils entgegengesetzte Spins haben müssen, weil der Spin eine Erhaltungsgröße ist. Bevor der Spin von der Messapparatur nicht gemessen wurde,

    – existiert er zwar nach der Kopenhagener Deutung, hat aber keinen Wert.
    – existiert der Spin nicht (nach meiner Interpretation).

    Es gibt aber zwei wirklich interessante Fragen, die sich im Zusammenhang mit den vier verschiedenen Kräfte (Gravitation, Elektromagnetismus, starke und schwache Kernkraft) stellen.

    Zunächst mal ist klar, dass die Kräfte nicht unabhängig voneinander sein können. Wenn z.B. Gravitationswellen gemessen werden oder Effekte der starken oder schwachen Kernkraft, dann erfolgt die Registrierung und Darstellung der Ergebnisse mit Hilfe der elektromagnetischen Wechselwirkung, z.B. als Bilder oder Zahlen im Computer. Auch in Neutronensternen hat man diese Querbeziehung,, wenn die Gravitation stärker als die elektromagnetische Abstoßung wird.

    Es gibt also einen Zusammenhang und die Physik ist auch auf der Suche nach einer gemeinsamen Urkraft, die sie in Richtung der extremeren Bedingungen Richtung Urknall auch zu finden versucht (z.B. elektroschwache Kraft o.ä.). Diese Ebene bei extremen Bedingungen muss aber nicht die einzige sein, wie die Umwandlung von Gravitationseffekten in elektromagnetische unter „normalen“ Umständen zeigt.

    Die zweite interessante Frage ist die nach dem Zusammenhang zwischen Masse, Entropie und Information. Bekenstein hat die Obergrenze für Entropie / Information anhand der Gesamtmasse formuliert. Hat aber z.B.der Spin eines Teilchens ein Masseäquivalent? Das ist die ernsthafte Variante der Scherzfrage, ob man eine volle von einer leeren Festplatte durch Wiegen unterscheiden kann.

    Eigentlich schimmert auch hier die erste Frage, die nach dem Zusammenhang der Kräfte, wieder durch. Für die Gravitation ist das klar, für die elektromagnetische Wechselwirkung ist es auch klar, elektromagnetische Felder (Photonen) sind gravitativ wirksam. Für die elektrostarke und schwache Kraft auch, denn hier wissen wir, dass ein wesentlicher Teil der Teilchenmassen eben nicht Higgs-like ist, sondern auf sie zurückzuführen sind.

  5. Peter
    2. Juni 2016, 22:08 | #5

    Ob Objekte immer in allen Eigenschaften wechselwirken, weiß ich nicht. Ich bin nur an der Formulierung Aufnahme einer Wechselwirkung hängengeblieben. Wenn wie beschrieben die quadratisch steigende Entropie durch das Zusammenführen von Versuch und Messgerät steigen sollte, hieße das doch, dass der Zusammenhang Entropie ~ m^2 von der Lokalität abhängt.

    Auch

    Vor dem Messvorgang gibt es zwei Systeme, das Messgerät und das zu messende Teilchen. Der Messvorgang vereinigt sie zu einem gemeinsamen.

    impliziert doch, dass die Wechselwirkung ab einer bestimmten Entfernung zumindest nichtlinear wird, wenn nicht aufhört. Das erschliesst sich mir einfach nicht, da der Messvorgang doch von aufgewendeter Energie und nicht von vorhandenen Massen abhängt.

  6. 7. Juni 2016, 16:39 | #6

    @Peter

    Ich bin der Meinung, dass es ein universelles Prinzip in der Natur ist, dass komplexere Systeme über Eigenschaften verfügen (können), die ihre Bestandteile (noch) nicht haben: Es kann also Neues im Universum entstehen, wenn sich Bestandteile zu Objekten zusammenfinden, die bisher noch nicht in Verbindung waren.

    Wenn diese Annahme zutreffen soll, dann muss es auf allen Ebenen unserer Naturbetrachtung und -analyse möglich sein, entsprechende Beispiele zu finden. In der Physik wird das eben durch den Zusammenhang zwischen Masse (~Anzahl der Teilchen) und Entropie (~Anzahl der möglichen Zustände) deutlich.

    In meinen Beispielen ist die Masse einfach der Aufhänger (die Modellvorstellung), weil der Bekensteinsche Entropieansatz damit operiert. Der Begriff der „Wechselwirkung“ ist nicht streng im physikalischen Sinn gemeint, sondern eher so, dass man, wenn zwei Objekte wechselwirken, sie ein gemeinsames Objekt bilden (aber eben nur genau für die Eigenschaften, in denen sie wechselwirken).

    Das allgemeine Prinzip, von dem ich im ersten Abschnitt geschrieben habe, könnte man etwa so erklären:

    Wenn es zwei Objekte A und B gibt, dann wechselwirken sie zunächst unabhängig voneinander nur mit sich selbst: A->A und B->B. Treffen sie aufeinander, dann bilden sie ein neues komplexeres Gebilde AB mit den zusätzlichen Wechselwirkungen (oder Eigenschaften) A->B und B->A. Wie beim Verhältnis von Masse und Entropie ist das Verhältnis ziwschen Objektgröße und Anzahl der Wechselwirkungen (Eigenschaften) quadratisch.

    Wechseln wir auf eine niedrigere Beschreibungsebene, dann ändert sich daran prinzipiell nichts. Das Objekt A setze sich aus den Komponenten a und b, das Objekt B aus den Komponenten c und d zusammen. Dann gibt es innerhalb von A die Wechselwirkungen a->a, a->b, b->a und b->b. Ananlog in B c->c, c->d, d->c und d->d. Werden A und B vereinigt, kommen hinzu: a->c, a->d, b->c, b->d, c->a, c->b, d->a und d->b. Unabhängig von der Ebene bleibt der quadratische Charakter erhalten, der zwei theoretische Konsequenzen hat:

    Komplexere Objekte können neue Eigenschaften haben.
    Bei der Zerlegung in Komponenten kommen Eigenschaften abhanden.

    Paradoxa auf beliebigen Ebenen unserer Naturbetrachtung können so zum Verschwinden gebracht werden:
    Der freie Wille, Gefühle, Gedanken können nur erklärt werden (existieren) auf der Ebene von Personen, aber nicht, wenn wir die Eigenschaften einzelner Zellen oder Neuronen betrachten.
    Wasser ist nass, Wassermoleküle nicht.
    Den Spin hatte ich schon angesprochen.
    Die Stringtheorie ist (bereits mathematisch) in der Sackgasse, weil sie eine Welterklärung sucht (wo sind dort Menschen, Gedanken, Gefühle?), dabei aber mit zu kleinen Bestandteilen operiert.

  7. Peter
    7. Juni 2016, 21:21 | #7

    Die Emergenztheorie ist mir schon ein Begriff, dass ist hier aber nicht meine Frage. Ich bin da jetzt einfach mal stur, weil mich der Beitrag in Bezug zur Kopenhagener Deutung zuerst sehr fasziniert hatte, ich dann aber an der Entfernung hängen blieb.

    Was bedeutet Treten in Wechselwirkung oder Treffen sie aufeinander. Die Graviatation hört doch nicht durch Entfernung auf, jedes Teilchen steht mit jedem Teilchen in Wechselwirkung. Immer, egal welcher Abstand. Das ist das, was ich bei Smolin meine verstanden zu haben. Die Entropie von m1 und m2 ist nie ~ m1^2 + m2^2, sondern immer ~ (m1 + m2)^2 egal, wo sich die Massen befinden. Alles andere würde alle Erhaltungssätze über den Haufen werfen. Emergenz kann ich da nirgends sehen.

  8. 8. Juni 2016, 10:33 | #8

    @Peter

    Bekenstein hat das Quadrat der Masse mit der Entropie (der Information) verknüpft. Das hat mehrere Konsequenzen:
    * Es gibt keine abstrakte (masselose) Information.
    * Jedes Teilchen hat eine Masse (wenn keine Ruhemasse, dann irgendeine Energie).
    * Jede Teilcheneigenschaft muss einer Masse äquivalent sein. Das einfachste Beispiel dafür sind die Atommassen, die sehr viel größer als die Massen der Komponenten sind, weil die starke und die schwache Wechselwirkung hohe Energien und damit Masse besitzen.

    Wie ich schon schrieb, sind die vier physikalischen Grundkräfte auf sehr subtile Art miteinander verbunden. Masse ist immer da, siehe erster Abschnitt. Und wenn wir Gravitation, starke oder schwache Kernkraft messen, dann erfolgt das über die elektromagnetische Kraft. Wenn die immer vorhandene gravitative Wechselwirkung (weil Masse immer da ist), Kohärenz zerstören würde, dann wären Quantencomputer bzw. die Superposition von Zuständen unmöglich. Die Wechselwirkungen sind aber offenbar voneinander unabhängig, was nicht gemessen wird, ist nicht vorhanden (im Bezugssystem des Messenden).

    Ob die Masse ein Problem ist, ist genau der Hintergrund der Frage „Hat aber z.B.der Spin eines Teilchens ein Masseäquivalent?“, die ich weiter oben schon mal gestellt hatte. Das könnte meine Hypothese widerlegen. Wenn ich behaupte, der Spin würde durch die Messung des Spins erst erzeugt, und zum Spin gehört eine Masse, dann sollte die Messung eine Masseänderung bzw. einen Massetransfer verursachen. Wenn der Spin aber kein Masseäquivalent hat, dann gäbe es einen Widerspruch zu der Aussage, dass Information immer massebehaftet ist.

  9. 9. Juni 2016, 08:48 | #9

    Beim nochmaligen Nachdenken über die Frage, ob der Spin ein Masseäquivalent hat, ist mir die Antwort selbst eingefallen. Natürlich *muss* es ein derartiges Energie-Masse-Äquivalent geben, sonst würde man den Spin nicht bemerken können. Dazu muss er ja mit irgendetwas wechselwirken (z.B. elektromagnetisch oder gravitativ) – und das setzt Masse voraus.

  10. 13. Juni 2016, 19:40 | #10

    @Köppnick

    Ich glaube, es hängt am Begriff „Eigenschaft“. Und zwar ist meiner Meinung nach Eigenschaft ein rein menschlicher Begriff. Eigenschaft ist eine menschliche Abstraktion dessen, wie ein Ding mit etwas anderem reagiert/wechselwirkt. Dinge mögen ontologische Eigenschaften haben, die man vielleicht besser mit einem anderen Begriff (Fähigkeit, Freiheitsgrad, Zustand) benennt.

    Es entstehen in komplexen Systemen keine neuen Eigenschaften. Sondern komplexe Systeme ermöglichen es, neue abstrakte Begriffe zur Zusammenfassung zu erfinden.

    Mit einem Beispiel wird mein wirres Geschreibe vielleicht deutlicher:

    Nehmen wir ein Bit. Dieses „ist“ 0 oder 1. Dieses Bit hat die Eigenschaft 0 oder 1. Und es hat die Eigenschaft diese zu wechseln. Ontologisch hat es natürlich nicht diese Eigenschaft, sondern hier sind es z.B. elektrische Spannungen, die bestehen und sich verändern können.
    Dieses Bit hat die Eigenschaft zwei Zahlen darzustellen. Wie gesagt Eigenschaft als menschliche Zusschreibung, nicht als tatsächliche physikalische, ontologische oder wie auch immer tiefere Eigenschaft, die uns letztendlich gar nicht zugänglich ist.

    Jetzt nehmen wir noch ein Bit dazu. Das sind zwei weitere mögliche Eigenschaften.
    Und noch eins. Dann hätten wir sechs.

    Aber bekanntlich lassen sich mit 3 Bits 8 Zahlen darstellen.

    Und das ist die Emergenz dabei. Diese entsteht nur durch die Anschauung durch den Menschen. Erst durch die abstrakte Zusammenfassung dieser drei Bits entstehen 8 mögliche Zahlen. Die Zusammenfassung und der neue Zusammenfassungsbegriff sind aber keine Änderung der grundlegenden ontologischen Fähigkeiten dieser Bits. Diese können zusammen nicht 8 Zahlen darstellen. Sondern der Menschen kann diese so betrachten und zusammenfassen.

    Mathematik und Sprache sind tolle Möglichkeiten die erkennbare Welt sinnvoll zu beschreiben. Man sollte sich aber davor hüten, die Mathematik uns den Sprachbegriff für die Welt zu halten. Das Universum kennt keine Mathematik. Und auch keine Prinzipien. Es verhält sich lediglich hinreichend „glatt“ um die vereinfachte mathematische Beschreibung sinnvoll anwenden zu können und sogar mit brauchbarer Genauigkeit Vorhersagen zu errechnen. Es existieren weder „Tisch“, noch Moleküle, noch Atome.
    Sondern das sind nur abstrakte Zusammenfassungen von Menschen, die nicht mehr die einzelnen Teilchen und ihre Wechselwirkungen betrachten, sondern eine größere Klammer drumrum setzen. Aus Sandkörnchen wird ein Sandhaufen. Eine rein menschliche Anschauung. Das Schiff des Theseus ist ein Beweis dafür, dass diese menschliche Anschauung nichts mit der physischen Realität zu tun hat. Eigenschaft also eine reine Frage der Anschauung ist, welcher Teilchenzusammenballung man nur die Eigenschaft „Schiff des Theseus“ zubilligt.

    Emergenz, wir reden von der starken, ist nicht das Entstehen von ontologischen Eigenschaften, sondern das Erfinden und Bennen von neuen abstrakten Zusammenfassungen. Die Eigenschaftsbildung entsteht im Hirn, nicht im Universum.

  11. 14. Juni 2016, 09:11 | #11

    @ThomasT

    Die Idee mit den Bits, also der Shannonschen Informationstheorie hatte ich noch nicht, obwohl es die Diskussion in der Physik, ob man außer Masse und Energie auch den Begriff der Information zu Grunde legen sollte, schon lange gibt. Vergleicht man Bits mit der Masse, fällt einem sofort ein prinzipieller Unterschied auf: Die Anzahl der mit m Bits darstellbaren Zahlen ist 2^m. Das ist ein anderer Zusammenhang als der zwischen Entropie (Information) und Masse. Hier ist die Proportionaliät m^2. Das wächst langsamer als die Zweierpotenz.

    Dieser Unterschied findet sich auch in der anschaulichen Erklärung von Bekensteins Entropieerkenntnis: Versuchen wir, in ein Volumen immer mehr Bits zu packen, steigt die Masse immer weiter an, aber nur bis zu einer Obergrenze. Dann implodiert die Masse zu einem schwarzen Loch, dessen Oberfläche proportional zu m^2 ist. Mehr geht nicht. Oder anders gesagt: Die Anzahl der Zahlen steigt stärker als die Menge an Information. Man kann nicht unendliche viele Zahlen abzählen, aber man kann ein (endliches) Bildungsgesetz für unendlich viele Zahlen angeben.

    Ich stimme dir auch nicht zu, dass die Komplexität nur in unseren Gehirnen und nicht im Universum ist. Dazu habe ich zwei Gegenargumente:

    Erstens sind unsere Gehirne (und damit die Sprache und die Mathematik) Teil unseres Universums. Das ist jedenfalls der naturalistische Standpunkt. Der Fehler hier trennen zu wollen, liegt zum Beispiel dem Leib-Seele-(Schein)Problem zu Grunde. Zuerst ordnen wir verschiedene Eigenschaften, die wir bei einem Menschen finden, zwei unterschiedlichen Begriffen zu (Leib, Seele), und dann rätseln wir über die Wechselwirkung zwischen ihnen. Wenn wir die Seele (oder das Bewusstsein) einfach als eine Eigenschaft des Menschen betrachten wie das Vorhandensein seines Körpers, ist das Problem weg. Also alles, was in unseren Gehirnen ist, ist automatisch im Universum, in diesem Sinne ebenfalls ontisch.

    Zweitens zum Zusammenhang zwischen Objekten und Begriffen: Es gibt zum Beispiel zu dem Begriff eines Tischs ein ontisches Objekt, das völlig unabhängig davon ist, ob wir einen Begriff davon haben oder nicht. Die Komplexität eines Tischs ist nicht nur in unseren Gehirnen, diese bilden seine Komplexität im Denken nur ab. Gut, in diesem Fall ist „Tisch“ eigentlich ein schlechtes Beispiel, weil seine Erzeugung unsere Existenz voraussetzt, aber Pflanzen und Tiere, Sterne und Planeten gab es zum Beispiel schon vor uns Menschen.

    Und dann noch zu den beiden Paradoxa, Sandhaufen und Theseus. Meiner Meinung nach sind sie nur deshalb paradox, weil bei der Abstraktion von Objekten zu Begriffen wesentliche Details weggelassen worden sind. In praktischen Fällen ist aus dem Zusammenhang für alle Beteiligten sofort klar, ob es ein paar Sandkörner sind oder ein Haufen ist oder wem das Schiff gehört. Hier ist also nicht die Komplexität das Problem, sondern ein Zuwenig an Komplexität.

  12. 23. Juni 2016, 16:02 | #12

    Wird Mathematik Teil des Universum, weil sie in unseren Gehirnen entsteht?
    Ich würde sagen nein. Denn um Universum entstehen auch nur feuernde Neuronen. Die auch nicht existieren, sondern nur Atome … usw. bis runter zu den Grundkräften, der Energie und den Grundbausteinen.

    Ich müsste noch mal drüber sinnieren, ob daher nicht das Bewusstsein und das Denken tatsächlich eine starke Emergenz darstellen. Denn wenn man die Mathematik als reine Abstraktion aus dem Universum heraus nehmen können, muss das wohl so sein.

    Zum Tisch. Der exisitert natürlich genauso(wenig) wie der Pferdekopfnebel ein Pferdekopft ist.
    Was ist dabei „Komplexität“? Doch nur die Vielzahl der Wechselwirkungen. Und möglichen Wechselwirkungen. Komplexität als reine quantitative Größe. Und die entsteht im Universum nur neu, wenn neue Teilchen oder neue Energie hinzu kommt. Aber das meist du sicher nicht mit der obigen Fragestellung.

    Die Frage ist letztendlich, was, also von welcher Natur, ist etwas „neues“. Und hier bleibt nur die menschliche Abstraktion und Benennung.

    Richtig, beim Sandkasten und Theseus ist die fehlende Komplexität der Knackpunkt. Aber das ist sie bei allem neuen! Das ist ja das was ich meine. Eine neue Klammer um die alte (gleichbleibende) Komplexität. Du reduzierst ein komplexes Gebilde googolplexer Eigenschaften auf die Abstraktion „Tisch“. Wenn du die Abstraktionen „flaches Holz“ und vier mal „langes Holz“ geeigent kombinierst, erhälts du nur in deiner Anschauung etwas neues, den Tisch. Tatsächlich hast du nur auf 5 komplexe Teilchenzusammenballung eingewirkt. Damit verstärkten sich bestimmte Kräfte und diese 5 Teilchenzusammenballungen hängen nun dichter zusammen und die Kraftwirkung ist so, dass bestimmte Freiheitsgrade eingeschränkt sind. Ok. Mehr Entropie. Nicht mehr Komplexität. Dass du das Ding Tisch nennst und dass es aus den Rohmaterialien entsteht, ist genauso wie dass du einem Schiff jemanden zuschreibst. Der Knackpunkt liegt in der extrem verringerten Komplexität, wie wir die Welt betrachten. Daher entsteht (scheinbar) neue Dinge. Wie mit Wolken die Figuren bilden.

  13. 27. Juni 2016, 14:32 | #13

    @ThomasT

    Wenn man leugnet, dass neue Dinge im Universum entstehen können, wird die Beschreibung, wie die Welt funktioniert, nicht besser. Zum Beispiel müsste man dann behaupten, dass der Benzinmotor (oder der Tisch) nicht erfunden, sondern entdeckt worden wären. Denn wenn etwas nicht neu sein darf, muss es ja schon vorhanden gewesen sein.

    Es geht hier nämlich ausdrücklich nicht um einen neuen Begriff (Motor, Tisch), sondern um ein zuvor noch nicht vorhandenes Objekt. Ontologie, keine Epistemik.

    Mein Artikel setzt diesen Gedanken bereits voraus. Neu ist in ihm etwas anderes, dass ich eine an physikalischen Begriffen orientierte Erklärung biete, wie Neues entstehen kann, und dass ich diesen Mechanismus auch für die Auflösung der Paradoxa in der Quantenmechanik für geeignet halte.

    Was die Stellung der Mathematik betrifft, habe ich meine Haltung in der letzten Zeit revidiert. Früher hielt ich einen (neu)platonischen Standpunkt für den besten – die Existenz der Mathematik über das Universum hinaus. Nur hat das die unangenehme Konsequenz, dass es dem Spekulieren über ein Multiversum Vorschub leistet. Deshalb mein Sinneswandel. Die Mathematik ist „drinnen“, weil es „draußen“ und „ein Draußen“ nicht gibt.

  14. 27. Juni 2016, 20:22 | #14

    Zuerst halte ich es für sinnvoll, den Menschen, genauer den gerade denkenden Verstand, der das Universum betrachtet, heraus zu lassen. Sonst wird es rekursiv und führt nur in eine Endloschleife. Sollte der Verstand selbst eine Rolle spielen, würde ich ihn einen Schritt später einsetzen. Das geg. auch rekursiv bis zur benötigten Genauigkeit oder Tiefe.

    Lassen wir also die Mathematik als existierende Entität beseite und stellen uns ausserhalb als Betrachter hin. Oder eben innerhalb, aber als materielos.
    Egal wie. Ich mag zum jetzigen Zeitpunkt die Diskussion über Mathematik als existierendes Ding nicht führen.

    Zum eigentlichen:
    Womöglich führen die Begriflichkeiten Ontologie und Epistemik in die Irre.
    Was ist denn ein exisitierendes Ding? Zig Billionen Teilchen. Was ist ein anderes Ding? Andere zig Billion ähnliche Teilchen. Warum ist das eine für uns Ding A? Weil der Teilchenklumpen, der nebenbei hinreichend gut abtrennbar ist vom Rest, die Eigenschaft aufweisst, die wir mit aig beschreiben. Z.B. tischig. Diese Ding fungiert als Tisch, es ist ein Tisch. Dieses Ding fungiert als dein Auto – es ist dein Auto. (oder dein Schiff)
    Analog mit Ding B.

    Die Eigenschaften, die wir wahrnehmen, ist eine extreme Vereinfachung. So können wir ein paar Legosteine zu Buchstaben zusammenstecken. Z.B. zu einem A oder zu einem B. Und wir können beides umformen nur neustecken. An den Teilchen und den Eigenschaften ändert sich nichts. Auch bekommen sowohl Legosteine als auch Teilchen durch Umordnung keine neuen Eigenschaften. Sie wechselnwirken lediglich anders, weil der Bezug zu anderen Teilchen sich geändert hat. Bei Legosteinen sind z.B. anderen Noppen verdeckt, andere frei. Aber ob das A oder B ist, ist nichts anderes wie ein Bild auf einer Rauhfasertapete. Nur ein Muster, dass wir erkennen. Und ändert sich das Muster – es entsteht also ein neues Muster in unserer Anschauung – so entsteht scheinbar was neues.

    Ein Motor ist nur eine andere zufällige Anordnung von Teilchen als ein Tisch.

    Natürlich nicht ganz zufällig. Sondern so zufällig wie der Name Köppnick oder Thomas in der Rauhfaser erscheint. Beides *könnte* zufällig entstehen. Aber man kann dem Zufall nachhelfen und die Teilchen passend anordnen, so wie man in flüssiger Rauhfaser, die Holzsplitter anordnen könnte.

    Es entsteht nichts neues. Nur eine neue Anordnung des alten. Wie ein Bild auf einem Bildschirm, wo die Pixel auch nicht voneinander wissen, dass sie gerade ein Bild zeigen.
    Die Pixel sind kein Bild. Wir erkennen nur ein Bild und wir können das Bild reproduzieren.
    Ob Pixel oder Teilchen ist da das selbe Prinzip. Nur eben anders. Beides sind Bilder. Und beides sind nicht nur reine Phantasiebilder, sondern es ist etwas tatsächlich so da (angeordnet) dass in uns das entsprechende Bild entsteht.

    Es ist also eine eindeutige, aber stark reduzierende Abbildung der ontologischen Wirklichkeit auf die Epistemik. Ein Bild, keine Bitmap, weil die Pixel nicht erkennbar sind.

    Und ebenso wie das was der Monitor darstellen kann (z.B. 2^(1920×1080 x24)) endlich ist, so ist auch die mögliche Anordnung aller Teilchen im Universum endlich. Alles kann also potentiell entstehen. Motor und Tisch. Ich denke die Pixelanalogie ist daher gar nicht so falsch, um zu verdeutlich worauf ich hinaus will.
    Deine Eingangsfrage kann daher umformuliert werden zu „Wie kann Neues auf dem Bildschirm erscheinen?“

    Es gibt allerdings einen Knackpunkt noch dabei:
    Einzelne Teilchen sind ununterscheidbar. Ab einer gewissen Cluster-Größe sind sie unterscheidbar.

  15. 28. Juni 2016, 10:00 | #15

    @ThomasT
    Wir können die Diskussion an diesem Punkt beenden. Worüber sollten wir auch sprechen? Du möchtest die denkenden Subjekte eliminieren, die Objekte und die Mathematik auch. Objekte sind für dich zufällig oder doch nicht ganz zufällig. Motoren und Tische sind zufällige Anordnungen, die aber natürlich nicht ganz zufällig sind. – Das ist alles zu wirr.

    Wenn man die denkenden Subjekte eliminiert, wird übrigens auch der Begriff des Teilchens obsolet, denn auch dieser ist nur eine Vereinfachung und wäre nicht real. Dann ist nichts mehr real. Wenn etwas real sein soll, muss immer ein Beobachter vorhanden sein.

    Ich halte nahezu jeden deiner Sätze für falsch, einschließlich des vorletzten: „Einzelne Teilchen sind ununterscheidbar.“ Um die Aussage zu machen, „einzelne Teilchen sind ununterscheidbar“, muss es mehrere Teilchen geben. Gibt es mehrere Teilchen, müssen sie sich in etwas unterscheiden, sonst gäbe es nur ein Teilchen. Sie könnten sich zum Beispiel in ihrem Ort unterscheiden oder in der Zeit, in der sie beobachtet werden. Im übrigen ist genau diese eben doch gegebene Unterscheidbarkeit die Grundlage für den ontologischen Zufall in der Quantenmechanik: Die Reduktion auf bestimmte Teilcheneigenschaften nährt die Illusion, die Teilchen seien in allem gleich. Und dann wundert man sich, warum sie unterschiedlich reagieren. Sie müssen aber unterschiedlich reagieren, weil sie bereits zuvor unterschiedlich waren (z.B. in Raum und Zeit).

    Objekte unterscheiden sich immer ab dem Moment der Beobachtung (hier kommt wieder der nicht zu vernachlässigende Beobachter ins Spiel) , weil sie sich bereits davor voneinander unterschieden haben (in Raum und Zeit), und danach nur noch stärker, weil aus der Wellenfunktion zwei verschiedene Realisierungen manifest werden.

  16. 28. Juni 2016, 16:33 | #16

    1. Zur Ununterscheidbarkeit der Teilchen (Elektronen):

    http://www.quantenwelt.de/quantenmechanik/vielteilchen/ununterscheidbar.html

    Der Knackpunkt der Ununterscheidbarkeit bei dem was ich sagte, ist die Austauschbarkeit.

    2. Zur Eleminierung der denkenden Subjekte:

    Das ist in erster Näherung, um sich dem Problem zu nähern sinnvoll. Sonst müsstest du, schon bei der Beobachtung eines Elektrons deinen gesamten Körper, mindestens aber dein Gehirn (und die Beobachtungshilfmittel) dazu nehmen. Dann sind aber keine sinnvollen Aussagen mehr möglich ohne jedesmal alle(!) Teilchen und Felder im Universum zu betrachten. Also sollte man, um man macht das ja auch, sinnvoll abgrenzen.
    Diskussionen, ob das Universum denkt, und sich selbst aus dem Innern betrachtet, kann man an viel späterer dann gerne tun. Offensichtlich denkt das Gestein von 67P/Churyumov-Gerasimenko nicht.

    3. Motoren und Tische sind Anordnungen von Teilchen, die so auch zufällig hätten entstanden sein können. Wenn auch mit sehr geringer Wahrscheinlichkeit. Aber deutlich höher btw. als Affen ein literarisches Werk schreiben. Bestimmte Motoren *sind* zufällig entstanden. Und zwar biologische. Andere Nanomotoren könnten mit endlicher Wahrscheinlichkeit entstehen. Ob es ein Motor ist, ist dann eine reine Frage der Anschauung.

    4. Richtig, du kannst auch noch die Entität Teilchen als bloßes Konstrukt der Anschauung betrachten. Das erweitert lediglich das Modell nach unten, ohne ein Mehr an Informationen. Wenn das Modell Legosteine sind, kann man selbstverständlich noch tiefer Polymere und deren Atome etc. betrachten. Legostein war aber eine sinnvoll Granularität um zu zeigen, dass aus Legosteinchen nichts neues entsteht. Ausser eine Zusammenballung von Legosteinchen.

    Es entsteht nichts neues im Universum. Ausser auf Quantenebene.

    Pixel und Bilder auf dem Bildschirm sind das bessere Analogon gewesen.

  17. 28. Juni 2016, 16:40 | #17

    Wir können die Diskussion aber gerne beenden, wenn du nur Bestätigungen und neue Ideen des Wie suchst, wie ein göttliches Schöpferprinzip naturwissenschaftlich bewiesen werden kann.
    Darum dreht sich doch die Frage im Grunde: Gibt es ein göttliches (pantheistisches) Prinzip und wie kann dieses schöpferisch sein?

    Es gibt auch Vorstellungen, dass dem Univerum mathematische Prinzipien zugrundeliegen. Das verneine ich auch. Das kann schon aufgrund der Unschärferelation nicht sein.

  1. Bisher keine Trackbacks