Information. Die neue Sprache der Wissenschaft

Kommentar zu dem Buch von H.C.v.Bayer: Das informative Universum

 

Prolog

Naturwissenschaftler, insbesondere Physiker erforschen, wie die Welt funktioniert, aber eigentlich wollen sie wissen, warum sie funktioniert. Deshalb wenden sich viele Physiker in ihren späteren Lebensjahren der Philosophie zu. Wir können das Universum „dort draußen“ nicht entdecken, wenn wir uns nicht selbst als einen Teil desselben definieren. Wir können unser Weltbild nur gestalten, indem wir alle Informationen, die wir als Antwort auf unsere an die Welt gestellten Fragen erhalten, zu diesem Bild zusammensetzen. Und es bleibt immer ein von uns konstruiertes „Bild“ von der Welt. Für uns ist das Universum immer nur das, was wir als Information darüber besitzen. Der Autor will deshalb klären, was „Information“ ist.

 

Hintergrund

Jede Evolution ist untrennbar verbunden mit einem exponentiellen Anwachsen von Information. Gegenwärtig steht uns eine explosionsartig anwachsende Menge an Information zur Verfügung, die durch die modernen Kommunikationsmittel jederzeit leicht abrufbar ist. Das weitere Wirtschaftswachstum wird wesentlich durch die Fortschritte der Informationstechnologie bestimmt. Welche Bedeutung hat aber das weitere Anwachsen der Informationsmengen für uns, wenn unsere Gehirne nicht mehr in der Lage sind, diese Mengen zu verarbeiten, zu verdichten und für unser Leben nutzbar zu machen? Wird die Wachstumskurve der Information dadurch abgeschwächt und das weitere Anwachsen zum Stillstand kommen? Einerseits ist Information ein wesentlicher Bestandteil unserer Welt, andererseits aber ist es ein schlecht definierter Begriff, und die Frage ist schwer zu beantworten, was Information eigentlich ist, bedeutet und wie sie zu messen ist.

 

Die Physik hat über lange Zeit ein objektives, vom jeweiligen Beobachter  unabhängiges Weltbild aufgebaut. In dieses Weltbild passte der Begriff der Information nicht, denn die Bedeutung einer Information ist grundsätzlich nicht unabhängig vom subjektiven Beobachter, sondern hängt von seinem Vorwissen ab und davon, ob er mit der Information etwas anfangen kann. Mit der Relativitätstheorie Einsteins und mit der Quantentheorie hat sich die Situation in der Physik grundsätzlich geändert. Physikalische Begriffe wie Raum, Zeit, Masse und Energie sind nicht mehr absolut und objektiv, sondern relativ und abhängig vom jeweiligen Beobachter. Damit unterscheidet sich der Begriff der Information nicht mehr grundsätzlich von diesen physikalischen Begriffen und müsste sich in das physikalische Weltbild einbauen lassen. Information vermittelt zwischen dem Materiellen und dem Abstrakten, zwischen dem Reellen und dem Ideellen, zwischen Materie und Geist. Ist Information ein Bestandteil der objektiven Realität, zu der auch untrennbar der Mensch mit seinem Geist gehört?

 

Es gibt derzeit keine zufriedenstellende, umfassende und strenge Definition des Begriffs Information. Dieser Problematik nähern sich Geisteswissenschaftler und Naturwissenschaftler/Techniker aus entgegengesetzten Richtungen. Im technischen Sinne bezeichnet der Begriff Symbole, Zahlen oder Buchstaben, mit denen eine Nachricht übermittelt wird, die durch deren gegenseitige Beziehungen bestimmt ist. Speicherung, Verarbeitung und Übertragung werden operational durch Messvorschriften definiert. Die Bedeutung der Nachricht und damit der Information bleibt dabei außer Betracht. Aus geisteswissenschaftlicher Richtung wird Information als Übertragung von Sachverhalten, Kenntnissen und Erfahrungen von Objekten und Subjekten zu anderen Subjekten definiert und durch Erkenntnisgewinnung und Lernen charakterisiert. Aus beiden Richtungen wird mit Quantitäten und Qualitäten der Informationen operiert, die unterschiedlich definiert sind, verschiedene Bedeutungen haben und nicht zusammenpassen. Der Begriff der Information wird erst dann voll verstanden sein, wenn diese unterschiedlichen Sichtweisen zusammengeführt werden können.

Zwischen der Erfindung des Thermometers als Messvorschrift für Temperatur und der Erkenntnis, was Temperatur genau bedeutet, lagen 250 Jahre. Wir haben heute eine genaue Messvorschrift für die Information und der Autor hofft, dass in den nächsten 250 Jahren die Bedeutung der Information genau verstanden wird.

Mit dem geringsten Aufwand kann eine bestimmte Nachricht beschrieben werden, wenn man den Binärcode verwendet. Deshalb wird nach Shannon die Menge der Information von der Anzahl der Bits bestimmt, die zu ihrer Beschreibung erforderlich ist. Die Qualität der Information kann in drei Stufen charakterisiert werden:

 

Die Physik ist durch immer weitere Abstraktion fortgeschritten von der konkret- operatorischen Beschreibung der Welt durch noch den Sinnen direkt zugängliche Objekte und ihrer gegenseitigen Beziehungen zur Beschreibung der Welt mit Hilfe von Elementarteilchen, Wellenfunktionen und deren Wechselwirkungen, die keinerlei konkret-anschaulichen Vorstellungen mehr zulassen. Trotzdem beschreiben diese abstrakten Theorien das Verhalten des Universums mit großer Präzision. Das Quantenfeld ist das abstrakteste Konzept in den Naturwissenschaften und liegt jenseits aller Vorstellungskraft, dennoch enthält es die Informationen zu sämtlichen wesentlichen Eigenschaften eines Teilchens, die allen Kopien dieses Teilchens im Universum gemeinsam sind und beschreibt darüber hinaus deren zufällige Eigenschaften, in denen sie sich unterscheiden. Die eigentliche Realität der Welt besteht demnach aus Quantenfeldern, die den Regeln der Relativitätstheorie und der Quantenmechanik unterliegen. Energie ist ihr Treibstoff und Information ihre Botschaft, die eine gemeinsame Basis für alle Wissenschaften werden könnte.

 

Zu Beginn des 20.Jahrhunderts wurden nahezu gleichzeitig in Physik und Biologie unwiderlegbare empirische Beweise dafür gefunden, dass sowohl Materie als auch Energie und Information nicht kontinuierlich, sondern gequantelt sind. Was sich in der Physik als Quantennatur des Lichtes erwies, zeigte sich in der Quantenmechanik als Wellennatur der Elementarteilchen und in der Mendel’schen Vererbungslehre als Gen. In der Molekulargenetik erwiesen sich die Gene als organische Moleküle, deren Stabilität und sprunghafte Veränderung nur mit Hilfe der Quantentheorie verstanden werden kann. Bereits die Kombinationsregeln der Genetik wiesen auf eine lineare Struktur der Chromosomen als Träger der Vererbung hin, die durch die Entdeckung der DNA-Moleküle bestätigt wurde. Die einfache lineare Anordnung der Chromosomen und der DNA-Moleküle ermöglichte den Fortschritt bei der Aufklärung biologischer Informationssysteme von Mendels Vererbungsregeln bis hin zum menschlichen Genom innerhalb nur eines Jahrhunderts. Im Vergleich dazu sind andere biologische Informationssysteme wie z.B. das Gehirn mit seiner dreidimensionalen Struktur wesentlich schwieriger zu entschlüsseln.

 

Die Erklärung des Verhaltens komplizierter Systeme aus den Eigenschaften ihrer elementaren Bestandteile ist ein erfolgreiches wissenschaftliches Konzept. (Reduktionismus). Ob sich jedoch alle naturwissenschaftlichen Gesetze auf einfache, universelle Gesetze zurückführen lassen, ist eine heiß umstrittene Frage. Es gibt zweifellos in komplexeren Systemen emergente Gesetzmäßigkeiten, die sich nicht aus den Eigenschaften der Bestandteile ableiten lassen. Ob dies jedoch grundsätzlich nicht möglich ist oder nur dem gegenwärtigen Stand der Wissenschaft geschuldet ist, scheint nicht beweisbar zu sein.

 

Die Relativitätstheorie und die Quantenmechanik sind die Stützen der modernen Physik, obwohl die gegenwärtige intensive Suche nach ihrer Synthese bisher nicht erfolgreich war. Einstein war von der Existenz einer objektiven Realität überzeugt und hielt es für die Aufgabe der Physik, diese zu entdecken. Deshalb hielt er die Quantentheorie trotz ihrer Erfolge für unvollständig. Bohr kam zu der Überzeugung, dass wir uns bestenfalls ein geschlossenes Modell der Welt schaffen können, das ihre gemessenen Eigenschaften reproduziert, ohne das wir behaupten können zu beschreiben, was wirklich ist. Die Physik bezieht sich auf das, was wir über die Natur sagen können. Das bedeutet: Wissenschaft handelt von Information. Ob die Information richtig ist, ob sich hinter der Information eine objektive Realität verbirgt, scheint eine Glaubensfrage zu sein, nicht beweisbar, nicht Gegenstand von Wissenschaft.

 

Hierzu möchte ich feststellen: Auch wenn es formal logisch nicht beweisbar ist, dass  die von der Wissenschaft gelieferte Information absolut richtig ist, so kann man dennoch annehmen, dass diese insoweit die objektive Realität richtig beschreibt, als dies für unser Handeln in der Welt von Bedeutung ist. Es sei denn man leugnet von vorn herein die Existenz einer objektiven Realität, wie dies Radecke und Teufel tun.

 

 

Klassische Information

Information und Wahrscheinlichkeit

Auf einer höheren Stufe der Qualität einer Information hängt ihr Wert davon ab, mit welcher Wahrscheinlichkeit man ihre Aussage erwartet hat. Bei wiederholbaren Ereignissen kann die Wahrscheinlichkeit durch die Häufigkeit eines tatsächlichen oder berechneten Ereignisses bestimmt werden (statistische Wahrscheinlichkeit). Bei einmaligen Ereignissen muss die Eintrittswahrscheinlichkeit durch Auswertung von Informationen über andere Ereignisse ermittelt werden, die mit dem interessierenden Ereignis in Verbindung stehen, um eine „glaubhafte“ Wahrscheinlichkeit angeben zu können (rationale Wahrscheinlichkeit, Grad der Glaubwürdigkeit). Der Wert einer Information hängt dann davon ab, mit welcher Wahrscheinlichkeit sie wahr ist und um welchen Betrag sie die erwartete Eintrittswahrscheinlichkeit eines Ereignisses verändert. Zur Bestimmung dieses Betrages kann Bayes’ Theorem angewendet werden. Es besagt, dass die ursprünglich erwartete Eintrittswahrscheinlichkeit mit einem Faktor F zu multiplizieren ist, um ihren durch eine zusätzliche Information I veränderten Wert zu bestimmen.  Die ursprünglich erwartete Wahrscheinlichkeit pv muss anderweitig berechnet werden. Der Faktor F ergibt sich aus der bedingten Wahrscheinlichkeit p(C-->I), mit der die zusätzliche Information I folgt, wenn das erwartete Ereignis  C als eingetreten angenommen wird, dividiert durch die Wahrscheinlichkeit p(I), dass die Information I folgt, unabhängig von jeder anderen Annahme.

Beispiel zur Erläuterung:

Ein Krebsfall trete in der Bevölkerung mit der Wahrscheinlichkeit pv =1% auf.

Ein Krebstest liefere zu 99% die richtige und zu 1% eine falsche Information.

Wenn die Testperson Krebs hat, erhält sie diese Information mit p(C-->I) = 99%

Wenn die Person gesund ist, liefert der Test zu 1% eine falsche Information

Die Wahrscheinlichkeit dafür, dass der Test unabhängig davon, ob der Patient  krank ist oder nicht , positiv ausfällt, ist p(I) = 2%

Die durch den Test gelieferte Information erhöht die Wahrscheinlichkeit für das Vorliegen von Krebs bei der betreffenden Testperson von 1% auf

Pn = pv * p(C-->I) / p(I) = 1% * 99% / 2% = 49,5%. In der Erhöhung dieser Wahrscheinlichkeit von 1% auf 49,5% liegt der Wert der Information. Falls der Test nur zu 90% die richtige Information liefert, erhöht sich die Krebswahrscheinlichkeit nur auf  8,3%, die Information  wäre dann ziemlich wertlos.

Falls aber 10% der Bevölkerung krank sind, erhöht ein zu 99% zuverlässiger Test die

Wahrscheinlichkeit von Krebs bei der Testperson von 10% auf 83% und ein zu 90% zuverlässiger von 10% auf 50%. Hieran zeigt sich, dass der Wert einer Information deutlich vom Vorwissen abhängt. Umgekehrt erhöht jede neue zuverlässige Information die Zuverlässigkeit des Wissens.

 

Logarithmische Skalierung

Durch logarithmische Skalierung können riesige Größenunterschiede überbrückt und leichter vorstellbar gemacht werden. Die meisten unserer Sinnesempfindungen vermitteln uns die Intensitäten der physikalischen Reize auf einer annähernd logarithmischen Skala:

 Das Auge kann sechs Stufen von Stern-Helligkeiten unterscheiden, mit denen eine Intensität von 1:100 überdeckt wird. Dem entsprechen sechs Helligkeitsstufen sichtbarer Sterne, deren Helligkeit sich jeweils um einen Faktor 2,5 unterscheiden.

Das Ohr kann Schallintensitäten vom gerade noch Hörbarem bis zur Schmerzgrenze im Verhältnis von 1:1Billion wahrnehmen und empfindet eine 1000fache Schallintensität als dreimal so laut.

Kosmologische Zeitalter werden ebenso im logarithmischen Maßstab gemessen und eingeteilt wie die Lebensabschnitte von Lebewesen.

Die Stärke der Erdbeben wird bei der Richterskala in 10 Stufen eingeteilt, bei denen sich die freigesetzte Energie um jeweils einen Faktor 32 erhöht.

Es sollte uns nicht überraschen, dass die Informationsmenge in einem logarithmischen Maßstab gemessen wird: 10 Bit tragen die tausendfache Informationsmenge wie 1 Bit., sie können 1024 verschiedene Nachrichten übermitteln.

 

Information und Entropie

Boltzmann erkannte die ursprünglich thermodynamisch definierte Entropie eines Objektes als bis auf eine Konstante identisch mit der Anzahl der Möglichkeiten, in denen dessen Moleküle angeordnet werden können, ohne dass sich die bekannten makroskopischen Zustandsvariablen ändern. Bei adiabatischer Ausdehnung, beim Temperaturausgleich und beim Konzentrationsausgleich unterschiedlicher Substanzen erhöht sich deren Entropie, weil die Anzahl der Anordnungsmöglichkeiten der Moleküle wächst, die den gleichen Zustand beschreiben. Dies bedeutet gleichzeitig, dass Information über Ort und Geschwindigkeit der Moleküle verloren geht, also das Unwissen über den molekularen Zustand wächst. Information und Entropie sind gegenläufig miteinander verknüpft. So wie die Information durch den Logarithmus der Anzahl der Nachrichten gemessen wird, muss auch die Entropie durch den Logarithmus der Anzahl der Anordnungsmöglichkeiten bestimmt werden, denn bei der Vereinigung zweier Körper addieren sich ihre Entropien, aber die Anzahlen der Anordnungsmöglichkeiten ihrer Moleküle multiplizieren sich. So resultiert die einfache Formel  S = k* log(W), mit

S = Entropie, k = Boltzmannkonstante, W = Anzahl der Anordnungsmöglichkeiten.

 

Information und Zufall

Bestimmt man den Informationsgehalt einer Nachricht nach der Shannon-Formel, so wird die Bedeutung der Information völlig ignoriert. Meist besteht eine Nachricht aber aus einem bedeutungstragenden und einem zufälligen Anteil. Um den bedeutungstragenden Anteil zu messen, könnte man versuchen, den zufälligen Anteil vom gesamten Informationsgehalt nach Shannon abzuziehen. Zufälligkeit bedeutet das Fehlen jeder Regelmäßigkeit. Welche Kriterien müssen erfüllt sein, damit eine Ziffernfolge zufällig ist?

Diese beiden Kriterien sind zwar notwendig, aber nicht hinreichend, um Zufälligkeit zu charakterisieren. Unter Verwendung dieser Kriterien lassen sich die sog. „Normalen Zahlen“  konstruieren, die aber nicht zufällig sind. Zufällige Zahlen lassen sich grundsätzlich nicht durch Computeralgorithmen erzeugen, da dies der Definition einer Zufallszahl widerspricht. Von solchen Algorithmen werden lediglich „Pseudo-Zufallszahlen“ erzeugt, denen immer verborgene Regelmäßigkeiten zu Grunde liegen. Auch der Versuch, Zufallszahlen mit Hilfe der algorithmischen Komplexität zu definieren und zu erzeugen, scheiterte. Die algorithmische Komplexität ist die Länge des kürzesten Algorithmus, der die betreffende Zahl erzeugt. Findet man einen Algorithmus zur Erzeugung einer Zahl, so gelingt es nicht zu beweisen, dass dies der kürzestmögliche ist. Die einzige Möglichkeit zur Erzeugung von echten Zufallszahlen ist der Einsatz eines quantenphysikalischen Zählgerätes.

Wenn Entropie ein Maß für Unwissen und Information ein Maß für Wissen ist, könnte ihre Summe eine Konstante sein, die den möglichen Maximalwert von Entropie und Information angibt. Evolution wäre dann durch Anwachsen dieser „Konstante“ bestimmt.

 

Kodierung und Kompression

Bei alphanumerischer Kodierung einer Nachricht treten die verschiedenen Symbole mit unterschiedlichen Häufigkeiten auf. Deshalb werden für eine Nachricht mehr Symbole benötigt als notwendig ist. Die Nachricht ist länger als ihrem Informationsgehalt entspricht.

Bei Blockkodierung werden längere Sequenzen durch kurze Wörter oder Zahlen ersetzt. Die Nachricht wird dann kürzer, ohne dass sich ihr Informationsgehalt verändert.

 

 Rauschen

Sinnesorgane und technische Geräte können prinzipiell die Intensität von Signalen nicht beliebig genau wahrnehmen oder messen. Das Verhältnis zwischen maximaler Signalamplitude und Ungenauigkeit eines Informationskanals ist sein Signal/Rauschverhältnis. Es ist maßgebend für die übertragbare Menge an Information pro Impuls. Die übertragbare Informationsmenge pro Zeiteinheit ist bestimmt durch die Länge des Impulses bzw. durch die Impulsfrequenz. Wenn wir im Alter nur noch die Hälfte der Frequenzen wahrnehmen können, muss dies durch eine Erhöhung des Signal-Rauschverhältnisses ausgeglichen werden. Alte Menschen können deshalb im Rauschpegel von Partys keine Gespräche mehr führen.

Auf der anderen Seite können leise, nicht mehr wahrnehmbare Signale durch ein konstantes Hintergrundrauschen auf ein noch wahrnehmbares Niveau angehoben werden und einzelne Störsignale durch Anheben des Rauschpegels zum Verschwinden gebracht werden.

 

Höchstgeschwindigkeit der Information

Da Information keine Materie ist, wird immer wieder diskutiert, ob sie sich schneller als Licht ausbreiten könnte. Information existiert aber nicht im freien Raum, sondern ist immer an einen materiellen Träger gebunden, auch wenn dieser wechseln kann. Berichte über angeblich gemessene Überlichtgeschwindigkeiten beziehen sich immer auf die Maxima von Wellenpaketen, deren Form sich mit der Zeit verändert. Es kann daher vorkommen, dass das Maximum der Welle schneller läuft als ihr Mittelpunkt, dafür aber kleiner wird. Die Welle beschreibt nach der Quantentheorie die Aufenthaltwahrscheinlichkeit des Teilchens oder Photons. Information aber ist an das Teilchen oder Photon gebunden und kann daher nach der Relativitätstheorie nicht schneller als c sein. Wenn in einer intensiven Laser-Lichtwelle, die zahlreiche Photonen transportiert, einzelne Photonen eher ankommen als die Mehrheit, dann sind diese auch eher losgelaufen. Die Entdeckung einer höheren Signalgeschwindigkeit würde die Relativitätstheorie in Frage stellen.

 

Der Informationsfluss der Wissenschaft.

Nach einem von Albert Einstein beschriebenem Schema erwächst die Wissenschaft auf einer Vielzahl  von unmittelbar oder mit Hilfe von Instrumenten gewonnenen Sinneserfahrungen. Auf dieser Erfahrungsebene werden Informationen über die unterschiedlichsten Ereignisse gesammelt. Ein wenig oberhalb dieser Erfahrungsebene beginnt ein Induktions-Prozess, in dem die großen schöpferischen Genies der Wissenschaften durch Inspiration, Phantasie, Entdeckungsgeist, Intuition, Einsicht und Instinkt diese Informationen zu den großen, fundamentalen Naturgesetzen der Physik (Maxwells Gleichungen der Elektrodynamik, Hauptsätze der Thermodynamik, Quantentheorie, Relativitäts- und Gravitationstheorie) und der Biologie (Evolutionstheorie, Vererbungslehre usw.) verdichten. Aus diesen Axiomensystemen leiten dann die gewöhnlichen Theoretiker der Wissenschaften durch strenge mathematische und logische Folgerungen sekundäre wissenschaftliche Gesetze ab, die zu Aussagen und Voraussagen über tatsächliche und mögliche Ereignisse auf der Erfahrungsebene führen. Aufgabe der Experimentalwissenschaftler ist es dann, die theoretischen Aussagen mit tatsächlichen Beobachtungen zu vergleichen. Durch diesen Vergleich werden neue Informationen erzeugt, welche die zugrundegelegten Axiome entweder bestätigen oder zu deren Veränderung führen.

Die Formulierung wissenschaftlicher Gesetze ist eine extreme Form der Informationskomprimierung. Die in diesen Gesetzen enthaltene Information ist überwältigend groß, aus ihr folgt ein großer Teil unseres gesamten Wissens, das von niemandem auch nur näherungsweise auf einmal verstanden werden kann. Diese Menge an Information kann nicht durch die einfache Zählung von Bits nach der Shannonschen Formel beschrieben werden, womit sich die Unvollkommenheit dieser Formel erweist, die eben keine Aussage zur Bedeutung einer Information macht. Die in den wissenschaftlichen Gesetzen enthaltene Information wird heute durch Computerberechnungen ausgepackt, wodurch neue Information entsteht, die eigentlich in der ursprünglichen Information bereits enthalten ist. Diesen Prozess quantitativ zu beschreiben, ist offensichtlich der Wissenschaft noch nicht gelungen.

 

Bioinformatik

Die gesamte biologische Information, die ein Lebewesen benötigt, steckt in seinen Genen. Wir sind aber noch nicht in der Lage, diese Information auszupacken. Hier läuft zur Zeit ein Prozess in entgegengesetzter Richtung. Die Information über den Aufbau des Genoms ist weltweit in den unterschiedlichsten Datenbanken verstreut und wird zur Zeit mühsam, aber auch unter Einsatz von Computern, zugänglich gemacht. Dabei stellt sich heraus, dass z.B. die Anzahl der menschlichen Gene bei weitem nicht so groß ist, wie man ursprünglich angenommen hatte. Das Genom ist ein komplexes System von Genen, die sich gegenseitig beeinflussen und die für das Leben notwendige Information wird erst während der Entwicklung der Organismen aus dem Genom ausgepackt. Die Zuverlässigkeit des Wissens über das Genom muss somit durch laufend neue Informationen ständig verbessert werden. Zur Bewältigung dieser Aufgabe kann das Bayes Theorem eine wichtige Hilfe sein.

 

Den Sinn des Abschnitts „Information ist physikalisch“ kann ich nicht verstehen. Am Ende wird nicht nachvollziehbar argumentiert, dass Information zwar an physikalische Strukturen gebunden ist, aber angeblich keine Verlustwärme entsteht.

 

Quanteninformation

Der Strahlteiler

Ein Strahlteiler zerlegt einen Lichtstrahl in einen durchgelassenen und einen reflektierten Anteil und ist das einfachste Gerät, mit dem die Quantennatur des Lichts zweifelsfrei nachgewiesen werden kann. Zwei geeignet hintereinander angeordnete Strahlteiler zeigen durch Interferenzerscheinungen die Wellennatur des Lichtes und beweisen gleichzeitig, dass ein Photon jeweils nur in einem der beiden Lichtstrahlen in Erscheinung tritt.

Eine ganz analog aufgebaute Einrichtung beweist durch das Auftreten von Interferenzen die Wellennatur von Teilchenstrahlen. Die Wellenfunktion eines Teilchens besitzt selbst aber keine materielle Realität, sondern beschreibt lediglich die Aufenthaltswahrscheinlichkeit des Teilchens in einem bestimmten Zustand. Die typisch quantenmechanischen Erscheinungen kommen durch Überlagerungen (Superposition) der Wellenfunktion zustande, deren Produkt mit ihrer konjugiert komplexen die Aufenthaltswahrscheinlichkeit des Teilchens bestimmt. Makroskopische Paradoxien ergeben sich aber nur, wenn man die Superposition der Wellenfunktion mit der Überlagerung von Wahrscheinlichkeiten selbst verwechselt, was häufig nicht nur in populärwissenschaftlichen Darstellungen erfolgt. Ich habe den Verdacht, dass selbst beim Autor dieses Buches dieser Unterschied nicht klar oder bei der Übersetzung ins Deutsche verloren gegangen ist. Dieser Verdacht erhärtet sich im nächsten Abschnitt.

 

Quantensuperposition

Der oft diskutierte Streit um „ Schrödingers Katze“ ist meiner Auffassung nach genau ein solcher Fall der falschen Interpretation quantenmechanischer Superposition und deshalb Auslöser der beschriebenen Extremreaktion von Hawking. Nicht bei der Katze überlagern sich die Wahrscheinlichkeiten von „tot oder lebendig“ zu gleichzeitig „tot und lebendig“, sondern eine solche Superposition betrifft nur die Wellenfunktion des Atomkerns, welche die Zustände zerfallen oder nicht zerfallen beschreibt. Der Zerfall des Atoms wird nicht durch Öffnen des Kastens ausgelöst, sondern durch Zufall mit der Wahrscheinlichkeit gemäß der Superposition der beiden Zustände. Die auf den Nachweis des Zerfalls durch den Geigerzähler folgende Reaktionskette hat nichts mehr mit quantenmechanischen Zuständen zu tun und muss rein makroskopisch beschrieben werden.

Der Unterschied wird deutlich durch das zweite Beispiel des Perlenspiels hervorgehoben. Die unterschiedliche Wahrscheinlichkeit für die Korrelation der klassischen Farbe der Perlen und der Quanteneigenschaften des Elektronenspins ergibt sich daraus, das im ersten Fall wirklich klassische Wahrscheinlichkeiten überlagert werden, im zweiten Fall aber Wahrscheinlichkeitsamplituden, die erst quadriert Wahrscheinlichkeiten ergeben. Die Nachbarperle hat mit einer bestimmten Wahrscheinlichkeit eine abweichende Farbe. Das verschränkte Elektron aber hat in einer um 30 grad abweichenden  Richtung eine Wahrscheinlichkeit für eine abweichende Spinausrichtung, die erst durch Superposition der möglichen Zustände parallel oder antiparallel berechnet werden muss.

Für Quantenobjekte ist die Superpositionsregel für ihre Wellenfunktionen ein Fakt, der berücksichtigt werden muss, auch wenn er zunächst unanschaulich ist. Die Ausdehnung dieser Regel auf Makroobjekte wie Schrödingers Katze ist dagegen eine Frage der nicht richtigen Interpretation. Diese führt letzten Endes auf die Vielweltentheorie, die noch viel unanschaulicher ist. Das Experiment mit der Katze hat ja noch keiner ausgeführt. Wenn die Interpretation richtig wäre, müsste man ja leicht feststellen können, ob die Katze eben erst gestorben ist oder schon lange vor dem Öffnen des Kastens tot war.

 

Das Qubit

Auf dem Wege zur Erforschung der Möglichkeiten eines Quantencomputers wurde das Qubit erfunden. Im Gegensatz zum Bit, dessen Wert entweder Null oder eins ist, trägt ein Qubit diese beiden Möglichkeiten unerkannt in sich. Es kann z.B. erzeugt werden durch einen Strahlteiler, hinter dem unbekannt ist, in welchem Teil sich ein einfallendes Photon befindet. Hinter einem gleichen zweiten Strahlteiler kann durch eine geeignete Anordnung das Photon durch Interferenz ausgelöscht werden. Diese Anordnung stellt damit ein „nicht-Gatter“ dar, das ein Bit von 1 in ein Bit von Null verwandelt. Der einzelne Strahlteiler kann damit als “Quadratwurzel aus nicht-Gatter“ bezeichnet werden, durch das ein Qubit erzeugt wird. Je nach Ausrichtung der beiden Strahlteiler entsteht hinter ihnen wieder ein Bit, das mit einer bestimmten Wahrscheinlichkeit eine 1 trägt. Diese Wahrscheinlichkeit wird bestimmt durch die Durchlässigkeit der Strahlteiler und durch die Phasenverschiebung der interferierenden Teilstrahlen. Beide Parameter charakterisieren das Qubit, sind aber unbekannt. Deshalb kann ein Qubit nicht kopiert werden, denn hinter dem 2.Strahlteiler sind diese Informationen zerstört. Die Wahrscheinlichkeit wird von dem Qubit zwar transportiert, kann aber nur bestimmt werden, indem man viele Bits mit 1 in den 1.Strahlteiler schickt und untersucht, wie viele davon hinter dem 2. wieder herauskommen. Durch die Möglichkeit der Verschränkung soll man mit den von den Qubits getragenen Wahrscheinlichkeitsverteilungen zwar parallel rechnen können, kann die konkreten Ergebnisse aber am Ende nicht parallel abfragen, sondern muss dazu viele gleichartige Berechnungen durchführen. Alle diese Probleme auf dem Wege zu einem Quantencomputer sind derzeit ungelöst.

 

Quantencomputer

In diesem Abschnitt wird viel darüber diskutiert, wie wunderbar schnell man mit einem Quantencomputer rechnen könnte. Es gelingt dem Autor aber nicht, konkret zu zeigen, wie man das theoretische Konstrukt eines Qubits praktisch handhaben könnte, wie eine Speicherzelle ein Qubit speichert und vor allem wie man Informationen eingeben und die bearbeiteten Informationen gewinnen kann.  Es entsteht der Eindruck, das ein sog. Quantencomputer ein quantenmechanisches System ist, das nur Auskunft über sich selbst geben kann. Die angeführten Beispiele von Quantensystemen mit zwei möglichen Zuständen legen nicht nahe, dass man in ihnen außer gewöhnlichen Bits auch Qubits speichern und manipulieren könnte. Ein brauchbarer Quantencomputer scheint jedenfalls, wenn es ihn überhaupt je geben sollte, noch in weiter Ferne zu liegen.

 

Information in Schwarzen Löchern

Wenn irgendwelche Objekte in schwarze Löcher fallen, geht die in ihnen enthaltene Entropie und Information verloren. Um die universelle Gültigkeit des II.Hauptsatzes der Thermodynamik aufrecht zu erhalten, wurde deshalb einem Schwarzen Loch eine Entropie zugeordnet., die durch seine Oberfläche charakterisiert werden kann. Aus Energie und Entropie ergibt sich dann mit der thermodynamischen Definition der Entropie eine sehr niedrige Temperatur des Schwarzen Loches, die Ursache für eine thermische Strahlung des Schwarzen Loches ist. Diese Strahlung entsteht im starken Gravitationsfeld an der Oberfläche des Schwarzen Loches und trägt Energie und Entropie aus dem Schwarzen Loch in den umgebenden Weltraum, aber nur wenig Information. Ob in den Schwarzen Löchern Information vernichtet wird oder ob diese später durch Explosion des Schwarzen Loches in einer Art Urknall wieder freigesetzt wird, ist derzeit theoretisch ungeklärt. (Wenn Information im Schwarzen Loch verbleibt und die Entropie verringert, steigt die Temperatur)

 

Aktuelle Forschung

Ein objektives Maß für die Bedeutung von Information konnte trotz intensiver Bemühungen bisher nicht gefunden werden. Klar ist, dass neben der Menge an Information durch Zählung der Bits nach der Shannon-Formel auch die Zuverlässigkeit der Information und ihr Nutzen für den Empfänger berücksichtigt werden müssen. Ein allgemeines Kriterium, das alle denkbaren Maße erfüllen müssen, ist die Forderung, dass durch hintereinander geschaltete  Übermittlungskanale die gemessene Informationsmenge nicht vergrößert werden darf. Die Schwierigkeiten der Messung ergeben sich vor allem daraus, dass die Bedeutung der Information vom Vorwissen des Empfängers abhängt und dadurch einen subjektiven Anstrich erhält, der schwer zu beseitigen ist. Eine Information, die den Empfänger zum zweiten Mal erreicht, kann zwar u. U. deren Zuverlässigkeit erhöhen, kann aber auch völlig wertlos sein.

All unser Wissen über die Natur stammt aus Information. Die fundamentalen Bausteine der Information aber sind Antworten auf Ja-Nein-Fragen. Hieraus folgerte Zeilinger: Ein elementares System trägt genau ein Bit an Information. Wir können nicht wissen, wie die Natur wirklich aufgebaut ist, wir wissen nur, dass sie aus solchen elementaren Informationen zusammengesetzt ist. Quantenobjekte aber tragen nicht einmal Bits, sondern Qubits, bevor sie abgefragt wurden. Die Bedeutung von Information wird wahrscheinlich erst dann aufgeklärt werden können, wenn die Informationstheorie gelernt hat, mit Qubits umzugehen.

 

Nachbemerkung:

Das Buch von H.c. von Baeyer ist nicht nur interessant, weil es versucht, die hier angeführten Probleme mit dem Begriff der Information umfassend darzustellen, sondern es enthält darüber hinaus auch eine Fülle von interessanten Anekdoten  über die Geschichte der modernen Physik und über das Wirken vieler führender Physiker.

   

15.10.2010

Bertram Köhler