Eine Besprechung der evolutionskritischen Arbeit:

"Widerlegung der Einwände gegen die Anwendbarkeit der Wahrscheinlichkeitsrechnung auf die Evolutionstheorie" des Herrn Frieder Meis

von Martin Neukamm


           

Vorbemerkung von Martin Neukamm:

Herr Frieder Meis hat die hier vorliegende Replik zu einer meiner Arbeiten geschrieben, in der ich die antievolutionistischen Schlüsse zur Frage der Wahrscheinlichkeit von evolutionären Prozessen infrage stelle. Meine ursprüngliche Arbeit habe ich mittlerweise gründlich überarbeitet und durch einen neuen Text ersetzt. Herr Meis hat dieses Vorgehen als "unseriös" bezeichnet und glaubt, ich hätte aufgrund seiner hier diskutierten Replik den Artikel gelöscht und in der Sache etwas zurückzunehmen.

Ich möchte darauf hinweisen, daß das Löschen der älteren Fassung nichts mit der hier vorliegenden Kritik von Herrn Meis zu tun hatte. Mir ging es lediglich darum, meine emotiven Angriffe im Sinne der Sachlichkeit vollständig zu entfernen und die Argumentation durch die Hinzunahme weiterer Gesichtspunkte stringenter zu formulieren. Sie können meine beiden Arbeiten, die ältere sowie die neue, über die obenstehenden Links einsehen.

Schließlich habe ich Herr Meisens Replik in diesem Artikel nochmals aufgegriffen und in den "rot" markierten Abschnitten besprochen. Leider konnte oder wollte Herr Meis zu meinem neuen Text bislang nicht Stellung nehmen.


               

Vorbemerkungen von Frieder Meis:

Vorweg sei darauf hingewiesen, dass Herr Neukamm in seinen Kommentaren völlig grundlos mit verletzender Polemik arbeitet (...) Nach der erstmaligen Veröffentlichung meiner Wahrscheinlichkeitsschrift am 09.09.2002 reagierte Herr Neukamm bereits am darauffolgenden Tag. Die von mir diskutierte Passage seines Beitrags, die er mehr als zwei Jahre im Internet angeboten hatte, wurde von Herrn Neukamm daraufhin aus seinem Internet-Dokument vollständig entfernt. An eben diese Stelle kopierte Herr Neukamm einen älteren seiner Beiträge, nämlich "Evolution oder Schöpfung, Zufall oder Notwendigkeit? - die Argumentation mit der Wahrscheinlichkeit" aus dem Jahr 2000 (30.04.2000 gemäß dem Vermerk im Internet-Dokument selbst). Diesen Beitrag findet man somit nun zweimal auf seiner Homepage (...)

Dass Herr Neukamm seine ursprünglichen Anmerkungen nicht verteidigt oder richtigstellt, sondern statt dessen löscht und durch einen anderen Beitrag ersetzt, mag jeder interpretieren wie er will. Mich persönlich hat diese Vorgehensweise zwar nicht sonderlich verwundert, aber ich hätte mir - offen gesagt - doch etwas mehr Seriosität gewünscht.

Kommentar (1):

Ich habe Ihnen ja mitgeteilt, daß ich meine Arbeit grundlegend überarbeitet und auf polemische Entgleisungen verzichtet habe. Desweiteren habe ich alle Argumente nochmals geprüft, unpassende oder falsche Formulierungen entfernt. Ich hielt es ferner für angebracht, meine Einwände gegen die evolutionskritische Diskussion durch eine Reihe weiterer Erkenntnisse zu erweitern und bestehende Aussagen auf einer tieferen Ebene zu erklären. Dies führte mich zu der Einsicht, daß der Text einer umfassenden Revision bedurfte, um auch neueren Einwände gegen die Wahrscheinlichkeit einer transspezifischen Evolution adäquat zu begegnen. Ich möchte betonen, daß sich praktisch alle meine Argumente aus der älteren Arbeit in meinem neuen Essay wiederfinden! Leider wurde mir diese - überaus gängige Praxis - als "Unseriosität" ausgelegt.  

                             

Er stellt Intelligent-Design-Theoretiker unter dem Sammelbegriff "Kreationisten" oder "Antievolutionisten" in die Ecke der Personen mit 'ideologisch fixierten Vorurteilen' und 'schizophrener Logik', die eine 'dogmatisch begründete Unwilligkeit zum logischen Denken' auszeichnet. Mit einer fairen "Besprechung" hat sein Artikel nichts mehr zu tun.

Kommentar (2):

Bedarf die Bezeichnung "Antievolutionismus" in diesem Zusammenhang der Rechtfertigung? Alle Evolutionsgegner räumen doch ein, daß sie wider (anti!) die Evolutionstheorie argumentieren. Interessanterweise verstehen die meisten Antievolutionisten, ja selbst viele Kreationisten auch die Bezeichnung "Kreationist" als eine Abwertung ihrer Person und lehnen diesen Terminus mit aller Entschiedenheit ab. Obgleich es im strengen Sinne natürlich eine Unterscheidung zwischen Kreationismus und Antievolutionismus gibt, enthält der Terminus a priori keinerlei pejorative Konnotation, und es spricht aufgrund seiner Bedeutung sensu lato nichts gegen dessen Verwendung. Der Begriff "Kreationist" leitet sich vom Wort creatio für Schöpfung ab, so daß Kreationismus, wenn Sie so wollen, letztlich soviel wie "Schöpfungsglaube" bedeutet, der wider die Evolutionstheorie argumentiert.

                           

In folgendem Text (heruntergeladen von Herrn Neukamms Homepage am 20.08.2002) greift Herr Neukamm die Anwendbarkeit dieser Wahrscheinlichkeitsrechnungen auf die Evolutionstheorie an (speziell diejenige von Klaus Wittlich). Eine Analyse dieser Angriffe scheint angebracht, da einzelne Evolutionstheoretiker die Regeln der Stochastik nicht auf die Evolutionstheorie angewandt wissen wollen und einige Leser (besonders im deutschsprachigen Raum) sich fragen, was es damit auf sich hat.

Kommentar (3):

Die Frage, was jemand will, steht eigentlich nicht zur Debatte. Es geht eher darum zu zeigen, daß die Voraussetzungen falsch sind, um aus beliebigem Multiplizieren und Potenzieren antievolutionistische Schlüsse zu ziehen. Weder in der molekularen Evolution noch in der sogenannten "Makroevolution" macht es Sinn, Berechnungen anzuführen, welche die chemische Thermodynamik und Reaktionskinetik, die Rolle von Selektion, die Entscheidungsfreiheit in der Evolution, die eventuellen Möglichkeiten der Kopplung von Genen sowie das Wesen von Doppelfunktionen unter den Tisch fallen lassen. Außerdem habe ich in meinem älteren Text ja darauf hingewiesen, daß nahezu jedes bereits eingetretene Alltagsereignis eine a priori-Wahrscheinlichkeit von "fast Null"besitzt. Nehmen wir etwa an, Sie bekamen am letzten Freitag einen Anruf um 10.35:22 Uhr; gleichzeitig passierte an der nächsten Straßenkreuzung ein Unfall. Sie müßten mir zustimmen, wenn ich feststelle, daß die Wahrscheinlichkeit a priori extrem klein war. Nur dürfen Sie daraus eben nicht schließen, daß es kaum hätte eintreten können, denn es hat eben niemand verlangt, daß dieses - "im Geiste"  vorweggenommene Ereignis so und nicht anders zu reproduzieren war.

                       

Ich habe im Rahmen dieses Beitrags Herrn Klaus Wittlich die Möglichkeit eingeräumt, persönlich zu einigen Angriffen des Herrn Neukamm Stellung zu nehmen. Alle Absätze in Grün sind Ausführungen von Herrn Neukamm. Alle Absätze in Bernstein sind Anmerkungen von Klaus Wittlich.

In der Hoffnung, dass meine um Sachlichkeit bemühten Kommentare auf Respekt und Wohlwollen stoßen (auch bei Herrn Neukamm), wünsche ich meinen Lesern eine gewinnbringende Lektüre dieser Schrift.

Analyse:

M. Neukamm: 10. Besprechung der statistischen Analyse von Klaus Wittlich und die fehlerhafte Diskussion von Wahrscheinlichkeitsbegriffen

Wittlich rechnet uns anhand eines Beispiels vor, wie unwahrscheinlich es sei, eine gewünschte Gensequenz aus 1000 Nucleotidbasen durch Mutation zu erzeugen, die ein bestimmtes Enzym codiert. Wittlich:

"(...) Tausend Basen sind dann unser Ausgangspunkt für die weiteren Berechnungen - 41000 = 1,15*10602 Möglichkeiten (...) Damit ergibt sich für die Zahl der pro Sekunde seit der Entstehung des Universums pro Atom der Erde benötigten Versuche zu (...) 3,2*10530, um mit einem (!) brauchbaren 1000-Basen-DN A-Strang rechnen zu können. (...)"

Wittlichs Argumentation mit der Wahrscheinlichkeit ist nicht neu und wird seit Jahrzehnten in Form zahlreicher Abwandlungen immer wieder präsentiert. Nun läßt sich nicht bestreiten, daß die Beispielrechnungen, vom Standpunkt eines Programmierers und Mathematikers aus betrachtet, formal völlig richtig sind.

Grundsätzlich möchte ich an dieser Stelle festgehalten, dass nach meiner Überzeugung mathematische Gesetze für Chemiker und Biologen in gleichem Maße gelten müssen wie für Mathematiker und Programmierer!

Kommentar (4):

Die mathematischen Gesetze schon. Es geht hier aber um die in (3) und (6) besprochenen Voraussetzungen. Hier wird Unvergleichbares miteinander verglichen. 

                                         

M. Neukamm: Doch zum Zwecke der Falsifikation des Evolutionsgedankens, greift diese Argumentationskette in eklatanter Weise ins Leere. Warum? Nun, wer evolutionsbiologische Mechanismen auf die Gesetze der Formalarithmetik reduziert, wird der Komplexität der Sache nicht gerecht.

Anmerkung von Klaus Wittlich: Nicht Formalarithmetik, sondern Statistik! Das ist etwas anderes. In meinem Artikel wurde nicht Formalarithmetik, sondern Statistik erklärt, insbesondere die Grundlagen der Binomialverteilung.

Kommentar (5):

Meinetwegen. Was könnte dies aber daran ändern, die die Voraussetzungen für antievolutionistische Schlüsse nicht stimmen?

                     

In der Mathematik versucht man, der Komplexität mit der Komplexitätstheorie zu begegnen und ihr gerecht zu werden, ein Wissenschaftszweig, der übrigens auch in der Informatik häufig Anwendung findet. Warum die Komplexitätstheorie der Komplexität der Sache nicht gerecht werden soll, ist schleierhaft.

Kommentar (6):

Ganz allgemein läßt sich feststellen, daß Wahrscheinlichkeitsberechnungen die Prämisse zugrunde liegt, unbedingt eine ganz bestimmte Funktionsanordnung (oder eine eingeschränkte Menge von Ereignissen) reproduziert zu bekommen. In der Evolution müssen jedoch nicht konkrete Funktionen realisiert werden, denn es reicht ja bereits, wenn einem System durch Modifikation irgendein beliebiger Überlebensvorteil erwächst. Die Frage kann also nicht lauten "Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Menge von selektionspositiven Veränderungen im Organismus eintritt?", sondern es muß gefragt werden "Wie wahrscheinlich ist die Entstehung irgendeiner vorteilhaften Systemveränderung?". Da man aber weder weiß, welche und wieviele Biomoleküle unter welchen Bedingungen einem Organismus einen Überlebensvorteil bescheren können, welche und wieviele Gene wie miteinander verschaltet werden können, damit sich eine vorteilhafte Genwirkkette bildet, wieviele Alternativmöglichkeiten es gibt, um irgendeine Struktur sinnvoll mit irgendeiner anderen zu kombinieren, sind Berechnungen, die nur die Wahrscheinlichkeit einer einzigen (Menge von) Realisierungsmöglichkeit(en) unter immens vielen denkbaren Alternativen präsentieren, vollkommen bedeutungslos.

In jedem Falle ist es sehr problematisch, Wahrscheinlichkeiten anzugeben, für deren sinnvolle Berechnung wichtige Details fehlen. Ein Prozeß, dessen Kausalerklärung man noch nicht kennt, kann man nicht auf abstrakte Zufallsschritte reduzieren, um dann irgendwelche Wahrscheinlichkeiten zu berechnen; das wäre in jedem Falle eine unbegründete Simplifikation. Insbesondere für die Synorganisationsproblematik sowie für das Problem der "irreduzierbaren Komplexität" gibt es Modelle, die zeigen, daß die Evolution dem Zufall stark entzogen sein könnte (siehe unten). Es müßte also abgewartet werden, bis man in der Evolutionsforschung die Voraussetzungen geklärt hat, um hier noch sinnvoll weiterreden und entscheiden zu können, inwieweit der Zufall tatsächlich noch eine Rolle spielt.

 

M. Neukamm: Und so übersehen alle Evolutionskritiker geflissentlich seit Jahrzehnten, daß die Wahrscheinlichkeit ein statistischer Begriff ist und als solcher nur anwendbar, wenn man die exakte Reproduktion eines Ereignisses diskutieren möchte!

Es ist nicht statthaft, dass Herr Neukamm an dieser Stelle unerwähnt lässt, dass Klaus Wittlich in seiner Berechnung von einer Sequenz mit 40%iger Variabilität ausgeht. Auf diese Weise erweckt er den irrigen Eindruck, Klaus Wittlich habe in seinen Ausführungen einen eklatanten Fehler gemacht, was ihm nun Gelegenheit gibt, diesen Fehler anzugreifen. In Wahrheit hat Klaus Wittlich in seinen Berechnung den Einwand des Herrn Neukamm bereits vorweggenommen.

Kommentar (7):

Um die Variabilität ging es mir nicht; ich habe dies in meinem Text erwähnt. Der Fehler besteht zu einem guten Teil eben darin, daß "formal", ohne Berücksichtigung der biochemischen Gesetzmäßigkeiten argumentiert wird. Entsprechende Hinweise habe ich auch in meiner älteren, hier kritisierten Arbeit gemacht. Diese Faktoren werden einfach nicht berücksichtigt und machen solche Wahrscheinlichkeitsberechnungen sinnlos:

                   


1.) Ein bestimmtes Protein mußte nicht von Beginn an seine spezielle und optimale Funktion, die es heute einnimmt, besitzen. Es hätte schon genügt, wenn das Enzym irgendeine Funktion als Elektronenüberträger (oder eine beliebige andere Funktion) besaß, die den Organismen einen Überlebensvorteil bot.

2.) Selbst wenn man eine bestimmte Funktion ins Auge faßt und behauptet, daß nur und ausschließlich diese entstehen mußte, muß deshalb noch lange nicht ein bestimmter, variabler Biomolekül-Typ verwirklicht werden. Vergleichende Untersuchungen zeigen, daß viele verschiedene Nucleotid- oder Aminosäuresequenzen zu Nucleinsäure- oder Proteinstrukturen mit praktisch denselben Eigenschaften führen. Die erfolgversprechenden Strukturen kommen nun nicht gehäuft in einer bestimmten Zone des Sequenzraumes vor (so wie etwa die Varianten eines bestimmten Enzym-Typs), sondern sind mehr oder minder regellos verteilt. Dies bedeutet, daß von jeder beliebigen Sequenz ausgehend in einigen Schritten eine erfolgversprechende Struktur realisiert werden kann. So konnte SCHUSTER mathematisch nachweisen, daß "alle wesentlichen Sekundärstrukturen von Sequenzen aus 100 Nucleotiden durch maximal 20 Nucleotidsubstitutionen von jeder Zufallssequenz aus zu erreichen (sind)."

3.) Der Austausch von Aminosäuren (oder Nucleotidbasen) gegen andere gar nicht regellos und zufällig, wie die Wahrscheinlichkeitsberechnungen unterstellen: Aminosäuren werden bevorzugt durch bestimmte andere substituiert; ein isopolarer Austausch von Aminosäuren erfolgt häufiger als ein heteropolarer. Auch die abiotische Bildung von Proteinoiden durch Verkettung von Aminosäuren verläuft nach thermodynamischen und reaktionskinetischen Regeln. Die Aminosäuresequenzen werden durch die chemischen Eigenschaften der Aminosäuren selbst sowie durch die Reaktionsbedingungen beeinflußt. Alpha-Peptidbindungen bilden sich bevorzugt und die Mengenausbeute bestimmter Polypeptide ist höher als bei statistischer Zufallsverteilung. Selbst große Komplexe, wie Porphyrine und Isoprene, aber auch ATP und alle Nucleotidbasen wurden in Ursuppenexperimenten der zweiten Generation unter gleichsam unspezifischen Bedingungen reproduziert. (Bio-) Chemie hat fast nichts mit Statistik zu tun; die physico-chemischen Gesetzmäßigkeiten greifen enorm in die molekulare Evolution ein, so daß von reinen Zufallsprozessen nicht die Rede sein kann.  

4.) Ein ausgezeichnetes, von Evolutionsgegnern verkanntes Prinzip zur Eindämmung der kombinatorischen Vielfalt besteht schließlich auch im stufenweisen Aufbau "modularer Strukturen". Im Falle von Biomolekülen handelt es sich um mehr oder minder autonome Faltungseinheiten, die brauchbare Strukturmerkmale aufweisen. Große Proteine besitzen in der Regel mehrere solcher hierarchisch strukturierten Module. Diese müssen nun nach GILBERT nicht alle gleichzeitig entstanden sein, denn es hätte bereits genügt, wenn aus der Vielfalt aller möglichen Sequenzen zunächst eine beschränkte Anzahl von autonomen Modulen aufgebaut wurde, die jeweils nur einen Bruchteil der Kettenlänge umfassen. Jene Module, die in irgendeiner Weise brauchbare Strukturmerkmale aufweisen, könnten auf dieser Stufe durch Selektion fixiert werden, so daß durch schrittweise Kombination selektionspositiver Module komplizierte Biomoleküle mit eventuell neuen Eigenschaften entstehen. Auch die Hypothese der Kettenverlängerung durch "exon-shuffling" macht also deutlich, daß der Zufall nur noch eine geringe Rolle im evolutionären Aufbau größerer Proteine spielt.


Der Programmierer WITTLICH hat keine einzige dieser biochemischen Voraussetzungen in seinen Modellen berücksichtigt. Wenn man dies tut - und ich habe in meiner neuen Arbeit auf entsprechende Quellen  und Voraussetzungen hingewiesen - gelangt man zu völlig anderen Resultaten. Ich betone nochmals: Bioevolution und Chemie ist nich mit Stochastik gleichzusetzen, weil die ihnen zugrundeliegenden physico-chemischen Gesetzmäßigkeiten und Kopplungen enorm in die Zufallsverteilung eingreifen.   

                   

Um dem Leser die Gelegenheit zu geben, die Berechnungen von Klaus Wittlich selbst einzusehen, sei hier auf seinen lesenswerten Beitrag Über die Wahrscheinlichkeit der zufälligen Entstehung brauchbarer DNA-Ketten verwiesen. Der Leser wird sehen, dass es in seinen Berechnungen gar nicht um die "exakte Reproduktion eines Ereignisses" geht, wie Herr Neukamm dies suggeriert. Tatsächlich schreibt Klaus Wittlich:

"Ein weiterer Einwand ist, dass nun nicht alle Basen exakt stimmen müssen. Es gibt Fälle, wo bis zu einigen Prozent Abweichungen vom Original möglich sind, und der DNA-Strang dennoch funktioniert."

Und weiter:

"Wie der Leser erkennt, liefert der vorliegende Ansatz nicht nur eine einzige Sequenzvariante, sondern sehr viele: Selbst bei 40% maximaler Abweichung ein Wert, der für die meisten Enzyme bereits völlig irrelevant sein dürfte, ist die pro Sekunde pro Atom der Erde seit Entstehung der Universums nötige Zahl an Versuchen 7,2 · 1068. Bei einer zulässigen Abweichung bis 40 % gibt es 1,15 · 10602 / 2,6 · 10120 = 4,5 · 10481 brauchbare Möglichkeiten, bei einer zulässigen Abweichung von genau 40 % gibt es "nur" noch 5 · 10290 Varianten."

Kommentar (8):

Hier wurde ich gründlich mißverstanden; das lag vielleicht an meiner etwas mißglückten Ausdrucksweise. Was ist meinte ist Folgendes: WITTLICH hat die Entstehung eines bestimmten (variabilen) Enzym- oder Biomolekül-Typs eingefordert. Damit hat er bereits die realisierbaren Alternativen auf ein unzulässiges Maß eingeschränkt. Ich hatte dies jedoch an anderer Stelle grundsätzlich nochmals erwähnt: Um eine Funktion zu erreichen, kommen Myriaden von völlig anderen Enzym-Typen infrage, die alle mehr oder minder regellos über den Sequenzraum verteilt sind  - vgl. (7).  Es kommen auch beliebig andere Funktionen infrage, die dem System einen Vorteil bescheren. Niemand verlangt, daß nur und ausschließlich die Funktion eines Enzyms XY entstanden sein mußte. Die Voraussetzungen, die ich in (6) und (7) besprochen habe, blieben völlig unberücksichtigt. Auf nichts anderes habe ich zum Teil schon in meiner älteren Arbeit hingewiesen. Dies zeigt, wie schnell irrelevante Aussagen über die Biogenese gemacht werden.

               

Aber es muss sich doch zumindest mal ein Molekül gewisser "Länge" gebildet haben. Wenn man nun errechnet, dass sich bereits ein solcher gänzlich unbrauchbarer Aminosäure-Strang mit völlig nutzlosem Code niemals zufällig hatte bilden können, dann ist es doch müßig, darüber zu diskutieren, dass man diese 1000 Aminosäuren doch auf vielerlei Weise anordnen kann.

Kommentar (9):

Jein. Alle für irgendeinen Selektionsvorteil entscheidenden Molekül-Strukturen kommen schon in einem winzigen Ausschnitt des Sequenzraumes vor (Quellen und Beispiele finden sich in meiner neuen Arbeit). WITTLICH hat seine Überlegungen unbegründeterweise auf eine einzige Struktur (nämlich auf das aktive Zentrum eines bestimmten Enzym-Typs) beschränkt und dazu obendrein 60% des Sequenzraums "durchsucht". Die Zahl aller selektionsrelevanten Strukturen, die unter bestimmten Bedingungen Vorteile mit sich bringen, bleiben hier völlig außer Acht. Ihre Zahl dürfte immens sein, läßt sich aber kaum abschätzen. Allein deshalb beinhalten die Wahrscheinlichkeitsberechnungen Voraussetzungen, die keinen Sinn machen - siehe (6).

               

M. Neukamm: Da Evolution auf stochastischen Mutationen beruht, ist sie folglich akausal und indeterministisch.

Anmerkung von Klaus Wittlich: Gemäß physikalischen Gegebenheiten wird das thermodynamische Gleichgewicht angestrebt. ("Entropie verschwindet nie".) Wenn man eine unter Druck stehende Gasflasche öffnet, dann entweicht das Gas, wobei sich die Gasmoleküle, als Individuen betrachtet, zufällig bewegen. Das ganze System mit seinen sich stochastisch bewegenden Individuen verhält sich kausal und deterministisch. Das Gas entweicht, bis der Innendruck der Flasche dem Außendruck entspricht. Den umgekehrten Fall, dass das Gas statt von selbst aus der Flasche zu entweichen, von selbst in die Flasche eindringt und so einen merklichen Überdruck erzeugt, wird man in Folge der statistischen Gesetze nicht beobachten können, obwohl dieser Vorgang denkbar, jedoch, ähnlich wie eine Makro-Evolution, extrem unwahrscheinlich wäre.

Kommentar (10):

Das Gesetz der Zunahme der Entropie gilt nur für adiabatisch abgeschlossene  Systeme, nicht jedoch für offene Zweigsysteme fernab des thermodynamischen Gleichgewichts. In einem energiedurchflossenen Zweigsystem können durchaus Prozesse ablaufen, die mit einer Erniedrigung der Entropie einhergehen. Den "Preis" dafür zahlt das Obersystem, dem gegenüber das Zweigsystem offen ist. Wenn man etwa in der Wüste die Schriftzuge "Coca Cola" im Sand findet, hat dessen Entropie abgenommen. Dafür hat die Entropie im Organismus des Urhebers um einen noch größeren Betrag zugenommen, gegenüber den die Wüste "offen" ist. So kann es kommen, daß unsere Nieren - entgegen dem Konzentrationsgefälle - Stoffe aufkonzentrieren, daß Pflanzen aus CO2 Glucose aufbauen, daß chemische Reaktionen (wie etwa die Ammoniaksynthese) ablaufen, obwohl die Produkte gegenüber den Edukten Entropie verloren haben usw. Im Falle der Bioevolution zahlt die Sonne den Preis, die mehr Entropie emittiert als das Leben an Entropie abbaut. Das Argument ist also derart falsch, der 2. Hauptsatz der Thermodynamik derart unverstanden, daß selbst Antievolutionisten wie JUNKER und SCHERER nur dringend davor warnen, ihn als Argument gegen Evolution einzusetzen!   

                 

Da Herr Neukamm an dieser Stelle Mutationen erwähnt, möchte ich einmal veranschaulichen, was Mutationen bewirken können und was nicht: Eine Mutation bewirkt fast immer das, was ein winziger Kratzer auf einer CD bewirkt. Entweder wird der Defekt durch Prüfsummenvergleich erkannt und die Originaldaten rekonstruiert, oder man hört ein Knacken (Missbildung). Man weiß auch, dass ein Kratzer auf einer CD kein neues Musikstück entstehen lässt. Da spielt es auch keine Rolle, wie viele Kratzer auf der CD sind. Dass ein Kratzer jemals eine Verbesserung für die auf der CD befindliche Musik darstellt oder gar eine neue Musik entstehen lässt, daran darf man zu Recht zweifeln. Dass sich auf einer leeren CD durch abwechselndes Verkratzen und Kopieren im Laufe der Zeit eine komplexe Symphonie entwickelt, mag einem auch in Zeiträumen von Jahrmillionen nicht glaubhaft erscheinen.

Kommentar (11):

Die Vergleichbarkeit mit Evolution fehlt in diesem Beispiel völlig. Es trägt weder dem 'descent with modification' noch der Selektion Rechnung.

                 

In ähnlicher Weise können Mutationen nur Vorhandenes verändern (und dadurch oft zerstören), nicht aber eine wirklich neue und komplexe biologische Struktur und Funktion, die vorher nicht vorhanden war, neu hinzufügen (Mutation, lat. mutatio = Veränderung, Wechsel, Umtausch). Auch zufällige Genduplikationen haben in den entscheidenden Fragen zum Ursprung der Ordnung in der Biologie kaum weiter geführt (etwa zur Frage nach der Entstehung von Synorganisationen und dem Problem der Irreducible Complexity)! Wer an weiterführender Literatur zum Thema Mutationen interessiert ist, sei auf die folgende Artikel verwiesen:

  1. Wirkung der Genmutationen

  2. Mutationen: Das Gesetz der rekurrenten Variation

  3. Evolution durch Genduplikationen?

           

Kommentar (12):

In allen Fällen - in der Synorganisationsfrage, im Falle von Genduplikation sowie in der Sache mit der "irreduzierbaren Komplexität" werden von Evolutionsgegnern Vorannahmen und Aussagen gebraucht, die stark bezweifelbar oder gar falsch sind.

Zur Duplikation von Genen: (1) Daß Gene dupliziert werden, ist Fakt. (2) Daß mindestens 30% aller Gene einen mittel- bis hochrepetitiven Charakter aufweisen und in ihrer Sequenz sehr ähnlich sind, ebenso. (2) folgt logisch aus der Randbedingung (1) sowie aus den evolutionären Postulaten. Die Duplikationsthese liefert also eine dedukiv-nomologische Erklärung der Beobachtung (2) im Rahmen der Evolutionstheorie und erfährt durch (2) eine hypothetico-deduktive Bestätigung. Das wäre grundsätzlich anders, wenn weder Repetivität noch transgenetische Sequenzähnlichkeit feststellbar wäre! Diese Methode der Theorienprüfung ist typisch für alle Naturwissenschaften. Siehe dazu:

Über das Wesen des wissenschaftlichen "Beweises"

Zur "irreduzierbaren Komplexität": Eine Struktur wäre nur dann "irreduzierbar komplex", wenn man davon ausginge, daß alle Teilorgane von Beginn an dieselbe Funktion erfüllen mußten wie im "fertigen Organ". Ein komplexes Organ kann jedoch auch dann schrittweise entstehen, wenn die Teilorgane in einem völlig anderen Funktionszusammenhang ihren Nutzen gehabt haben. Tatsächlich besteht Evolution zu einem großen Teil in der Veränderung von Funktionen. Die Frage, ob Strukturen eventuell Doppel- und Mehrfachfunktionen ausüben können, die wird hier gar nicht erst gestellt. Insbesondere das Auge (dem LÖNNIG ein ganzes Buch gewidmet hat) ist in diesem Zusammenhang ein schlecht gewähltes Beispiel. Hier sind alle Voraussetzungen für den schrittweisen selektionspositiven Wandel erfüllt: Auch ein schlechtes Auge ist besser als gar keins, und die abgestuften Komplexitätsgrade innerhalb rezenter Organismengruppen zeigen gerade die Emergenz eines Teilorgans nach dem anderen. Selbstredend erfüllen alle Augentypen sowie die ihnen zugrundeliegenden Teilorgane nachweisbar (!) verschiedene Funktionen oder Doppel- und Mehrfachfunktionen!  

Ähnlich zweifelhaft sind die Voraussetzungen in der Synorganisationsfrage. Hier ist noch viel zu erforschen, doch es gibt bereits Modelle, die zeigen, wie Synorganisationen zustandekommen könnten. Insbesondere ist hier RIEDLs Systemansatz zu erwähnen, der beschreibt, wie schrittweise (!) meherere Gene unter die Kontrolle eines Regulatorgens geraten. Die innere Selektion bewertet danach die Tauglichkeit nach jedem Kopplungsschritt, so daß - wie etwa beim Pax6-Gen der Fruchtfliege Drosophila - tausende von Genen unter dessen Kontrolle geraten sind. Eine Mutation an Regulator führt dann zu einer Kanalisierung im Sinne des Umbaus des ganzen Systems. Die Voraussetzung, daß alle Gene unabhängig voneinander "richtig" mutieren müssen, wäre in diesem Falle überhaupt nicht mehr zutreffend! Wie man auch den Wert solcher Modelle einschätzen mag, sie sollten doch erwähnt werden, bevor man mit Vorannahmen Wahrscheinlichkeitsaussagen treffen will, die sich hinterher als nicht zutreffend herausstellen (näheres dazu in meiner neuen Arbeit).      

               

Ein weiterer eklatanter logischer Fehler beruht auf dem Umstand, dass Herr Neukamm ja eigentlich nachweisen wollte, dass Evolution auf zufälligen (um den Begriff "stochastisch" einmal zu entmystifizieren) Mutationen beruht und genau diese gedankliche Annahme als Tatsache voraussetzt, um seine Annahme zu begründen.

Kommentar (13):

Eigentlich verhält es sich genau umgekehrt: Während niemand behauptet, daß ein Organ in einem Schritt und völlig zufällig entsteht, redet LÖNNIG von "Zufallsevolution". Der Faktor der Selektion verschwindet völlig aus dessen Betrachtungen, womit einer der für den Antievolutionismus leider recht typischen Verzerrungen evolutionsbiologischer Postulate zustandekommen. Statt dessen wird  vorausgesetzt, daß Biochemie, molekulare und die sogenannte "Makroevolution" stochastisch abläuft, ohne thermodynamische und reaktionskinetische Faktoren zu berücksichtigen. Mein Ansinnen war und ist es zu zeigen, daß sich biochemische und evolutive Prozesse eben nicht auf die reine Statistik reduzieren lassen. Sollte in meiner älteren Arbeit ein anderer Eindruck entstanden sein, so bitte ich, mir dies nachzusehen!

                 

M. Neukamm: Mit anderen Worten: Der Verlauf der Evolution ist einmalig, nicht wiederholbar und demzufolge auch nicht vorhersagbar.

Ich habe den dringenden Verdacht, dass diese nebulöse Unberechenbarkeit von einigen Evolutionstheoretikern immer dann ins Feld geführt wird, wenn ihnen der Kragen in Anbetracht mathematischer Berechnungen zu eng wird. Eine solche Argumentation habe ich in noch keinem anderen Wissenschaftszweig jemals gehört. Wenn mir jedoch die Methoden genommen werden, eine Theorie zu widerlegen, dann fehlen mir auch die Methoden, sie zu beweisen (siehe Anmerkung 4 - Falsifizierbarkeit).

Kommentar (14):

Zur Falsifikationsproblematik möchte ich ebenfalls auf einen meiner Artikel hinweisen. Die Thematik ist außerordentlich komplex, und die von vielen Menschen gebrauchte Darstellung zur Logik der Falsifikation ist so sehr vereinfacht, daß mit ihr die ernsthaften Probleme, die aus der Komplexität wissenschaftlicher Theorien und Testsituationen für den Falsifikationismus resultieren, unter den Tisch fallen. Ich möchte nur betonen, daß POPPERs Unterscheidung zwischen praktischer und logischer Falsifikation (nur letztere taugt als notwendiges Kriterium für die Wissenschaftlichkeit von Theorien!) meist keine Berücksichtigung findet. Viele Evolutionskritiker vermengen beide Begriffe miteinander, wodurch eine entstellte Situation entsteht. Näheres in meinem Artikel: 

Die Bedeutung des Falsifikationismus in der Wissenschaft

                   

Tatsächlich soll die Evolution alles andere als einmalig gewesen sein. So sollen sich ähnliche Organstrukturen gemäß der Theorie immer wieder unabhängig voneinander bei den verschiedensten Organismen entwickelt haben (Konvergenz). Von Einmaligkeit kann also keine Rede sein.

Kommentar (15):

Genau in dem hier angesprochenen Konvergenz-Problem kommt zum Ausdruck, daß die Meinung der Evolutionskritiker, Evolution erfordere eine strikte Reduktion auf den den reinen Zufall, stark in Zweifel gezogen werden kann. Beispielsweise eine durch Genkopplung zustandegekommene Kanalisierung von Evolution und Synorganisation - siehe dazu (12) - hätte nichts mehr mit mit Zufall zu tun. Kanalisierungen entziehen die Evolution dem Regime des Zufalls (näheres dazu in meiner neuen Arbeit), so daß die angenommenen Voraussetzungen, alle Gene müßten unabhängig voneinander "richtig" mutieren, nicht mehr zwingend sind. Man mag zu RIEDLs Theorie stehen wie man will - klar ist doch, daß hier von Evolutionsgegnern vereinfachte Modelle vorausgesetzt werden, wobei fraglich ist, ob sie mit der Evolutionsdynamik noch irgend etwas zu tun haben.

                     

Der Denkfehler:

M. Neukamm: Daraus läßt sich eine eminent wichtige Schlußfolgerung ableiten: Evolution mußte sich nicht notwendigerweise in den uns bekannten Formen und Bauplänen manifestieren, vielmehr besitzt sie unendlich viele Freiheitsgrade. Nur wer fälschlicherweise bzw. aufgrund ideologisch fixierter Vorurteile voraussetzt, daß nur ein konkreter beobachtbarer Bauplan zwingend entstehen mußte, kann diese Argumentation bemühen.

Das ist falsch! Es sind nicht "unendlich viele Freiheitsgrade", sondern endlich viele. Im Übrigen hat Klaus Wittlich in seinen Berechnungen die vielen Spielarten eines Bauplans einkalkuliert.

Kommentar (16):

WITTLICH hat nicht die "Spielarten" eines "Bauplans", sondern nur einen einzigen, innerhalb gewisser Grenzen variabilen, Biomolekül-Typus besprochen. Der Fehler steckt darin, Minimalforderungen für konkrete Veränderungen abzuleiten, um eben nur das heute Existente zu erreichen, ohne daß bekannt ist, welche Veränderungen insgesamt möglich sind. Deshalb ist es praktisch unmöglich, daß angesichts dieser Unwägbarkeiten die eingesetzten Zahlenwerte noch irgendeinen Sinn ergeben. Ich rekurriere auch nochmals auf (6): "In jedem Falle ist es sehr problematisch, Wahrscheinlichkeiten anzugeben, für deren sinnvolle Berechnung wichtige Details fehlen. Ein Prozeß, dessen Kausalerklärung man noch nicht kennt, kann man nicht auf abstrakte Zufallsschritte reduzieren, um dann irgendwelche Wahrscheinlichkeiten zu berechnen; das wäre in jedem Falle eine unbegründete Simplifikation." 

               

Ich möchte diese Argumentation einiger Evolutionstheoretiker gegen die Wahrscheinlichkeitsrechnung im Evolutionsmodell einmal an einem konkreten, leicht verständlichen Beispiel aufzeigen und durchrechnen:

Sie bekommen die Aufgabe, den Roman Robinson Crusoe mit einem Text bestehend aus 1000 Buchstaben zusammenzufassen. (Das sind ungefähr 10 Sätze.) Es sind alle Buchstaben des deutschen Alphabets, das Leerzeichen, der Punkt, das Fragezeichen und das Ausrufezeichen erlaubt, also insgesamt 34 verschiedene Zeichen. (Wir wollen uns der 'Einfachheit' halber auf Großbuchstaben beschränken.) Sie liefern ihre Arbeit ab und jemand berechnet die Wahrscheinlichkeit, dass dieser Text per Zufallsgenerator erstellt werden kann. Er rechnet so:

1 : 341000 = 1 : 3,01 x 101531.

Die Chance, dass dieser Text zufällig entsteht, ist somit 1 : 3,01 x 101531.

Kommentar (17):

Ihr Beispiel ist recht gut geeignet, um den darin steckenden Fehler deutlich zu machen: Natürlich, da haben Sie Recht, muß kein ganz bestimmter Roman entstehen, sondern es muß irgendein Roman entstehen. Sie erliegen hier aber wieder dem Irrtum, die Selektion unter den Tisch fallen zu lassen. Entsprechend müßten Sie ihr Beispiel ganz anders besprechen: Sie müßten einen Mechanismus zur Variation von Texten angeben sowie eine Selektionsbedingung, die bestimmte informationstragende, zufällig zustandegekommene, Worte (wie Mama, ist, dick,...) erkennt und fixiert! Dann müßten Sie auf der Basis des Erreichten, die Worte verschieben, kombinieren, den Rest erneut mutieren und selektionieren lassen, den Text verlängern und so weiter, bis man endlich eine aussagekräftige Information in den Text gebracht hat. Wenn man diese Methode in der genannten Weise anwendet, ist es gar nicht so unwahrscheinlich, daß irgendein Roman entsteht.

             

M. Neukamm: Selbst unter dieser Annahme, die mit der Realität jedoch nicht mehr das geringste zu tun hat, ist Wittlichs Argumentation mit der Wahrscheinlichkeit fehlerhaft. Wittlich demonstriert uns anhand der zufälligen (mutativen) Bildung des Hämoglobins, wie unwahrscheinlich dieser Prozeß sein müsse, selbst wenn man annähme, daß die Aminosäuresequenz um bis zu 40% variabel ist.

Hier gibt Herr Neukamm nun endlich zu, dass Klaus Wittlich die 40%ige Variabilität in seine Berechnungen bereits einkalkuliert hat. Was soll dann aber seine gesamte Argumentation bis zu diesem Punkt?

Kommentar (18):

Ich habe das immer zugegeben; der Punkt war in meinen Augen nicht entscheidend. Entscheidend war, daß WITTLICH nur einen ganz bestimmten Phänotypus besprochen hat und keine Aussagen darüber zu geben vermag, wieviele Möglichkeiten es insgesamt gibt, um einem System einen Selektionsvorteil zu verschaffen. Solange nicht alle Möglichkeiten Berücksichtigung finden (was kaum machbar ist), sagen solche Einzel-Wahrscheinlichkeiten nichts aus.

               

M. Neukamm: Er übersieht jedoch, daß nicht ausschließlich bzw. spontan Hämoglobin entstanden zu sein braucht. Die entscheidende Eigenschaft des Hämoglobins und die anderer Enzyme ist die Fähigkeit, eine bestimmte Reaktion zu katalysieren. Wie man jedoch weiß, sind unzählige, zumeist bereits sehr einfach gebaute Polypeptide in der Lage, jeweils dieselbe Reaktion zu ermöglichen. Für jede Reaktion existieren also Hekatomben biotischer und abiotischer Substanzen, die die spezifische Aufgabe eines komplizierten Enzyms übernehmen können. Greifen wir das Cytochrom C heraus: Die katalytische Wirkung dieses Enzyms, das aus 104 Aminosäuren aufgebaut ist, beruht einzig und allein auf seiner Eigenschaft der Redoxamphoterie. Es ist in der Lage, reduziert und wieder oxidiert zu werden, indem in der Atmungskette formal Elektronen bzw. Hydridionen gebunden und wieder übertragen werden. In der Chemie kennt man unzählige Verbindungen, Enzyme und Proteinoide, die diese Eigenschaft aufweisen. Das abiotische Chinon ist bereits in der Lage, diese Aufgabe zu übernehmen. Daher kann kein Mensch ernsthaft behaupten wollen, nur das Hämoglobin sei in der Lage, die spezifische, ihm eigene Stoffwechselreaktion zu gestatten. Vielmehr existieren viele gleich gut geeignete Biokatalysatoren. Daß ausgerechnet das Hämoglobin "das Rennen machte", ist also bloßer Zufall.

Das wäre etwa so, als würde ich behaupten: "Durch eine zufällige Buchstabensequenz musste ja nicht unbedingt der Roman Robinson Crusoe entstehen, es hätte genauso gut ein anderer Roman (z.B.: Moby Dick oder Der Graf von Monte Christo) entstehen können. Dass ausgerechnet Robinson Crusoe 'das Rennen machte', ist also bloßer Zufall". Das ist Unsinn. Kein Roman entsteht zufällig!

Kommentar (19):

Das Beispiel habe ich oben schon besprochen: Hier fehlt völlig die Vergleichbarkeit mit dem "decendent with modification". Nirgends wird die Selektion erwähnt.

               

Es handelt sich in Wahrheit nur um eine Wiederholung des substanzlose Arguments von eben.

Kommentar (20):

Hierin spiegelt sich der pejorative Charakter wieder, den Sie in meinen älteren Aussagen kritisiert haben. Bitte halten Sie mir nicht einen unpassenden Diskussionsstil vor, wenn Sie selbst beleidigende Äußerungen machen.

                   

Dass es auch andere (angeblich "unzählige", tatsächlich natürlich in ihrer Anzahl begrenzte) Verbindungen gibt die das Hämoglobin ersetzen könnten, ist irrelevant. Selbst wenn es so viele chemische Verbindungen gäbe wie Atome im Universum, würde sich die Wahrscheinlichkeit nicht merklich erhöhen:

1 : 1,15 x 10602 / 1078 = 1 : 1,15 x 10602-78 = 1 : 1,15 x 10524 (bei durchschnittlich ähnlichem Komplexitätsgrad).

Kommentar (21):

Eine natürliche Begrenzung vermag ich eigentlich nicht zu sehen. Sie können durch beliebige Kettenverlängerung prinzipiell unendlich viele Proteine mit denselben Eigenschaften generieren. Insbesondere in der organischen Chemie gibt es keine "begrenzte" Anzahl von Verbindungen (zumindest ist die hypothetisch realisierbare Anzahl größer als die Summe aller Atome im Universum). Es lassen sich zumindest im Prinzip Biokatalysatoren gewinnen, die mit allen nur denkbaren Substanzen Enzym-Substratkomplexe bilden. Davon einmal abgesehen begehen Sie wieder den Fehler, nur und ausschließlich eine einzige Enzymstruktur im Blickfeld zu haben.

                   

Dass sich da dann zufällig auch noch das hervorragende Hämoglobin entwickelt haben soll, dass sehr viel effektiver arbeitet als etwaige andere Biokatalysatoren, mag da geradezu grotesk klingen.

Kommentar (22):

Worin in dieser Aussage ein Argument steckt, vermag ich nicht zu erkennen. Was "hervorragend" ist, ist immer relativ. Zumindest unterstellt diese Aussage, daß es kein einziges Enzym geben kann, das die Reaktion noch besser katalysiert. Das ist in jedem Falle eine ungedeckte Behauptung. Im übrigen kann ein Enzym so schlecht funktionieren wie es will: Solange "schnellere" Konkurrenten noch fehlen, resultiert daraus ein Selektionsvorteil. Seine "hervorragende" Funktion kann es auch später durch Kettenverlängerung, exon-shuffling oder durch funktionsverändernde Mutationen erlangt haben.

                   

Der Lederberg'sche Stempelversuch:

M. Neukamm: Wie unrealistisch Wittlichs Annahmen letztlich sind, zeigt der eingangs angesprochene Versuch von Lederberg auf. Nach Wittlich muß die genetische Codierung einer Penicillinase beliebig unwahrscheinlich sein. Trotzdem kommt es, wie Lederberg zeigen konnte, bei Bakterien immer wieder zu spontanen Resistenzen gegen Penicillin, die auf der Synthese eines das Penicillin spaltenden Enzyms, einer Penicillinase, zurückzuführen sind.

Der Lederberg'sche Stempelversuch hat nur 'leider' nichts mit Makroevolution zu tun! Ein ausführlicher und sehr detaillierter Beitrag zu dieser Thematik findet sich unter: Hoimar von Ditfurth und der Lederberg'sche Stempelversuch: Sind Antibiotikaresistenzen Beweise für Makroevolution im Labor? mit anschließender Diskussion (Weitere Einzelheiten in Junker/Scherer "Evolution - Ein kritisches Lehrbuch", 2001, 5. Auflage, S.108,109).

Anmerkung von Klaus Wittlich:

Der Lederberg'sche Stempelversuch zeigt, dass die Resistenzen schon vorher vorhanden waren (Gesetz der rekurrenten Variation).

Kommentar (23):

Auch das ist eine ungedeckte Behauptung. Daß die Resistenz schon vorher vorhanden war, bevor es zur Konfrontation mit dem bakteriziden Wirkstoff kam, ist trivial. Wie wollen Sie aber die These, daß eine Resistenz, ein Enzym oder sonst ein Biomolekül in jedem Falle "durch Schöpfung" in einem wie auch immer aussehenden "Grundtyp" schon vorhanden war, prinzipiell falsifizieren? Aus dem LEDERBERGschen Stempelversuch erschließt sich die Möglichkeit nicht. Man könnte sagen, hier handelt es sich um eine nichtprüfbare Schutzbehauptung, um die Hypothese zu "widerlegen", daß eine Resistenz evolutionär entstanden ist. Im übrigen fällt mir ein Artikel von SCHUSTER aus dem Buch "die Evolution der Evolutionstheorie" ein, der darauf hingewiesen hat, daß im Rahmen der "evolutionäre Biotechnologie" tatsächlich einige neuartige Biomoleküle entstanden sind, die in der Natur nicht nachzuweisen sind. Natürlich kann man immer behaupten, daß man das durch "Intelligent-Design"erschaffene Biomolekül bislang eben nur noch nicht im "Grundtyp" gefunden hat. Mittlerweile baut aber ein ganzer Industriezweig auf diesem Prinzip auf, der zum Ziel hat, für alle möglichen Anwendungsprobleme neue Biomoleküle evolutionär zu erzeugen. Einige Beispiele für neue Funktionsgene, Enzyme und morphologischen Strukturen habe ich im folgenden Artikel aufgelistet:

Die Reichweite der Evolutionsfaktoren

                   

Die Voraussetzungen in meiner Wahrscheinlichkeitsrechnung sind andere: Ich betrachte das Szenario, dass noch kein Leben existiert und sich dann Leben mit Enzymen entwickelt. Wenn tatsächlich Penicillinasen entstehen, dann legt das den Schluss nahe, dass das im Versuch bereits vorhandene Leben mit Enzymen ausgestattet ist, die zu Penicillinasen nur noch geringe Unterschiede aufweisen. Bei diesen geringen Unterschieden kann dann eine Penicillinase noch zufällig gefunden werden. Mein Artikel über die Wahrscheinlichkeitsrechnung geht aber von anderen Voraussetzungen aus.

Kommentar (24):

Richtig, das könnte im Falle der Penicillinase tatsächlich auch zutreffen. Die Behauptung, daß das auf jedes Biomolekül a priori zutreffen muß, läßt sich ja auch nicht empirisch widerlegen. Es gibt aber Bakterienstämme, welche die kuriosesten Industriechemikalien enzymatisch abbauen können. Es ist daher in jedem Falle "gewagt" zu behaupten, daß alle Substanzen grundsätzlich schon vorhanden waren.

                   

M. Neukamm: Die mißbräuchliche Diskussion der Wahrscheinlichkeit, die alle Kreationisten seit Jahrzehnen in den verschiedenstens Varianten bemühen, um die Evolution als äußerst unwahrscheinlichen Prozeß darzustellen, ist symptomatisch für die schizophrene Logik, die ihrer gesamten Argumentation zugrunde liegt.

Da die Sachlichkeit einer Argumentation in aller Regel von ihrer Stichhaltigkeit abhängt, drängt sich mir die Frage auf, wieso sich Herr Neukamm eines solch provokanten und unsachlichen Schreibstils bedient.

Kommentar (25):

Diese und ähnliche Entgleisungen (die Lönnig im übrigen unbesehens auf seiner Homepage stehen läßt!) habe ich gelöscht.  

               

M. Neukamm: Eine beliebte, bis zum Überdruß strapazierte Variante ist Thorpes Beispiel der Affenhorde, die auf 100 Schreibmaschinen herumhämmert, in der Hoffnung, durch Zufall eine von Shakespeares Werken zu reproduzieren. Die Wahrscheinlichkeit, daß dies über einen vergleichsweise kurzen Zeitraum gelänge, sei Hekatomen mal größer als die Wahrscheinlichkeit, durch Zufall ein Enzym, wie das Cytochrom C entstehen zu lassen. In die Alltagssprache übersetzt heißt dies, es ist unmöglich. Tatsächlich läßt sich die Wahrscheinlichkeit, die festgelegte Aminosäuresequenz einer Enzymkette aus 100 Gliedern, mit 1 : 20100 berechnen.

Die Wahrscheinlichkeit, diese Aminosäuresequenz zufällig zu erhalten, lässt sich nur dann mit 1 : 20100 angeben, wenn man von dem Idealfall ausgeht, dass nur die richtigen 20 Aminosäuren zur Verfügung stehen, und zwar von jeder dieser Aminosäuren unbegrenzt viele. In Anbetracht der tatsächlichen Anzahl existierender Aminosäuren, ist dieser Idealfall aber auszuschließen. Hier wird ein Zustand einfach vorausgesetzt, der niemals existieren kann, um die Wahrscheinlichkeit heraufzusetzen.

Aus einem Aminosäuren-Pool bestehend aus 100 verschiedenen Aminosäuren immer nur die 20 in Frage kommenden herauszugreifen, ist bereits bei einer Kette aus 112 Aminosäuren unwahrscheinlicher, als aus allen Atomen des Universums beim ersten Versuch ein ganz bestimmtes herauszugreifen.

1 : 1078 = 1 : 5111,59

Kommentar (26):

Diese Rechnung macht deutlich, worin der Grundirrtum dieser ganzen Rechnereien besteht. Wer behauptet denn, daß just die 20 Aminosäuren - die wir heute beobachten - für die Entstehung von Leben geeignet waren? Wer könnte denn mit Sicherheit behaupten, daß das Leben nur und ausschließlich so hätte entstehen müssen, wie wir es beobachten? Aufgrund des Umstandes, daß 99% aller Lebewesen, die jemals existiert haben, heute wieder ausgestorben sind, kann doch kaum jemand an der Wahrscheinlichkeit vorbeireden, daß konvergente Selektionsprozesse auch im Rahmen der chemischen Evolution dazu geführt haben, daß sich nur ein bestimmter Pool von biotischen Verbindungen durchgesetzt hat.

               

Völlig unberücksichtigt bleibt dabei noch die Tatsache, dass sich langkettige Moleküle aus einem Pool von organischen Verbindungen, wie er im sogenannten Miller-Experiment erzeugt wurde, gar nicht bilden können, da nur eine einzige "falsche" Aminosäure genügt, um die Kette abzuschließen.

Kommentar (27):

Hier haben wir denselbe Denkfehler: Die physico-chemischen Eigenschaften stellen in der chemischen Evolution die Selektion. Eine Kette, bestehend aus Alpha-Aminosäuren, bildet sich bevorzugt. Ein Oligopeptid mit Alpha-Peptidbindungen und optisch identischen Enantiomeren ist hydrolyseunempfindlicher, thermodynamisch und reaktionskinetisch begünstigt. Und nur eine enatiomerenreine DNA-Kette, kann eine helicale Struktur einnehmen, so daß sich stabile Doppelstränge bilden können. Die "unreinen" und "falschen" Verbindungen sind instabiler, weniger wahrscheinlich und verschwinden. Die übriggebliebenen "richtigen" Moleküle setzen sich durch, reichern sich an und können durch Kettenverlängerung wachsen. Die konvergente Selektion führt dazu, daß alle anderen Varianten aus dem Rennen geworfen werden. Selbst große biorelevante Komplexe, wie Porphyrine und Isoprene hat man in den Ursuppen-Experimenten der 2. Generation unter unspezifischen Bedingungen reproduziert. Chemie hat mit bloßem Zufall nur noch leidlich wenig zu tun. Und dann werden stochastische Berechnungen eben bedeutungslos.

                 

M. Neukamm: Derart verschwindend geringe Wahrscheinlichkeiten lassen sich indes auf alle zufällig entstandenen Baupläne und Enzyme übertragen. So schreibt Remine, um derart infinitesimal kleine Wahrscheinlichkeiten zu veranschaulichen:

"If you flipped an honest coin once a second continuously around the clock, then you would require 200 thousand billion times the maximum estimated age of the universe to flip a trial of 100 heads. This is no exaggeration. On average it would require that much time. This narrative description explain the extremly low probability in terms we can humanly grasp (...) ."

Monod folgerte daraus, daß angesichts derart kleiner Wahrscheinlichkeiten (die, um eine modernere Variante der Veranschaulichung zu gebrauchen "millionenmal größer sei, als 100 mal hintereinander sechs Richtige im Lotto zu bekommen"), "das Leben ein solch unausdenkbar unwahrscheinliches Ereignis gewesen sein muß, daß Leben fürwahr lediglich ein einziges Mal im Universum existieren kann".

Ich möchte an dieser Stelle behaupten, dass das Leben überhaupt nicht hätte entstehen können - auch nicht ein einziges Mal - wäre alles dem Zufall überlassen geblieben (Zur Begründung siehe Anmerkung 8 - Dinosaurier-Eierschalen).

Kommentar (28):

Da haben Sie völlig Recht. Es behauptet bloß niemand (mit Ausnahme der Evolutionsgegner), daß die chemische und biologische Evolution dem alleinigen Regime des Zufalls untersteht. Selektion bzw. biochemische und physico-chemische Gesetzmäßigkeiten greifen enorm in den Zufall ein.

                 

Es scheint tatsächlich sehr viel bequemer zu sein, alle, die für eine intelligente Ursache des Lebens und die uneingeschränkte Gültigkeit von Naturgesetzen eintreten, der Lächerlichkeit preiszugeben, indem man sie mit vereinten Kräften öffentlich als ungebildete "Möchtegern-Wissenschaftler" diffamiert, die dogmatisch an veralteten religiösen Wahnvorstellungen festhalten. Mir will einfach kein anderer Grund einleuchten, der die Anwendung solch unfairer Mittel erklärt, als das eben jene Personen ihre eigene materialistische Position nicht mit wissenschaftlichen Tatsachen verteidigen können und daher gezwungen sind, zu eben jenen unredlichen Mitteln Zuflucht zu nehmen.

Kommentar (29):

Diffamierung ist nicht mein Ziel, und sollte das in der Vergangenheit verschiedentlich der Fall gewesen sein, so bedauere ich dies. Es liegt mir auch fern, einen gläubigen Menschen der Lächerlichkeit preiszugeben. Die einzig zu erörternde Frage kann immer nur lauten, ob eine Schöpfungstheorie wissenschaftlich sein kann. Daß dem nicht so ist, darin sind sich alle Wissenschaftler und Wissenschaftstheoretiker einig. Weshalb? Der Grund liegt einfach darin, daß man mit einem Schöpfer nichts erklärt bekommt; und die Tragweite der Problematik geht weit über den Rahmen der Evolutionstheorie hinaus: Weil das Schöpfungsprinzip durch keine Beobachtung widerlegt werden kann, läßt sich grundsätzlich alles auf Schöpfung zurückführen. Sie können nicht einmal im Prinzip widerlegen, daß der Schöpfer nicht auch in die Mikroevolution oder in Ihr tägliches Leben eingreift.

Prüfen Sie also einmal ernsthaft nach, wieviele wissenschaftliche Theorien man mit Schöpfung überflüssig machen könnte: Man kann ein Gewitter, das Ticken eines Geigerzählrohrs, das Fallen eines Steins, die Müdigkeit oder die Entstehung eines Lichtquants auf die direkte Intervention eines Schöpfers zurückführen usw. Notabene wäre damit in derselben Reihenfolge die Theorie der Elektrostatik, die Kernphysik, die Newtonsche Mechanik, die Neurophysiologie sowie Teile der Elementarteilchenphysik überflüssig und "widerlegt". Wir könnten auf sie verzichten, denn es lassen sich ja alle Ereignisse mit Schöpfung "erklären". Daß damit aber überhaupt nichts erklärt ist, weil ihr keine Gesetzesaussagen zugrundeliegen, das wird hier vergessen. Der Ratschluß des Schöpfers ist ja unergründbar, der Kreator in seinen Entscheidungen völlig ungebunden und allmächtig - folglich obliegt er keinen Gesetzmäßigkeiten - und wir könnten uns alle Theorien, die wir bislang erstellt haben, schenken. Die Wissenschaft der Renaissance bzw. Neuzeit begann erst, nachdem es gelungen ist, sich nach und nach dem im Mittelalter herrschenden, supernaturalistischen Weltbild zu entziehen!

                 

M. Neukamm: Selbst wenn man ein ganz bestimmtes Funktionsprotein zufällig erzeugen wollte, genügten dazu bereits einige wenige Aminosäuren, die an bestimmten Positionen sitzen. Die Wahrscheinlichkeit, ein solches Enzym statistisch zu erschaffen, berechnete Kaplan mit bereits 10-10 bis 10-14 (siehe Kämpfe, 1992). Der Lederbergsche Stempelversuch zeigt eindeutig, daß eine solche evolutive Entstehung unter entsprechenden Selektionsdrücken unausweichlich ist.

Ich gebe es zu: Die Hervorhebung im Text stammt von mir.

Ja, der Lederberg'sche Stempelversuch zeigt anschaulich, wie Mikroevolution funktioniert. Die Begriffe Mikroevolution und Makroevolution synonym zu verwenden, so als handle es sich hier um das Gleiche, ist entweder auf Unwissenheit oder auf eine gezielte Irreführung zurückzuführen. Hier noch einmal der Unterschied:

Kommentar (30):

Womit Sie mit keinem Wort zu den Wissenschaftlern Stellung genommen haben, die sich wenigstens die Mühe machten, eine Reihe relevanter (gewiß nicht aller) Voraussetzungen in Ihre Berechnungen einzubeziehen.

               

Mikroevolution: Sie baut vorhandene Strukturen ab oder variiert sie, dünnt den Genpool aus oder verändert ihn. Es kommt nie zu einer mutativen Bildung und Anreicherung völlig neuer Gene und Genwirkketten sowie nicht-reduzierbarer komplexer Strukturen. Mikroevolution ist beobachtbar. Rassenbildung ist ein typisches Ergebnis der Mikroevolution.

Makroevolution: Sie soll komplexe Strukturen aufbauen, die vorher nicht vorhanden waren. Es soll zu einer mutativen Bildung und Anreicherung völlig neuer Gene und Genwirkketten kommen. Dadurch sollen völlig neue Arten und höhere systematische Kategorien entstehen. Makroevolution ist eine Hypothese.

Aus der Variation bzw. dem Verlust an Information auf deren Aufbau zu schließen, ist unsinnig. Ein Haus zerfällt von selbst, aber das ist kein Hinweis (geschweige denn ein Beweis) dafür, dass sich das Haus auch selbst aufgebaut hat.

Kommentar (31):

Das ist die alte Planmäßigkeits-Analogie der Evolutionsgegner, die in allen entscheidenden Punkten hinkt: Man benennt technische Konstruktionen und Texte, die auf eine intelligente Planung zurückgehen und schließt dabei auf die Planmäßigkeit von Biosystemen. Dabei wird übersehen, daß die für den Vergleich einzig relevanten Eigenschaften völlig verschieden sind, so daß die Analogie nicht benützt werden kann: Ein Text, ein Haus, ein Computer und eine Uhr kann sich nicht von selbst reproduzieren. Sie kann nicht mutieren, und es gibt auch keine Selektion. Im Falle der Biosysteme ist das völlig anders. In der Technik gibt es kein "decendent with modification", wohl aber in Biosystemen. Diese Unterschiede machen alle Vergleiche in diese Richtung wertlos.

           

Auch die Summe vieler Mikroevolutionen stellt keine Makroevolution dar, sondern geht mit zunehmender Spezialisierung und dadurch mit Einschränkung des Anpassungspotentials einher. Das heißt: Mit jeder Mikroevolution wird eine weitere Mikroevolution - bei gleichzeitigem Erhalt der Lebenstauglichkeit des Lebewesens - prinzipiell unwahrscheinlicher. Die beobachtbare Mikroevolution und die hypothetische Makroevolution sind gegenläufig!

Kommentar (32):

Ihnen wird sicher nicht entgangen sein, daß ich die Begriffe "Mikro-" und "Makroevolution" bislang immer in Anführungszeichen gesetzt habe. Tatsächlich handelt es sich hier um eine extrem umstrittene Begriffstrennung, die man ontologisch kaum rechtfertigen kann. Wo hört Mikroevolution auf, wo beginnt Makroevolution? In der Evolution sind nur qualitative, struktural-funktionelle Neuheiten relevant. Man könnte also behaupten, daß sich ein makroevolutiver Schritt mit einer qualitativen Veränderung, also der Entstehung einer evolutiven Neuheit vollzogen hat.

Grundsätzlich entstehen struktural-funktionale Neuheiten aber immer durch die Variation von bereits vorhandenen Strukturen. So haben wir bereits mit der Entstehung einer neuen Enzym-Variante schon etwas qualitativ Neues geschaffen, wenn sie eine neue Funktion ausübt. Bei Bakterien bekommen Sie etwa durch Variation eines (eventuell duplizierten) Enzyms eventuell den Abbau eines neuen Substrates (statt Valeramid beispielsweise Phenylacetamid). Haben wir hier nicht schon einen qualitativ völlig neuen Enzymtyp erreicht? Wenn nicht, worin liegt dann der ontologische Unterschied zwischen einem "völlig neuen" Enzym und einer neuen Enzymvariante mit einer abgewandelten neuen Eigenschaft? Und wo ziehen Sie dann die Grenze - bei einer Sequenzähnlichkeit von 80 - 50 - 10 oder 5 %? Eine wie auch immer geartete Grenzziehung wäre eine rein künstliche, quantitative Angelegenheit, der aber keine ontologische Bedeutung zukommt, denn was in der Evolution zählt, sind ja qualitative Neuerungen!

Auch in der Paläontologie erscheinen die vermeintlich "großen makroevolutionären" Unterschiede zwischen den Typen - so man konsequent die phylogenetische Systematik anwendet! - nur noch in Form abgestufter Ähnlichkeiten, beruhen also auf der Kumulation qualitativer, stets auf der Artebene (!) erworbener funktional-strukturaler Neuheiten. So läßt sich beispielsweise die Tetrapoden-Extremität als Transformation der "bereits vorhandenen" Fischflosse ansehen, denn es gibt schon tetrapodenähnliche Fische! Es müßte sich gemäß ihrer Definition um Mikroevolution handeln, denn es handelte sich hier um eine auf dem Artniveau (eigentlich bei den Individuen einer Population) auftretende Modifikation (d.h., es gibt gar keine "makroevolutionären" Veränderungen oberhalb des Arttaxons). Die abgewandelte Struktur erfüllt unvermittelt eine qualitativ neue Funktion und wird so schlagartig zum Schlüsselmerkmal einer neuen systematischen Großgruppe, nämlich der Tetrapoden. Also doch ein Fall von Makroevolution?

Und auch beim LEDERBERGschen Stempelversuch bilden sich Strukturen, die qualitativ neue Funktionen übernehmen (etwa wenn ein Antibiotikum an einem mutierten Target-Protein nicht mehr angreifen kann, so daß dieses eine neue qualitative (Doppel-)Funktion ausübt). Worin liegt also der (für evolutionäre Betrachtungen einzig relevante) qualitative Unterschied zwischen der Evolution eines strukturabgewandelten Targetproteins, das eine neue Funktion (Antibiotikaresistenz) übernimmt und der Evolution einer abgewandelten Fischflosse, die eine neue Funktion (als Tetrapodenextremität) übernimmt?

Und wie steht es mit der Transformation der 4-zehigen Pfote des Urpferds Eohippus zum einzehigen Sprungfuß des Hauspferdes? Ist das "Mikroevolution" oder "Makroevolution"? Nach Ihrer Definition müßte es sich um Mikroevolution handeln, denn es werden ja Strukturen (nämlich die Zehen) reduziert! Der Sprungfuß übernimmt aber eine neue Funktion und verkörpert ein Schlüsselmerkmal der Einhufer, also doch Makroevolution? Und wo wollen Sie in der Evolution von Eohippus eine ontologisch relevante Grenze ziehen, bei Merychippus, Pliohippus, Equus?

Schließlich könnte auch die Synorganisation von 100 Genen zu einer Genwirkkette auf die schrittweise Einzelkopplung von Genen reduziert werden (Mikroevolution?), so daß im Falle der Mutation des Regulatorgens die Expressionsmuster aller untergeordneten  Gene kooperativ verändert werden (Makroevolution?). Eine Veränderung am Hox-Gen Ubx vielbeiniger Krustentiere, kann zur Reduktion von Thorax-Segmenten führen (Mikroevolution?). Daraus entstand möglicherweise der neue Bauplan der jetzt nur noch 6-beinigen Insekten (Makroevolution?)...

Sie sehen hier, daß Ihre Definitionen ineineinderfließen; ihre Begriffstrennung wird in jedem Falle überflüssig. Die Grenzziehung beruht rein auf Konvention, sie kann daher kaum eine ontologische Bedeutung haben.

               

Der Dachziegel:

M. Neukamm: Auch die Aussage Monods, die Entstehung des "Lebens sei so unwahrscheinlich, daß es lediglich ein einziges Mal im Universum existieren könnne", sowie alle derartigen Argumentationsketten, beruhen ausnahmslos auf einem fatalen Denkfehler. Analysieren wir dazu die Aussage des Franzosen. Der erste Teil seiner Aussage beruht auf einer nichtssagenden Banalität, der zweite Teil auf einer unzulässigen Verallgemeinerung.

Daß das "Leben", so wie wir es in allen seinen Details kennen, eine a-priori-Wahrscheinlichkeit von "fast null" besaß, ist nichts anderes als eine Trivialität. Dazu muß man sich einmal klarmachen, daß fast jedes singuläre Ereignis - vor dessen Eintreten - beliebig unwahrscheinlich ist. Stellen wir uns dazu einen Dachziegel vor, der zufällig vom Hausdach fiele. Er knallt also aufs Pflaster und zerspringt in viele große, kleine und mikroskopische Fragmente, die in ihrer Anordnung so einmalig verteilt sind, daß sich die Konfiguration der Splitter, solange die Welt sich dreht, solange Ziegelsteine von Dächern fallen, niemals mehr wiederholen läßt. Daher stellt jedes dieser Ergebnisse a priori ein praktisch unendlich unwahrscheinliches Ereignis dar. Diese Feststellung ist im grunde völlig banal und im grunde völlig bedeutungslos. Sie bekommt nur dann eine scheinbare Bedeutung, wenn man daraus die irrige Schlußfolgerung ableiten wollte, daß aufgrund der extrem geringen Wahrscheinlichkeit, ein singuläres Ereignis in allen Details zu wiederholen, der Mechanismus, der das Ereignis hervorbrachte, schlichtweg unmöglich sei. Um das ganze Ausmaß dieser logischen Fehlleistung zu veranschaulichen, bemühen wir wieder die Metapher des Ziegelsteins. Die Logik, die hinter Monods Aussage steckt, ist identisch mit jener der Aussage:

"Der (konkret beobachtete) Fall eines Ziegelsteins vom Dach eines Hauses, ist in all seinen Details a priori ein so extrem unwahrscheinliches Ereignis, so daß Ziegelsteine prinzipiell nicht von Dächern fallen können."

Der wirren Logik liegt in ausnahmslos allen Fällen also der Kardinalfehler zugrunde, daß die aufgrund quantenstatistischer Prozesse verschwindend geringe a-priori-Wahrscheinlichkeit des Eintretens eines singulären vergangenen Ergeignisses, mit der Wahrscheinlichkeit für die Existenz des Mechanismus, der dieses Ereignis als Resultat hervorbrachte, gleichgesetzt wird.

Trotz der extremen Unwahrscheinlichkeit des Resultats wissen wir, daß Ziegelsteine nach wie vor von Dächern fallen können. Hier werden, bewußt oder unbewußt, falsche und unlogische Kausalitäten, die gar nicht existieren, erhoben, um die Evolution in den Bereich des Unwahrscheinlichen bzw. Unmöglichen rücken zu können.

Einige Evolutionstheoretiker sind mit dieser Annahme einem fatalen Irrtum aufgesessen.

Wenn ein Dachziegel in beispielsweise 1000 Bestandteile zerspringt, dann ist es unsinnig, für dieses Ereignis eine Wahrscheinlichkeit anzugeben. Man muss in die umgekehrte Richtung gehen und sich fragen: Wie groß ist die Wahrscheinlichkeit, dass sich aus diesen 1000 Bestandteilen durch zufällige Anordnung der Splitter ein vollständiger Dachziegel zusammensetzen lässt?

Kommentar (33):

Sie vergessen wieder die Selektion. Zugegeben: Auch mein Beispiel gibt im Rahmen der Selektionsbetrachtung nicht viel her; deshalb habe ich es in meiner neuen Arbeit durch ein modifiziertes Beispiel ersetzt. Man kann aber die Selektion nachträglich in das Ziegelstein-Beispiel einfügen, wie ich das ja auch gemacht habe...

                 

Und anstelle der unendlich vielen Kombinationsmöglichkeiten, wird man feststellen, dass es nur eine einzige sinnvolle Zusammensetzung gibt, und zwar diejenige, die der Dachziegel besaß, bevor er zersprang. Und diese Wahrscheinlichkeit ist grundsätzlich mathematisch zugänglich und, so darf ich behaupten, 1 : unendlich. Oder wie es ein Freund mal ausdrückte: "Diese Chance ist kleiner Null".

Kommentar (34):

Wie eine Chance "kleiner Null" werden kann, das müßten Sie mir erklären.

                 

Anmerkung von Klaus Wittlich: Der Vergleich ist absurd, weil es nicht auf irgendeine Anordnung ankommt, sondern auf eine Anordnung, die im Rahmen eines biologischen Kontextes funktioniert. Genauso ist ein umfangreiches Softwarepaket kein Zufallsprodukt, obgleich es sehr viele Bytefolgen hierfür geben mag. Es unterscheidet sich von einem "Bytesalat", der im Rahmen einer rein zufälligen Erzeugung die gleiche Entstehungswahrscheinlichkeit hat, dadurch, dass es spezifische Funktionalität zur Verfügung stellt. Die Zersplitterung eines herabfallenden Ziegelstein liefert jedoch keinerlei Funktionalität. Die Frage muss daher nicht lauten: Wie groß ist die Wahrscheinlichkeit für die Anordnung der Splitter, sondern: Wie groß ist die Wahrscheinlichkeit für eine durch die Zersplitterung gelieferte Funktionalität?

Kommentar (35):

Ihre und WITTLICHS Erörterungen stellen mein Beispiel auf den Kopf: Der Punkt ist, daß man in die Splitter eine Vielzahl von Strukturen hineinbekommen kann. WITTLICH setzt unerlaubterweise voraus, daß man dies in einem Schritt erreichen müsse, übersieht aber wieder die Rolle der Selektion: Man führt zunächst solange Fallversuche durch, bis man eine Teilstruktur hat, die in irgendeine Weise von statistischen Mittelwert abweicht. Jetzt kann man eine solche Teilstruktur ausselektieren, die eine "interessante" Richtung vorgibt und behält sie bei. Den Rest der Splitter wirft man erneut aufs Pflaster und probiert solange, bis man die "interessante" Teilstruktur um einen kleinen Part erweitert hat. Dies wiederholt man solange, bis man eine "Information" in die Splitter gebracht hat. Dabei muß nicht unbedingt wieder ein fertiger Ziegelstein herauskommen. Man kann auf diese Weise die Form eines Hauses, eines Gesichts oder eines Quadrates erzeugen, und jedesmal ist die Wahrscheinlichkeit, solch eine Struktur in einem Schritt zu bekommen, fast unendlich klein. Trotzdem kann man selektiv und schrittweise eine "unendlich unwahrscheinliche" Struktur in die Anordnung hereinbekommen. So und nicht anders müßte Evolution besprochen werden. Und das wollte ich mit dem Ziegelsteinbeispiel klar machen.

             

M. Neukamm: Entsprechend verhält es sich mit der Aussage Monods, der sich in seine pathetische Vorstellung verliebt hat, daß der Mensch gleichsam allein wie ein "Zigeuner am Rande des Universums" sein Leben fristet. Die zweite Aussage des Franzosen legt (vielfach unausgesprochen und zwischen den Zeilen), deshalb eine illegitime Verallgemeinerung nahe, weil "Leben", aufgrund dessen Unwahrscheinlichkeit, lediglich deshalb "nur ein einziges Mal im Universum entstanden sein könne", weil stillschweigend davon ausgegangen wurde, daß das "Leben" ganz allgemein (ohne Begründung und daher unzulässigerweise) mit dem "Leben, so wie wir es auf der Erde kennen" identisch sein muß. Was Monod letztlich sagt, ist doch folgendes: "Leben (exakt so wie wir es kennen), ist derart unwahrscheinlich, daß es (in ganz allgemeiner Form) kein zweites Mal entstehen kann". Und diese Implikation ist falsch!

Nicht einmal der Nobelpreisträger Dr. Jacques Monod, selbst ein überzeugter Evolutionstheoretiker (Direktor des Institut Pasteur, 1976 verstorben), scheint Herrn Neukamm davon überzeugen zu können, dass die Anwendbarkeit der Wahrscheinlichkeitsrechnung auf die Evolutionstheorie sehr wohl berechtigt ist.

Kommentar (36):

Das liegt daran, daß er - genau wie Evolutionsgegner - die falsche Prämisse voranstellt, daß Leben nur in einer einzigen Art und Weise entstehen konnte. Und solche Positionen muß man - Titel hin Meriten her - kritisieren dürfen! Ich habe in meiner Arbeit erklärt, warum das falsch ist. Es spricht leider nicht für Ihren Diskussionsstil, daß Sie meine Argumente nicht besprochen, sondern Kommentare abgegeben haben.

(...)

               

Anmerkung 6 - Das Beispiel mit dem Würfel

An anderer Stelle führt Herr Neukamm ein anderes Beispiel an, um seinen unberechtigten Angriff auf die Anwendbarkeit der Wahrscheinlichkeitsrechnung im Evolutionsmodell zu veranschaulichen:

M. Neukamm: "Man denke sich einen Spieler, der die Aufgabe bekäme, hundertmal in Folge zu würfeln und die Zahlen der Reihe nach auf ein Blatt Papier zu schreiben. Jetzt läßt sich feststellen, daß die Wahrscheinlichkeit, die realisierte Zahlensequenz zu bekommen (1/6)100, also "fast Null" beträgt. Der Auffassung des Kreationismus entsprechend muß nun der Schluß gezogen werden, daß die Entstehung solcher Zahlenreihen "außerhalb des Bereichs der Wahrscheinlichkeit der sich auf unserer Erde abspielenden Zufallsprozesse" liege. Tatsächlich lassen sich jedoch beliebig viele - wenn auch jedesmal verschiedene, niemals wieder dieselben - gleich unwahrscheinlichen Zahlenfolgen erwürfeln.

Angenommen, Herr Neukamm würde einer Schulklasse die Aufgabe geben, eben jenes Experiment durchzuführen. Alle Schüler schreiben ihre erwürfelte Zahlenfolge auf. Herr Neukamm sammelt alle Zettel ein. Erwartungsgemäß kommt keine Zahlenfolge doppelt vor. Aber auf einem Zettel steht 100-mal eine 3. Nun würde ich gern Herrn Neukamms Gesicht sehen. Wird er es dem Schüler abkaufen, dass er diese Zahlenreihe wirklich durch Zufall erwürfelt hat? Ich gehe davon aus, dass kein Leser dieses Beitrags das glauben würde. Und warum nicht? Weil es sich um eine geordnete und keine chaotische Zahlenfolge handelt!

Kommentar (37):

Natürlich ist eine Zahlenfolge, bestehend aus lauter Dreien, "hochgeordnet". Das ist trivial. Wenn also die Frage im Raume steht, wie wahrscheinlich die Entstehung komplexer Ordnung ist, muß man aber wieder Selektion berücksichtigen. Der Schüler wird in dem von Ihnen genannten Fall - sofern er nicht geschummelt hat - einfach solange mit jedem Würfel gespielt haben, bis eben eine drei nach der anderen erschienen ist. Das heißt, er hat einfach der Reihe nach alle anderen Zahlen ausselektiert. In dieser Weise müßten Sie auch Evolution besprechen, und dann braucht man eben keine unendlich vielen Versuche, um Ordnung in eine Struktur hineinzubekommen (siehe dazu auch mein Würfelbeispiel in meinem Neuen Text)!

Um Selektion ging es mir hier aber gar nicht. Die Frage ist abstrakter und lautet: "Darf man (wie Evolutionsgegner es tun) aus der a priori-Unwahrscheinlichkeit eines bereits eingetretenen Einzelereignisses schließen, daß es nicht zufällig entstanden ist?" Daß das nicht machbar ist, verdeutlicht das Beispiel: Gehen Sie davon aus, daß keine Zahlenfolge wahrscheinlicher ist als die andere. Ihre Forderung, 100 x in Folge eine 3 zu würfeln, zeichnet sich daher von allen anderen Möglichkeiten in keiner Weise aus! Das Staunen beginnt doch erst dann, wenn man - im Voraus! - eine bestimmte Zahlenfolge im Kopf hat, und die dann reproduziert bekommt! Der Irrtum liegt also darin, daß Evolutionsgegner behaupten, Evolution müsse irgend etwas, was im Voraus feststand, reproduziert bekommen. Das ist völlig abwegig. Weder steht in der Evolution im Voraus irgend etwas fest, noch muß man ganz bestimmte Entwicklungsschritte produzieren. Wenn Sie die Evolution noch einmal von vorn beginnen lassen würden, wäre das Ergebnis ein völlig anderes. Nach Ihrer Diktion bekommen Sie also eine 100-stellige Zahl und müßten sich jedesmal angesichts des Umstandes, daß alle Sequenzen gleich unwahrscheinlich sind, wundern, daß überhaupt die Würfel gefallen sind!

       

Homepage