Allgemeines
Aktuelles
Newsletter
Zur Homepage
 

FAQ
Allgemeines
Interview
Warum die Seite?
 

Publikationen
Essays
Besprechungen
Printpublikationen
Repliken
 

Partner
AG Evolutionsbiol.
Giord.-B.-Stiftung
GWUP


 

     


Homepage          Neuere Fassung 

  Druck-Version  Druck-Version     

Evolution oder Schöpfung, Zufall oder Notwendigkeit? Die Argumentation mit der Wahrscheinlichkeit

Evolution oder Schöpfung? - Zwingen uns Zufall und Wahrscheinlichkeit von der Evolutionstheorie Abstand zu nehmen? Wir wollen in diesem Essay einige evolutionskritische Argumente zur Entstehung "informationstragender" Strukturen in der Evolution diskutieren.

  

Eine vieldiskutierte Strategie in der evolutionskritischen Argumentation besteht darin, die Möglichkeit der Entstehung von bestimmten Proteinen oder komplexen Organen aus Wahrscheinlichkeitsgründen infragezustellen. Der Evolutionsgegner bemüht dazu konkrete Beispiele von Biomolekülen oder morphologischen Strukturen, verleiht ihnen eine mathematische Präzision und weist nach, daß die Wahrscheinlichkeit für die Entstehung des fraglichen Merkmals extrem klein und damit das Auftreten des Merkmals praktisch unmöglich sei.                               

"Ein Bakterienmotor besteht aus fünf Funktionsgrundelementen: Die Bakteriengeisel (...) ein Winkelstück (Verbindungselement) an eine Rotationsachse gekoppelt, die von Lagern in der Cytoplasmamembran und der Zellwand der Bakterienzelle in Position gehalten wird (...) Die Rotationsachse und damit die Bakteriengeisel wird über Antriebsproteine in Rotation versetzt (...) Die Wahrscheinlichkeit, daß in einer dieser Bakterienzellen irgendwann die gewünschten (...) Mutationen zusammengekommen sind, beträgt (nach ausführlicher Berechung) 10-94."

(JUNKER und SCHERER, 1998, S. 129 ff.)                                                     

                                                      

Entsprechend wollen LÖNNIG und WITTLICH die Unmöglichkeit der Bildung einer bestimmten DNA-Kette, bestehend aus 1000 Nucleotidbasen, nachweisen (LÖNNIG, 1991). Die Wahrscheinlichkeit der Entstehung eines solchen Gens, etwa durch statistische Polykondensation, wird (unter Berücksichtigung einer "erlaubten" Abweichung von 40%) zu 5 * 10-290 berechnet, die Entstehung damit natürlich völlig unwahrscheinlich gemacht. Entsprechend lesen wir auf LÖNNIGs Homepage an anderer Stelle:

"(Es) ist bewiesen worden, dass die evolutive Entstehung völlig neuer, ganz spezifischer Funktionsproteine außerhalb des Bereichs der Wahrscheinlichkeit der sich auf unserer Erde abspielenden Zufallsprozesse liegt (...)"                                                                                                                                  

Nun haben jedoch seit Generationen Wissenschaftler, wie zum Beispiel von DITFURTH, DOSE und RAUCHFUSS, MAHNER, SCHUSTER, VOLLMER und viele andere vorgerechnet und erklärt, weshalb solche und ähnliche Schlußfolgerungen völlig falsch sind. Tatsächlich wird in einer Weise multipliziert und potenziert, daß darüber die Voraussetzungen vergessen werden, unter denen solche Schlüsse berechtigt wären (MAHNER, 1986).

                 


Ganz allgemein läßt sich feststellen, daß Wahrscheinlichkeitsberechnungen nur Aussagen über die Möglichkeit erlauben, eine ganz bestimmte Funktionsanordnung (oder eine eingeschränkte Menge von Ereignissen) reproduziert zu bekommen. In der Evolution müssen jedoch weder bereits eingetretene Ereignisse reproduziert noch ganz konkrete, quasi "vorfixierte" Funktionen realisiert werden, denn es reicht ja bereits, wenn einem System durch Modifikation ein beliebiger Überlebensvorteil erwächst. Die Frage kann also nicht lauten "Wie groß ist die Wahrscheinlichkeit, daß eine bestimmte Menge von selektionspositiven Veränderungen im Organismus eintritt?", sondern es muß gefragt werden "Wie wahrscheinlich ist die Entstehung irgendeiner vorteilhaften Systemveränderung?". Da man aber weder weiß, welche und wieviele Biomoleküle unter welchen Bedingungen einem Organismus einen (alternativen) Überlebensvorteil bescheren könnten, welche und wieviele Gene wie miteinander verschaltet werden können, damit sich eine vorteilhafte Genwirkkette bildet, wieviele Alternativmöglichkeiten es gibt, um irgendeine Struktur sinnvoll mit irgendeiner anderen zu kombinieren, wieviele Mehrfachfunktionen ein Organ ausüben kann und wieviele alternative Möglichkeiten es gibt, um Leben zu erschaffen, sind Berechnungen, die nur die Wahrscheinlichkeit einer (Menge von) Realisierungsmöglichkeit(en) unter vielen denkbaren Alternativen präsentieren, bedeutungslos. Der Fehler steckt eben darin, Minimalforderungen für konkrete Veränderungen abzuleiten, um eben nur das heute Existente zu erreichen, ohne daß bekannt ist, welche (eventuell wieder ausgestorbene) Vorstufen, Mehrfachfunktionen und Veränderungen insgesamt denkbar sind bzw. inwieweit der Zufall überhaupt noch eine Rolle spielt. Deshalb ist es praktisch unmöglich, daß die eingesetzten Zahlenwerte (für die in jedem Falle wichtige Details fehlen), noch irgendeinen Sinn ergeben.
                                              

Wird von molekularer Evolution gesprochen, kommen noch eine Reihe weiterer Voraussetzungen und Randbedingungen hinzu, die statistische Betrachtungen irrelevant werden lassen - wir wollen im Folgenden drei der wichtigsten etwas näher beleuchten: Zum einen ist darauf hinzuweisen, daß gar nicht ein bestimmter Biomolekül-Typ verwirklicht werden muß, um eine bestimmte Funktion zu bekommen. Vergleichende Untersuchungen zeigen, daß viele verschiedene Nucleotid- oder Aminosäuresequenzen zu Nucleinsäure- oder Proteinstrukturen mit praktisch denselben Eigenschaften führen. Die erfolgversprechenden Strukturen kommen nun nicht gehäuft in einer bestimmten Zone des Sequenzraumes vor (so wie etwa die Varianten eines bestimmten Enzym-Typs), sondern sind mehr oder minder regellos verteilt. Dies bedeutet, daß von jeder beliebigen Sequenz ausgehend in einigen Schritten eine erfolgversprechende Struktur realisiert werden kann. So konnte SCHUSTER mathematisch nachweisen, daß "alle wesentlichen Sekundärstrukturen von Sequenzen aus 100 Nucleotiden durch maximal 20 Nucleotidsubstitutionen von jeder Zufallssequenz aus zu erreichen (sind)." Auch dieser Umstand macht deutlich, daß wahrscheinlichkeitstheoretische Berechnungen, die solche Voraussetzungen außer Acht lassen, bedeutungslos werden (SCHUSTER, 1994, S. 63).

Desweiteren erfolgt der Austausch von Aminosäuren (oder Nucleotidbasen) gegen andere gar nicht so regellos und zufällig, wie die Wahrscheinlichkeitsberechnungen unterstellen: Aminosäuren werden bevorzugt durch bestimmte andere substituiert; ein isopolarer Austausch von Aminosäuren erfolgt häufiger als ein heteropolarer. Auch die abiotische Bildung von Proteinoiden durch Verkettung von Aminosäuren verläuft nach thermodynamischen und reaktionskinetischen Regeln. Die Aminosäuresequenzen werden durch die chemischen Eigenschaften der Aminosäuren selbst sowie durch die Reaktionsbedingungen beeinflußt (FOX, 1965). Alpha-Peptidbindungen bilden sich bevorzugt und die Mengenausbeute bestimmter Polypeptide ist höher als bei statistischer Zufallsverteilung (REINBOTHE und KRAUSS, 1982, S 190 ff.). Selbst große Komplexe, wie Porphyrine und Isoprene, aber auch ATP und alle Nucleotidbasen wurden in Ursuppenexperimenten der zweiten Generation unter gleichsam unspezifischen Bedingungen reproduziert. Chemie hat wenig mit Statistik zu tun; die physico-chemischen Gesetzmäßigkeiten greifen enorm in die molekulare Evolution ein, so daß von reinen Zufallsprozessen nicht die Rede sein kann.

Ein ausgezeichnetes, von Evolutionsgegnern verkanntes Prinzip zur Eindämmung der kombinatorischen Vielfalt besteht schließlich auch im stufenweisen Aufbau "modularer Strukturen". Im Falle von Biomolekülen handelt es sich um mehr oder minder autonome Faltungseinheiten, die brauchbare Strukturmerkmale aufweisen. Große Proteine besitzen in der Regel mehrere solcher hierarchisch strukturierten Module. Diese müssen nun nach GILBERT nicht alle gleichzeitig entstanden sein, denn es hätte bereits genügt, wenn aus der Vielfalt aller möglichen Sequenzen zunächst eine beschränkte Anzahl von autonomen Modulen aufgebaut wurde, die jeweils nur einen Bruchteil der Kettenlänge umfassen. Jene Module, die in irgendeiner Weise brauchbare Strukturmerkmale aufweisen, könnten auf dieser Stufe durch Selektion fixiert werden, so daß durch schrittweise Kombination selektionspositiver Module komplizierte Biomoleküle mit eventuell neuen Eigenschaften entstehen. Auch die Hypothese der Kettenverlängerung durch "exon-shuffling" macht also deutlich, daß der Zufall nur noch eine geringe Rolle im evolutionären Aufbau größerer Proteine spielt (GILBERT, 1978).

                   


Zu den Paradebeispielen in dieser Frage zählt das Cytochrom c, ein Enzym, das aus etwa 104 Aminosäuren besteht und in der Atmungskette eine wichtige Funktion übernimmt. Evolutionsgegner rechnen nun vor, daß die Wahrscheinlichkeit, das Enzym durch Zufall zu erhalten, bei 20 verschiedenen Aminosäuren 20-104, also "fast Null" beträgt. Zunächst muß aber berücksichtigt werden, daß nur 34 der 104 Aminosäuren das aktive Zentrum des Enzyms bilden, das für die katalytische Funktion des Enzyms verantwortlich ist; die restlichen Aminosäuren sind weitgehend frei wählbar. Desweiteren wird verkannt, daß das Protein nicht von Beginn an seine spezielle und optimale Funktion, die es heute einnimmt, zu besitzen brauchte. Es hätte ja schon genügt, wenn das Enzym irgendeine Funktion als Elektronenüberträger (oder eine beliebige andere Funktion) besaß, die den Organismen einen Überlebensvorteil bot. In Anlehnung an SCHUSTER ist auch nur ein winziger Ausschnitt des Sequenzraumes zu "durchsuchen", um solch eine funktionelle Struktur zu finden. Überdies hätte es seine heutige Funktion auch später durch Kettenverlängerung ("exon-shuffling") oder durch entsprechende funktionsverändernde Mutationen erreichen können (KESSLER in: SIEWING (Hrsg.), 1982). Selbst für den Fall einer reinen Zufallsentstehung erhöhte sich allein schon unter Berücksichtigung der genannten Voraussetzungen die Bildewahrscheinlichkeit des Cytochrom c bereits auf 10-10 (DOSE und RAUCHFUSS, 1975, S. 185 f.; MAHNER, 1986). Zu Ähnlichen Resultaten gelangte auch KAPLAN, der die Funktionsproteinchance mit 10-10 bis 10-14 abschätzte (KÄMPFE, 1992, S. 198).

                           

Die Nichtbeachtung all dieser Voraussetzungen zeigt also, wie schnell irrelevante Wahrscheinlichkeitsaussagen über die Biogenese gemacht werden. Gleiches gilt auch in der Diskussion um "Makroevolution", also in der Frage der Entstehung komplizierter Strukturen, wie etwa dem eingangs erwähnten Bakterienmotor. Ein illustratives Beispiel, wie schnell insbesondere der richtende Faktor der Selektion aus den evolutionären Betrachtungen verschwindet, gibt BLEULER in der Frage der Evolution des Wirbeltierauges:

"[Wenn jeweils] zufällige Variation die Ursache war, so mußten entstehen 1. eine nervöse Retina, 2. das Pigment, das irgendwie die Übertragung des Lichtreizes auf die Nervenenden ermöglicht oder sonst eine notwendige Rolle spielt, 3. eine durchsichtige und optisch glatte Haut, 4. eine Konvexlinse, 5. ein durchsichtiger Körper, der die notwendige Distanz zwischen Linse und Retina ausfüllt, 6. eventuell ein Schutzorgan (...) Nun müssen die Organe aber in bestimmter Reihenfolge hintereinander liegen (...) Die Cornea darf natürlich nur an der vorderen Oberfläche liegen, und auch daselbst sind nur eine oder ganz wenige Stellen geeignet (...) Die drei optischen Organe, Cornea, Linse und Glaskörper, müssen außerdem sehr gut zentriert sein (...) Die Zentrierung muß aber auch winkelrecht sein (...) Auch Augenlid und Retina können nur um einen Bruchteil ihrer Größe abweichen, so daß der Nenner noch um einige Stellen zu vermehren wäre (...) Es ist leicht abzusehen, daß solche Umstände die Wahrscheinlichkeit eines Zufalls auf unendlich nahe an Null herabsetzen."

(BLEULER, zitiert nach LÖNNIG, 1989)

                                                                       

Doch niemand behauptet, daß ein solches Organ in einem Schritt und völlig zufällig entsteht (wir kommen unten darauf zu sprechen). Wollten wir eine Betrachtung anstellen, die mit Evolution noch irgend etwas zu tun haben soll, müßte die Art und Weise, wie Funktionalität entsteht, völlig anders besprochen werden. Zunächst ist ein Mechanismus anzugeben, der Variationen erzeugt. Dann muß irgendeine Selektionsbedingung formuliert werden, die jede noch so kleine selektionspositive Veränderung fixiert. Diese Schritte sind solange zu wiederholen, bis man eine hinreichend komplexe Information in eine Struktur gebracht hat. Wie stark die Selektion den Zufall in seine Schranken verweist, wollen wir uns an einem einfachen Modell etwas genauer ansehen: 


Denken wir uns einen Spieler, vor dem hundert Würfel ausgebreitet auf einem Tisch lägen. Nun bekäme er die Aufgabe, der Reihe nach solange mit jedem Würfel zu würfeln, bis er eine gerade Zahl erhielte und diesen Vorgang solange zu wiederholen, bis alle hundert Würfel eine gerade Augenzahl zeigen. Nachdem er schrittweise alle ungeraden Zahlen ausselektiert und die Zahlenreihe auf ein Blatt Papier geschrieben hat, läßt sich feststellen, daß die Wahrscheinlichkeit, die realisierte Zahlensequenz zu bekommen (1/6)100, also "fast Null" beträgt.
          

Dieses Beispiel macht nun zweierlei deutlich: Erstens illustriert es anschaulich, daß man praktisch jedes Ereignis beliebig unwahrscheinlich rechnen und als nichtrealisierbar ausgeben könnte. Der Auffassung des Evolutionsgegners entsprechend müßte nämlich der Schluß gezogen werden, daß die Entstehung solcher Zahlenreihen "außerhalb des Bereichs der Wahrscheinlichkeit der sich auf unserer Erde abspielenden Zufallsprozesse" liege. Tatsächlich lassen sich jedoch fast beliebig viele - wenn auch jedesmal verschiedene, niemals wieder dieselben - gleich unwahrscheinlichen Zahlenfolgen erwürfeln. Die Unwahrscheinlichkeit jeder einzelnen Konfiguration wird durch eine immens große Zahl an alternativen (potentiellen) Konfigurationsmöglichkeiten aufgewogen (*).

Zweitens wird gezeigt, daß sich im Rahmen selektionsgesteuerter Prozesse eben auch "informationstragende" Strukturen mit einer vergleichsweise geringen Zahl an Versuchen erzeugen lassen (**). In Analogie zu dem Würfelbeispiel "spielt" die Evolution gewissermaßen mit den Nucleotidbasen und Genen immer nur solange, bis irgendeine (!) beliebige adaptive Veränderung stattfindet, die positiv selektioniert und fixiert wird. Es steht dabei weder im Voraus fest, was geschaffen werden soll, noch daß Funktionalität völlig zufallsgesteuert oder gar in einem Schritt entstehen muß. An das jeweils Erreichte schließen sich weitere solcher Schritte an. Damit erreicht der Organismus stufenweise eine größere Komplexität (und rückblickend auch einen "unwahrscheinlicheren" Zustand). Es besteht dabei aber keine Notwendigkeit ganz bestimmte Entwicklungsschritte zu kumulieren, denn es gibt immens viele Möglichkeiten, um ein System selektionspositiv weiterzuentwickeln, während wir immer nur eine - die tatsächlich realisierte - zu Gesicht bekommen!

Nun weisen Evolutionskritiker in diesem Zusammenhang gerne auf die "nichtreduzierbare Komplexität" von Organen hin, das heißt, man benennt "fertige" Strukturen, die sich aus mehreren Komponenten zusammensetzen und weist nach, daß das Fehlen eines Strukturelements zum Versagen der Organfunktion führt. Daraus wird dann der Schluß gezogen, daß ein Selektionsvorteil nur im fertig ausgebildeten Zustand gegeben sei, womit die evolutionäre Schlüsselrolle der Selektion untergraben wäre (JUNKER und SCHERER, 1998, S. 81). JUNKER gelangt daher zu folgendem Schluß:

"Es zeigt sich (...), dass auch solche kleinsten Zwischenschritte bei weitem zu groß sind, als dass sie durch die bekannten Evolutionsmechanismen überbrückt werden könnten."

(JUNKER, 2002, S. 66)

                       

Tatsächlich zeigt sich jedoch nur, daß historische Details über die Bildung einer Struktur fehlen, wobei die "Informationslücke" unreflektiert mit der "Irreduzierbarkeitsthese" aufgefüllt wird. Es wäre von Junker redlicher, würde er darlegen, daß die historischen Details noch zu sehr im Dunkeln liegen, als daß exakte Wahrscheinlichkeitsberechnungen auf der Basis des spärlichen Aktualwissens sinnvoll sind. Die Voraussetzung von der "irreduzierbaren Komplexität" wäre natürlich nur dann richtig, wenn jedes Teilorgan von Beginn an seine Funktion besaß, die ihm auch im fertigen Organ zukommt. Dies ist jedoch, wie VOLLMER gezeigt hat, nicht der Fall.

Evolution führt meist zu Funktionsänderung, das heißt, Teilstrukturen können auch in einem völligen anderen Funktions-Zusammenhang ihren Nutzen gehabt und daher "präadaptiert" sein. Komplexe Funktionseinheiten können mit anderen Worten auch dann schrittweise entstehen, wenn ihre Komponenten tragende Doppelfunktionen aufweisen. Auf der Basis begründeter Annahmen gelangt man so zu völlig anderen Ergebnissen, sobald man in die Betrachtungen die evolutionsbiologische Voraussetzung einfließen läßt, daß Neues durch Funktionswandel bereits adaptierter Strukturen zustandekommt.               

         

Zu den klassischen Beispielen für scheinbar "irreduzierbare Komplexität" gehört beispielsweise das kompliziert gebaute Wirbeltierauge, wobei von LÖNNIG und BLEULER die gleichzeitige Entstehung aller Komponenten vollkommen unwahrscheinlich gerechnet wird. Das "Becherauge" einer Schnecke braucht aber weder einen Glaskörper, noch eine Linse oder eine Hornhaut, geschweige denn ein Augenlid oder gar ein kompliziertes Sehzentrum, um zu funktionieren, denn seine Funktion besteht zunächst lediglich darin, dem Weichtier das Richtungssehen zu ermöglichen. Eine günstige Anpassung vergrößerte womöglich aus Schutzgründen die Vertiefung immer mehr und schloß das Becherauge bis auf eine kleine Lichtöffnung. Es war nun wahrscheinlich eine Doppelfunktion, die den glücklichen Umstand fügte, daß sich so nebenbei ein Organ bildete, das erstmals neben dem "Richtungs- und Bewegungssehen" ein scharfes Abbild der Umwelt lieferte: Das "Lochkamera-Auge" vieler höherer Wirbelloser war entstanden. Und erneut wurde die Evolution etwa aus Gründen des Schutzes dazu "veranlaßt", das Auge durch ein lichtdurchlässiges Häutchen zu schließen und es mit einer gallertartigen Substanz zu füllen. Wie nebenbei ergab sich so abermals eine Doppelfunktion, die die Möglichkeit zur Verbesserung der optischen Eigenschaften des Auges schuf, insbesondere zur Bildung einer Sammellinse, die dann Bildschärfe und Lichtstärke im Linsenauge der Wirbeltiere glücklich vereint. Und dann müssen, wie von BLEULER und LÖNNIG suggeriert wird, weder Netzhaut, Glaskörper, Augenlinse und Hornhaut in einem Schritt entstehen. Gerade hier ist ja die Grundvoraussetzung für das Funktionieren des Auges erfüllt: Kleine selektionspositive, funktionsverändernde Schritte sind möglich, und auch ein schlechtes Auge ist besser als gar kein Auge.


Ein anderes Beispiel, anhand dessen die irreduzierbare Komplexität von biologischen Strukturen demonstiert wird, verkörpert der Stoffwechsel der elektronengebundenen Succinatgärung: Heute weiß man, daß bestimmte Bakterien in der Lage sind, Fumarsäure (Fumarat) infolge des Wirkens eines Enzyms, der Fumarsäurereduktase zur Bernsteinsäure (Succinat) zu reduzieren. Der zur Fumaratreduktion formal benötigte Wasserstoff (genauer: Elektronen und Protonen) entstammt einem Nährsubstrat, der Ameisensäure, die exogen in Lösung vorliegt. Diese wird infolge der Einwirkung eines Enzyms, der Ameisensäuredehydrogenase zu Kohlendioxid oxidiert, die Elektronen und Protonen in einer Transportkette zur Reduktion der Fumarsäure bereitgestellt. Der entstehende Protonengradient versetzt ein weiteres Enzym, die ATP-Synthase in die Lage, ATP aufzubauen, das als Energielieferant von der Bakterienzelle genutzt wird. Der Prozeß erscheint auf den ersten Blick derart komplex, so daß es schwerfällt, selektionspositive Zwischenschritte in der evolutionären Entstehung anzugeben. SCHERER geht deshalb von der "nichtreduzierbaren Komplexität" des Stoffwechselprozesses aus und behauptet, alle notwendigen Faktoren (der elektronengebundene Protonentransport sowie ATP-Synthase) hätten gleichzeitig in einem Evolutionsschritt entstehen müssen, damit der Organismus einen Selektionsvorteil davonträgt (vgl. SCHERER, 1996, S. 90-103).

Wird jedoch berücksichtigt, daß womöglich alle Teilstrukturen auch in ganz anderen Funktionszusammenhängen entstanden sind und Doppelfunktionen ausübten, ergeben sich ganz andere Voraussetzungen: Ein exogener Protonengradient könnte sich etwa in bestimmten Regionen der Tiefsee gebildet haben, der Bakterien einen Protostoffwechsel ermöglichte (RUSSEL und HALL, 1997). Auch an abiotisch entstandenen Porphyrinen und Flavinen können Elektronenübergänge stattgefunden, als Elektronenquelle glycolytisch gebildetes NADH, Wasser etc. gedient haben. Diese Komplexe mögen zunächst nur als einfache Strukturlipide in Membranen eingebaut worden sein, wirken aber gleichzeitig als Protonenpumpen und erfüllten so möglicherweise eine Doppelfunktion (KÄMPFE, 1992, S. 226). Als Elektronenakzeptoren hätten abiotisch gebildete Chinone dienen können, so daß ein erster primitiver Elektronentransport oder alternativ die cyklische Transportkette bei der Photosynthese entstand - der Weg zur Evolution der ATP-Synthase war frei. Es ist denkbar, daß in einem nächsten Schritt auf die Fumarsäure als Elektronenakzeptor zurückgegriffen wurde, dann auf Malat, Oxalacetat und schließlich auf Kohlendioxid und Pyrruvat, aus welchen Fumarat synthetisiert werden kann. Auf diese Weise entstand wahrscheinlich schrittweise der reduktive Citratcyclus, der später zum Krebszyklus umfunktioniert wurde. Schließlich konnte in einem weiteren Schritt - anstelle des glycolytisch gebildeten NADH - Ameisensäure als Protonen- und Elektronendonator fungiert haben. Und dann mußte keinesfalls die Elektronentransportkette, die ATP-Synthase bzw. ein Enzym zur Fumaratreduktion und Ameisensäureoxidation gleichzeitig entstehen.


                                                                           

Dasselbe Prinzip könnte auch auf den von JUNKER und SCHERER eingangs vorgestellten Bakterienmotor zutreffen. Natürlich fehlen bislang noch entsprechende Modelle, die überzeugend aufzeigen, welche Mehrfachfunktionen die entsprechenden Teilorgane erfüllt haben könnten. Hier ist noch viel zu erforschen, doch solange die Voraussetzungen der evolutionären Wandelbarkeit von (Mehrfach-) Funktionen sowie die Zahl der Alternativmöglichkeiten nicht geklärt sind, läßt sich der Sinn solcher Wahrscheinlichkeitsberechnungen bzw. die Richtigkeit der ihnen zugrundeliegenden Voraussetzungen und Zahlenwerte kaum evaluieren.

Im Hinblick auf die komplexen Genwechselwirkungen ist jedoch ein weiterer Faktor zu berücksichtigen, dessen Nichtbeachtung von Evolutionsgegnern in ein Argument gegen die Wahrscheinlichkeit transspezifischer Evolution gemünzt wird: Um alle Teilorgane zu einem komplizierten Bauplan zusammenzufügen, müssen - so der Einwand - mitunter dutzende oder gar hunderte von Genen derart miteinander verwoben und aufeinander abgestimmt sein, daß sie ein kompliziertes System aus Genwechselwirkungen (ein "epigenetisches System") bilden. Es steht daher die Frage im Raume, wie infolge der Synorganisation, also der Verschaltung vieler Gene zu einem funktionellen Ganzen überhaupt noch sinnvolle Mutationen zustandekommen können, die gleichsam dem ganzen System einen Vorteil bescheren und positiv selektioniert werden. Es läßt sich zeigen, daß die "Verschaltung" vieler einzelner Module (oder Gene) zu vermehrter Notwendigkeit, viele passende Mutationen zusammenzubekommen (letztlich also zu einer sinkenden Zahl an Anpassungsmöglichkeiten) führt. 

"Manche Apparate können durch sukzessive kleine Schritte entstehen: eine Stelle der Haut mit Lichtsinneszellen kann durch Pigmenthäufung zu einem Augenfleck werden. In einem zweiten Schritt wird der Augenfleck zu einem Napfauge, aber dieser zweite Schritt kann nicht richtungslos an einer beliebigen Stelle erfolgen, sondern ist an den Ort des Augenflecks gebunden. Dadurch wird die Wahrscheinlichkeit einer Weiterentwicklung zu einem Auge stark herabgesetzt, und das ist bei jedem weiteren Schritt der Fall, so daß die Wahrscheinlichkeit einer solchen Entwicklung äußerst gering wird."

(REMANE et al., 1973, S. 160 f.)

             

Wie also sind solche Kopplungen sowie die kooperativen, schrittweisen Umbauten ganzer Baupläne zu bewerkstelligen? Eine mögliche Antwort auf diese Frage liefern moderne Systemtheorien, die insbesondere von RIEDL ausgearbeitet wurden. In diesem Modell werden sukzessive Strukturgene unter ein Regulatorgen verschaltet. Beginnt man also mit einem solchen "Hauptschalter" und einem neuartigen Funktionsprotein, können schrittweise weitere Gene unter die Kontrolle dieses Regulatorgens gebracht und ausprobiert werden, ob die Funktion besser wird (im Augenblick ist man im Falle des Komplexauges bei Drosophila bei 2000 Genen angelangt, die unter der Kontrolle des Pax6-Regulatorgens ausgeprägt werden)! Solche Einheiten "wachsen" im Laufe der Zeit zu einem hierarchisch organisierten Gennetz, das sich immer schwerer auflösen läßt.

Eine Mutation am Regulatorgen würde nun eine Änderung des Zusammenspiels aller untergeordneten Gene gleichzeitig bewirken. Die einzelnen Strukturen, die beim Aufbau eines Organs beteiligt sind, müßten infolge der Kopplung nun nicht mehr "warten", bis die anderen "richtig" mutieren. Dadurch wird die Trefferchance für eine günstige Mutation stark erhöht, weil das Variationspotential mit steigendem Kopplungsgrad dramatisch eingeengt wird (man könnte sagen, die "Loszahl" der möglichen Mutationen wird durch Kopplung bedeutend verringert) (RIEDL, 1990).


Denken wir uns dazu eine Struktur, für die zehn Gene codieren. Nehmen wir an, die Chance, daß in jedem der zehn ungekoppelten Gene unabhängig voneinander eine passende Mutation zustandekommt, läge jeweils bei 10-6. Die Wahrscheinlichkeit einer positiven Gesamtveränderung der Struktur erniedrigt sich daher auf (10-6)10 = 10-60. Kommt es nun aber zu einer "Rangung" (Ordnung) der zehn Gene im Sinne einer gemeinsamen Kopplung unter ein Regulatorgen, können viele der Einzelentscheidungen (Mutationen) vermieden werden, wir haben es mit einem Abbau von "redundanten Determinationsentscheidungen" zu tun. Infolge der Kopplung zehner Gene beträgt die Chance, das Funktionselement als Ganzes selektionspositiv zu verändern, jetzt nicht mehr 10-60  - die Erfolgschance der Änderung eines Regulatorgens bleibt im Prinzip bei 10-6 (RIEDL und KRALL, 1994). Und da es immens viele Möglichkeiten geben dürfte, irgendwelche Gene schrittweise so zu verschalten, daß sie dem System jeweils irgendeinen beliebigen (!) Überlebensvorteil bescheren, ist die Schlußfolgerung der Evolutionsgegner widerlegt.

                             

Wir können also festhalten: Die Kopplung von Genen führt zwar zu einer höheren Notwendigkeit, "passende" Mutationen zusammenzubekommen, der "selektive Ausschuß" wächst. Gleichzeitig wird aber das Evolutionsgeschehen immer mehr dem Regime des Zufalls entzogen. Damit werden Wahrscheinlichkeitsbetrachtungen wertlos, weil die Prämisse von der Kumulation vieler unabhängiger Zufallsveränderungen nicht mehr stimmt:                 

"Dabei (inzuge der Genkopplung) zieht das Wachsen bestimmter Notwendigkeiten einen Abbau der Möglichkeiten des Zufalls nach sich, während dieses verringerte Repertoire der Entscheidungen eine Kanalisation der möglichen Ereignisse zur Folge hat (...) Die funktionelle Bürde vieler Merkmale und der selektive Ausschuß wachsen. Gleichzeitig aber werden im Fall gleichbleibender Anpassungsziele zahlreiche Entscheidungen redundant (...) Der Anpassungsvorteil steigt dabei exponentiell mit der Zahl der vermeidbaren Entscheidungen, wobei die Zunahme der Realisierungschancen eines bestimmten Zustandes wieder der Abnahme der Möglichkeiten des Zufalls entspricht (...)"

(RIEDL, 1990, S. 352 f.)

                                     

Zusammenfassend läßt sich feststellen, daß die Wahrscheinlichkeitsberechnungen nicht das leisten, was sich Antievolutionisten erhoffen. Die angenommenen Voraussetzungen erweisen sich als falsch, weil sich Berechnungen, welche die Selektion, die Entscheidungsfreiheit in der Evolution, die Möglichkeit von der Existenz von Doppelfunktionen und die Kanalisierung von Evolutionsereignissen infolge Genkopplung unberücksichtigt lassen, als irrelevant herausstellen.

                                                                                                                                                                       

________________________________________________

Fußnoten:

(*)

In Abwandlung des erwähnten Würfelbeispiels könnte man auch den Fall eines Ziegelsteins bemühen, um antievolutionistische Schlußfolgerungen zu widerlegen. So stellt man fest, daß die Konfiguration der Splitter in jedem Falle auch extrem unwahrscheinlich ist und dennoch realisiert wird. Gegen dieses Beispiel wenden Evolutionsgegner nun beispielsweise folgendes ein:

"Die Zersplitterung eines herabfallenden Ziegelstein liefert jedoch keinerlei Funktionalität. Die Frage muss daher nicht lauten: Wie groß ist die Wahrscheinlichkeit für die Anordnung der Splitter, sondern: Wie groß ist die Wahrscheinlichkeit für eine durch die Zersplitterung gelieferte Funktionalität?"        

(WITTLICH, 2002)

In dieser Betrachtung steckt jedoch derselbe Denkfehler, über den wir oben gesprochen haben. Die Selektion nämlich, die - wie wir gesehen haben - enorm in die Zufallsverteilung eingreift, die wird hier mit keinem Worte erwähnt. An die Möglichkeit, daß zunächst eine noch so kleine Abweichung der "Splitteranordnung" vom statistischen Durchschnitt bereits genügt, um quasi einen ersten selektionspositiven Schritt in Richtung einer komplexeren Struktur zu fixieren, diese Möglichkeit diskutiert WITTLICH nicht. Findet man nach einigen "Fallversuchen" tatsächlich eine Struktur, die eine wichtige Richtung vorgibt, kann man schrittweise - weitere Selektionsschritte summierend - auf dem bisher Erreichten aufbauen, bis man endlich eine hinreichend "funktionale" und komplexe Struktur in die Splitteranordnung gebracht hat. Und dann braucht man keine unendlich vielen Versuche, um eine solche Struktur zu realisieren; es genügen jeweils bereits einige wenige, um - durch schrittweise Selektion "vorteilhafter" Konfigurationen - komplexere Strukturen zu generieren.

(**)

SCHNEIDER hat in Simulationsversuchen genau das gezeigt: "Complex specified information", die von Evolutionsgegnern wie beispielsweise DEMBSKI für einen Beweis eines "intelligenten Designs" gehalten werden, läßt sich in solchen zweistufigen Prozessen völlig planlos generieren. Wie konnte er einen Zufallsgenerator dazu bringen, durch planlose Aneinanderreihung von Buchstaben "complex specified information" zu erzeugen? Die Antwort gibt SCHNEIDER:

"By mutation (non directed, can't be intelligent) replication (non-directed, can't be intelligent) and selection (ahh ha!) (...) So what's going on? Living things themselves create "specified complexity" via environmental selections and mutations. Living things and their environment are the "intelligent designer"! So what was Dembski's mistake? It was that he proposed that the design by necessity had to come from outside the living things, whereas it comes from within them and between the organism and its environment!"

(SCHNEIDER, 2002)

  

Last update: 26.10.02     

Verwandte Themen:

Kritische Besprechung einer antievolutionistischen Replik

                      

AG Evolutionsbiologie im Verband deutscher Biologen Gesellschaft für kritische Philosophie Nürnberg Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften Homepage von M. Schmidt-Salomon

National Center for Science Education Giordano-Bruno-Stiftung Materialien und Informationen zur Zeit Morphisto - Institut für Evolutionswissenschaften


Zur Homepage          © by Martin Neukamm, 30.04.02    GOWEBCounter by INLINE