Homepage
Neuere
Fassung
Druck-Version
Evolution oder Schöpfung, Zufall oder Notwendigkeit?
Die Argumentation mit der Wahrscheinlichkeit
Evolution oder Schöpfung? - Zwingen uns Zufall und Wahrscheinlichkeit
von der Evolutionstheorie Abstand zu nehmen? Wir wollen in diesem Essay einige
evolutionskritische Argumente zur Entstehung "informationstragender" Strukturen
in der Evolution diskutieren.
Eine vieldiskutierte Strategie in der evolutionskritischen Argumentation
besteht darin, die Möglichkeit der Entstehung von bestimmten Proteinen
oder komplexen Organen aus Wahrscheinlichkeitsgründen
infragezustellen. Der Evolutionsgegner bemüht dazu konkrete Beispiele
von Biomolekülen oder morphologischen Strukturen,
verleiht ihnen eine mathematische Präzision und
weist nach, daß die Wahrscheinlichkeit für die Entstehung des
fraglichen Merkmals extrem klein und damit das Auftreten des Merkmals praktisch
unmöglich sei.
"Ein Bakterienmotor besteht aus fünf
Funktionsgrundelementen: Die Bakteriengeisel (...) ein Winkelstück
(Verbindungselement) an eine Rotationsachse gekoppelt, die von Lagern in
der Cytoplasmamembran und der Zellwand der Bakterienzelle in Position gehalten
wird (...) Die Rotationsachse und damit die Bakteriengeisel wird über
Antriebsproteine in Rotation versetzt (...) Die Wahrscheinlichkeit, daß
in einer dieser Bakterienzellen irgendwann die gewünschten (...) Mutationen
zusammengekommen sind, beträgt (nach ausführlicher Berechung)
10-94."
(JUNKER und SCHERER, 1998, S. 129
ff.)
Entsprechend wollen LÖNNIG und WITTLICH die Unmöglichkeit der Bildung
einer bestimmten DNA-Kette, bestehend aus 1000 Nucleotidbasen, nachweisen
(LÖNNIG, 1991). Die Wahrscheinlichkeit der Entstehung
eines solchen Gens, etwa durch statistische Polykondensation, wird (unter
Berücksichtigung einer "erlaubten" Abweichung von 40%) zu 5 *
10-290 berechnet, die Entstehung damit natürlich völlig
unwahrscheinlich gemacht. Entsprechend lesen wir auf LÖNNIGs Homepage
an anderer Stelle:
"(Es) ist bewiesen worden, dass die
evolutive Entstehung völlig neuer, ganz spezifischer Funktionsproteine
außerhalb des Bereichs der Wahrscheinlichkeit
der sich auf unserer Erde
abspielenden Zufallsprozesse liegt (...)"
Nun haben jedoch seit Generationen Wissenschaftler, wie zum Beispiel von
DITFURTH, DOSE und RAUCHFUSS, MAHNER, SCHUSTER, VOLLMER und viele andere
vorgerechnet und erklärt, weshalb solche und ähnliche
Schlußfolgerungen völlig falsch sind. Tatsächlich wird in
einer Weise multipliziert und potenziert, daß darüber die
Voraussetzungen vergessen werden, unter denen solche Schlüsse berechtigt
wären (MAHNER, 1986).
Ganz allgemein läßt sich feststellen, daß
Wahrscheinlichkeitsberechnungen nur Aussagen über die Möglichkeit
erlauben, eine ganz bestimmte Funktionsanordnung (oder eine
eingeschränkte Menge von Ereignissen) reproduziert zu
bekommen. In der Evolution müssen jedoch weder bereits eingetretene
Ereignisse reproduziert noch ganz konkrete, quasi "vorfixierte"
Funktionen realisiert werden, denn es reicht ja bereits, wenn einem System
durch Modifikation ein beliebiger Überlebensvorteil
erwächst. Die Frage kann also nicht lauten "Wie groß ist die
Wahrscheinlichkeit, daß eine bestimmte Menge von
selektionspositiven Veränderungen im Organismus eintritt?", sondern
es muß gefragt werden "Wie wahrscheinlich ist die Entstehung
irgendeiner vorteilhaften Systemveränderung?". Da
man aber weder weiß, welche und wieviele Biomoleküle unter welchen
Bedingungen einem Organismus einen (alternativen) Überlebensvorteil
bescheren könnten, welche und wieviele Gene wie miteinander verschaltet
werden können, damit sich eine vorteilhafte Genwirkkette bildet, wieviele
Alternativmöglichkeiten es gibt, um irgendeine Struktur sinnvoll mit
irgendeiner anderen zu kombinieren, wieviele Mehrfachfunktionen ein Organ
ausüben kann und wieviele alternative Möglichkeiten es gibt, um
Leben zu erschaffen, sind Berechnungen, die nur die Wahrscheinlichkeit
einer (Menge von) Realisierungsmöglichkeit(en) unter vielen
denkbaren Alternativen präsentieren, bedeutungslos. Der Fehler steckt
eben darin, Minimalforderungen für konkrete
Veränderungen abzuleiten, um eben nur das heute Existente
zu erreichen, ohne daß bekannt ist, welche (eventuell wieder ausgestorbene)
Vorstufen, Mehrfachfunktionen und Veränderungen
insgesamt denkbar sind bzw. inwieweit der Zufall überhaupt
noch eine Rolle spielt. Deshalb ist es praktisch unmöglich, daß
die eingesetzten Zahlenwerte (für die in jedem Falle wichtige Details
fehlen), noch irgendeinen Sinn ergeben.
Wird von molekularer Evolution gesprochen, kommen noch eine Reihe
weiterer Voraussetzungen und Randbedingungen hinzu, die statistische
Betrachtungen irrelevant werden lassen - wir wollen im Folgenden drei der
wichtigsten etwas näher beleuchten: Zum einen ist darauf hinzuweisen,
daß gar nicht ein bestimmter Biomolekül-Typ verwirklicht werden
muß, um eine bestimmte Funktion zu bekommen. Vergleichende Untersuchungen
zeigen, daß viele verschiedene Nucleotid- oder Aminosäuresequenzen
zu Nucleinsäure- oder Proteinstrukturen mit praktisch denselben
Eigenschaften führen. Die erfolgversprechenden Strukturen kommen nun
nicht gehäuft in einer bestimmten Zone des Sequenzraumes vor (so wie
etwa die Varianten eines bestimmten Enzym-Typs), sondern sind mehr oder minder
regellos verteilt. Dies bedeutet, daß von jeder beliebigen Sequenz
ausgehend in einigen Schritten eine erfolgversprechende Struktur realisiert
werden kann. So konnte SCHUSTER mathematisch nachweisen, daß "alle
wesentlichen Sekundärstrukturen von Sequenzen aus 100 Nucleotiden durch
maximal 20 Nucleotidsubstitutionen von jeder Zufallssequenz aus zu
erreichen (sind)." Auch dieser Umstand macht deutlich, daß
wahrscheinlichkeitstheoretische Berechnungen, die solche Voraussetzungen
außer Acht lassen, bedeutungslos werden (SCHUSTER, 1994, S.
63).
Desweiteren erfolgt der Austausch von Aminosäuren (oder Nucleotidbasen)
gegen andere gar nicht so regellos und zufällig, wie die
Wahrscheinlichkeitsberechnungen unterstellen: Aminosäuren werden bevorzugt
durch bestimmte andere substituiert; ein isopolarer Austausch von
Aminosäuren erfolgt häufiger als ein heteropolarer. Auch die abiotische
Bildung von Proteinoiden durch Verkettung von Aminosäuren verläuft
nach thermodynamischen und reaktionskinetischen Regeln. Die
Aminosäuresequenzen werden durch die chemischen Eigenschaften der
Aminosäuren selbst sowie durch die Reaktionsbedingungen beeinflußt
(FOX, 1965). Alpha-Peptidbindungen bilden sich bevorzugt und
die Mengenausbeute bestimmter Polypeptide ist höher als bei statistischer
Zufallsverteilung (REINBOTHE und KRAUSS, 1982, S 190 ff.).
Selbst große Komplexe, wie Porphyrine und Isoprene, aber
auch ATP und alle Nucleotidbasen wurden in Ursuppenexperimenten der zweiten
Generation unter gleichsam unspezifischen Bedingungen reproduziert. Chemie
hat wenig mit Statistik zu tun; die physico-chemischen
Gesetzmäßigkeiten greifen enorm in die molekulare Evolution ein,
so daß von reinen Zufallsprozessen nicht die Rede sein kann.
Ein ausgezeichnetes, von Evolutionsgegnern verkanntes Prinzip zur
Eindämmung der kombinatorischen Vielfalt besteht schließlich auch
im stufenweisen Aufbau "modularer Strukturen". Im Falle von
Biomolekülen handelt es sich um mehr oder minder autonome Faltungseinheiten,
die brauchbare Strukturmerkmale aufweisen. Große Proteine besitzen
in der Regel mehrere solcher hierarchisch strukturierten Module. Diese
müssen nun nach GILBERT nicht alle gleichzeitig entstanden sein, denn
es hätte bereits genügt, wenn aus der Vielfalt aller möglichen
Sequenzen zunächst eine beschränkte Anzahl von autonomen Modulen
aufgebaut wurde, die jeweils nur einen Bruchteil der Kettenlänge umfassen.
Jene Module, die in irgendeiner Weise brauchbare Strukturmerkmale aufweisen,
könnten auf dieser Stufe durch Selektion fixiert werden, so daß
durch schrittweise Kombination selektionspositiver Module komplizierte
Biomoleküle mit eventuell neuen Eigenschaften entstehen. Auch die Hypothese
der Kettenverlängerung durch "exon-shuffling" macht also deutlich,
daß der Zufall nur noch eine geringe Rolle im evolutionären Aufbau
größerer Proteine spielt (GILBERT, 1978).
Zu den Paradebeispielen in dieser Frage zählt das Cytochrom
c, ein Enzym, das aus etwa 104 Aminosäuren besteht und in der
Atmungskette eine wichtige Funktion übernimmt. Evolutionsgegner rechnen
nun vor, daß die Wahrscheinlichkeit, das Enzym durch Zufall zu erhalten,
bei 20 verschiedenen Aminosäuren 20-104, also "fast Null"
beträgt. Zunächst muß aber berücksichtigt werden, daß
nur 34 der 104 Aminosäuren das aktive Zentrum des Enzyms bilden, das
für die katalytische Funktion des Enzyms verantwortlich ist; die restlichen
Aminosäuren sind weitgehend frei wählbar. Desweiteren wird verkannt,
daß das Protein nicht von Beginn an seine spezielle und optimale Funktion,
die es heute einnimmt, zu besitzen brauchte. Es hätte ja schon genügt,
wenn das Enzym irgendeine Funktion als
Elektronenüberträger (oder eine beliebige andere
Funktion) besaß, die den Organismen einen Überlebensvorteil
bot. In Anlehnung an SCHUSTER ist auch nur ein winziger Ausschnitt des
Sequenzraumes zu "durchsuchen", um solch eine funktionelle Struktur zu finden.
Überdies hätte es seine heutige Funktion auch später durch
Kettenverlängerung ("exon-shuffling") oder durch entsprechende
funktionsverändernde Mutationen erreichen können (KESSLER
in: SIEWING (Hrsg.), 1982). Selbst für den Fall einer reinen
Zufallsentstehung erhöhte sich allein schon unter Berücksichtigung
der genannten Voraussetzungen die Bildewahrscheinlichkeit des Cytochrom c
bereits auf 10-10 (DOSE und RAUCHFUSS, 1975, S. 185 f.;
MAHNER, 1986). Zu Ähnlichen Resultaten gelangte auch KAPLAN,
der die Funktionsproteinchance mit 10-10 bis 10-14
abschätzte (KÄMPFE, 1992, S. 198).
Die Nichtbeachtung all dieser Voraussetzungen zeigt also, wie schnell irrelevante
Wahrscheinlichkeitsaussagen über die Biogenese gemacht werden. Gleiches
gilt auch in der Diskussion um "Makroevolution", also in der
Frage der Entstehung komplizierter Strukturen, wie etwa dem eingangs
erwähnten Bakterienmotor. Ein illustratives Beispiel, wie schnell
insbesondere der richtende Faktor der Selektion aus den
evolutionären Betrachtungen verschwindet, gibt BLEULER in der Frage
der Evolution des Wirbeltierauges:
"[Wenn jeweils] zufällige Variation die Ursache
war, so mußten entstehen 1. eine nervöse Retina, 2. das Pigment,
das irgendwie die Übertragung des Lichtreizes auf die Nervenenden
ermöglicht oder sonst eine notwendige Rolle spielt, 3. eine durchsichtige
und optisch glatte Haut, 4. eine Konvexlinse, 5. ein durchsichtiger Körper,
der die notwendige Distanz zwischen Linse und Retina ausfüllt, 6. eventuell
ein Schutzorgan (...) Nun müssen die Organe aber in bestimmter Reihenfolge
hintereinander liegen (...) Die Cornea darf natürlich nur an der vorderen
Oberfläche liegen, und auch daselbst sind nur eine oder ganz wenige
Stellen geeignet (...) Die drei optischen Organe, Cornea, Linse und
Glaskörper, müssen außerdem sehr gut zentriert sein (...)
Die Zentrierung muß aber auch winkelrecht sein (...) Auch Augenlid
und Retina können nur um einen Bruchteil ihrer Größe abweichen,
so daß der Nenner noch um einige Stellen zu vermehren wäre (...)
Es ist leicht abzusehen, daß solche Umstände die Wahrscheinlichkeit
eines Zufalls auf unendlich nahe an Null herabsetzen."
(BLEULER, zitiert nach LÖNNIG, 1989)
Doch niemand behauptet, daß ein solches Organ in einem Schritt und
völlig zufällig entsteht (wir kommen unten darauf zu
sprechen). Wollten wir eine Betrachtung anstellen, die mit Evolution
noch irgend etwas zu tun haben soll, müßte die Art und Weise,
wie Funktionalität entsteht, völlig anders besprochen werden.
Zunächst ist ein Mechanismus anzugeben, der Variationen erzeugt.
Dann muß irgendeine Selektionsbedingung formuliert werden,
die jede noch so kleine selektionspositive Veränderung fixiert. Diese
Schritte sind solange zu wiederholen, bis man eine hinreichend komplexe
Information in eine Struktur gebracht hat. Wie stark die Selektion
den Zufall in seine Schranken verweist, wollen wir uns an einem einfachen
Modell etwas genauer ansehen:
Denken wir uns einen Spieler, vor dem hundert Würfel ausgebreitet
auf einem Tisch lägen. Nun bekäme er die Aufgabe, der Reihe nach
solange mit jedem Würfel zu würfeln, bis er eine gerade Zahl erhielte
und diesen Vorgang solange zu wiederholen, bis alle hundert Würfel eine
gerade Augenzahl zeigen. Nachdem er schrittweise alle ungeraden Zahlen
ausselektiert und die Zahlenreihe auf ein Blatt Papier geschrieben
hat, läßt sich feststellen, daß die Wahrscheinlichkeit,
die realisierte Zahlensequenz zu bekommen (1/6)100, also "fast
Null" beträgt.
Dieses Beispiel macht nun zweierlei deutlich: Erstens illustriert es anschaulich,
daß man praktisch jedes Ereignis beliebig unwahrscheinlich rechnen
und als nichtrealisierbar ausgeben könnte. Der Auffassung des
Evolutionsgegners entsprechend müßte nämlich der Schluß
gezogen werden, daß die Entstehung solcher Zahlenreihen
"außerhalb des Bereichs der Wahrscheinlichkeit der sich auf unserer
Erde abspielenden Zufallsprozesse" liege. Tatsächlich lassen
sich jedoch fast beliebig viele - wenn auch jedesmal verschiedene, niemals
wieder dieselben - gleich unwahrscheinlichen Zahlenfolgen erwürfeln.
Die Unwahrscheinlichkeit jeder einzelnen Konfiguration wird durch eine
immens große Zahl an alternativen (potentiellen)
Konfigurationsmöglichkeiten aufgewogen
(*).
Zweitens wird gezeigt, daß sich im Rahmen selektionsgesteuerter
Prozesse eben auch "informationstragende" Strukturen mit einer
vergleichsweise geringen Zahl an Versuchen erzeugen lassen
(**). In Analogie zu dem Würfelbeispiel
"spielt" die Evolution gewissermaßen mit den Nucleotidbasen und Genen
immer nur solange, bis irgendeine (!) beliebige adaptive
Veränderung stattfindet, die positiv selektioniert und fixiert
wird. Es steht dabei weder im Voraus fest, was geschaffen werden soll,
noch daß Funktionalität völlig zufallsgesteuert oder gar
in einem Schritt entstehen muß. An das jeweils Erreichte
schließen sich weitere solcher Schritte an. Damit erreicht der Organismus
stufenweise eine größere Komplexität (und rückblickend
auch einen "unwahrscheinlicheren" Zustand). Es besteht dabei aber keine
Notwendigkeit ganz bestimmte Entwicklungsschritte zu kumulieren, denn es
gibt immens viele Möglichkeiten, um ein System selektionspositiv
weiterzuentwickeln, während wir immer nur eine - die tatsächlich
realisierte - zu Gesicht bekommen!
Nun weisen Evolutionskritiker in diesem Zusammenhang gerne auf die
"nichtreduzierbare Komplexität" von Organen hin, das heißt,
man benennt "fertige" Strukturen, die sich aus mehreren Komponenten
zusammensetzen und weist nach, daß das Fehlen eines Strukturelements
zum Versagen der Organfunktion führt. Daraus wird dann der Schluß
gezogen, daß ein Selektionsvorteil nur im fertig
ausgebildeten Zustand gegeben sei, womit die evolutionäre
Schlüsselrolle der Selektion untergraben wäre (JUNKER und
SCHERER, 1998, S. 81). JUNKER gelangt daher zu folgendem Schluß:
"Es zeigt sich (...), dass auch solche kleinsten
Zwischenschritte bei weitem zu groß sind, als dass sie durch die bekannten
Evolutionsmechanismen überbrückt werden könnten."
(JUNKER, 2002, S. 66)
Tatsächlich zeigt sich jedoch nur, daß historische Details über
die Bildung einer Struktur fehlen, wobei die "Informationslücke"
unreflektiert mit der "Irreduzierbarkeitsthese" aufgefüllt wird. Es
wäre von Junker redlicher, würde er darlegen, daß die
historischen Details noch zu sehr im Dunkeln liegen, als daß exakte
Wahrscheinlichkeitsberechnungen auf der Basis des spärlichen Aktualwissens
sinnvoll sind. Die Voraussetzung von der "irreduzierbaren
Komplexität" wäre natürlich nur dann richtig, wenn
jedes Teilorgan von Beginn an seine Funktion besaß, die ihm auch im
fertigen Organ zukommt. Dies ist jedoch, wie VOLLMER gezeigt hat, nicht der
Fall.
Evolution führt meist zu Funktionsänderung, das heißt,
Teilstrukturen können auch in einem völligen anderen
Funktions-Zusammenhang ihren Nutzen gehabt und daher "präadaptiert"
sein. Komplexe Funktionseinheiten können mit anderen Worten auch dann
schrittweise entstehen, wenn ihre Komponenten tragende
Doppelfunktionen aufweisen. Auf der Basis begründeter
Annahmen gelangt man so zu völlig anderen Ergebnissen, sobald man in
die Betrachtungen die evolutionsbiologische Voraussetzung einfließen
läßt, daß Neues durch Funktionswandel bereits adaptierter
Strukturen zustandekommt.
Zu den klassischen Beispielen für scheinbar "irreduzierbare
Komplexität" gehört beispielsweise das kompliziert gebaute
Wirbeltierauge, wobei von LÖNNIG und BLEULER die
gleichzeitige Entstehung aller Komponenten vollkommen
unwahrscheinlich gerechnet wird. Das "Becherauge" einer Schnecke braucht
aber weder einen Glaskörper, noch eine Linse oder eine Hornhaut, geschweige
denn ein Augenlid oder gar ein kompliziertes Sehzentrum, um zu funktionieren,
denn seine Funktion besteht zunächst lediglich darin, dem Weichtier
das Richtungssehen zu ermöglichen. Eine günstige
Anpassung vergrößerte womöglich aus
Schutzgründen die Vertiefung immer mehr und schloß
das Becherauge bis auf eine kleine Lichtöffnung. Es war nun wahrscheinlich
eine Doppelfunktion, die den glücklichen Umstand fügte,
daß sich so nebenbei ein Organ bildete, das erstmals neben dem "Richtungs-
und Bewegungssehen" ein scharfes Abbild der Umwelt lieferte: Das
"Lochkamera-Auge" vieler höherer Wirbelloser war entstanden.
Und erneut wurde die Evolution etwa aus Gründen des Schutzes dazu
"veranlaßt", das Auge durch ein lichtdurchlässiges Häutchen
zu schließen und es mit einer gallertartigen Substanz zu füllen.
Wie nebenbei ergab sich so abermals eine Doppelfunktion, die die
Möglichkeit zur Verbesserung der optischen Eigenschaften des Auges schuf,
insbesondere zur Bildung einer Sammellinse, die dann Bildschärfe und
Lichtstärke im Linsenauge der Wirbeltiere glücklich vereint. Und
dann müssen, wie von BLEULER und LÖNNIG suggeriert wird, weder
Netzhaut, Glaskörper, Augenlinse und Hornhaut in einem Schritt entstehen.
Gerade hier ist ja die Grundvoraussetzung für das Funktionieren des
Auges erfüllt: Kleine selektionspositive, funktionsverändernde
Schritte sind möglich, und auch ein schlechtes Auge ist besser als gar
kein Auge.
Ein anderes Beispiel, anhand dessen die irreduzierbare Komplexität
von biologischen Strukturen demonstiert wird, verkörpert der Stoffwechsel
der elektronengebundenen Succinatgärung: Heute weiß
man, daß bestimmte Bakterien in der Lage sind, Fumarsäure
(Fumarat) infolge des Wirkens eines Enzyms, der
Fumarsäurereduktase zur Bernsteinsäure
(Succinat) zu reduzieren. Der zur Fumaratreduktion formal benötigte
Wasserstoff (genauer: Elektronen und Protonen) entstammt einem
Nährsubstrat, der Ameisensäure, die exogen in Lösung vorliegt.
Diese wird infolge der Einwirkung eines Enzyms, der
Ameisensäuredehydrogenase zu Kohlendioxid oxidiert, die
Elektronen und Protonen in einer Transportkette zur Reduktion der
Fumarsäure bereitgestellt. Der entstehende Protonengradient versetzt
ein weiteres Enzym, die ATP-Synthase in die Lage, ATP aufzubauen,
das als Energielieferant von der Bakterienzelle genutzt wird. Der Prozeß
erscheint auf den ersten Blick derart komplex, so daß es schwerfällt,
selektionspositive Zwischenschritte in der evolutionären Entstehung
anzugeben. SCHERER geht deshalb von der "nichtreduzierbaren Komplexität"
des Stoffwechselprozesses aus und behauptet, alle notwendigen Faktoren (der
elektronengebundene Protonentransport sowie ATP-Synthase) hätten
gleichzeitig in einem Evolutionsschritt entstehen müssen, damit der
Organismus einen Selektionsvorteil davonträgt (vgl. SCHERER, 1996,
S. 90-103).
Wird jedoch berücksichtigt, daß womöglich alle
Teilstrukturen auch in ganz anderen Funktionszusammenhängen entstanden
sind und Doppelfunktionen ausübten, ergeben sich ganz andere
Voraussetzungen: Ein exogener Protonengradient könnte
sich etwa in bestimmten Regionen der Tiefsee gebildet haben, der Bakterien
einen Protostoffwechsel ermöglichte (RUSSEL und HALL,
1997). Auch an abiotisch entstandenen Porphyrinen und
Flavinen können Elektronenübergänge stattgefunden,
als Elektronenquelle glycolytisch gebildetes NADH, Wasser etc. gedient haben.
Diese Komplexe mögen zunächst nur als einfache Strukturlipide in
Membranen eingebaut worden sein, wirken aber gleichzeitig als Protonenpumpen
und erfüllten so möglicherweise eine Doppelfunktion
(KÄMPFE, 1992, S. 226). Als Elektronenakzeptoren hätten
abiotisch gebildete Chinone dienen können, so daß ein erster
primitiver Elektronentransport oder alternativ die cyklische Transportkette
bei der Photosynthese entstand - der Weg zur Evolution der
ATP-Synthase war frei. Es ist denkbar, daß in einem
nächsten Schritt auf die Fumarsäure als
Elektronenakzeptor zurückgegriffen wurde, dann auf Malat, Oxalacetat
und schließlich auf Kohlendioxid und Pyrruvat, aus welchen Fumarat
synthetisiert werden kann. Auf diese Weise entstand wahrscheinlich schrittweise
der reduktive Citratcyclus, der später zum Krebszyklus umfunktioniert
wurde. Schließlich konnte in einem weiteren Schritt - anstelle des
glycolytisch gebildeten NADH - Ameisensäure als Protonen- und
Elektronendonator fungiert haben. Und dann mußte keinesfalls die
Elektronentransportkette, die ATP-Synthase bzw. ein Enzym zur Fumaratreduktion
und Ameisensäureoxidation gleichzeitig entstehen.
Dasselbe Prinzip könnte auch auf den von JUNKER und SCHERER eingangs
vorgestellten Bakterienmotor zutreffen. Natürlich fehlen
bislang noch entsprechende Modelle, die überzeugend aufzeigen, welche
Mehrfachfunktionen die entsprechenden Teilorgane erfüllt haben
könnten. Hier ist noch viel zu erforschen, doch solange die Voraussetzungen
der evolutionären Wandelbarkeit von (Mehrfach-) Funktionen sowie
die Zahl der Alternativmöglichkeiten nicht geklärt sind,
läßt sich der Sinn solcher Wahrscheinlichkeitsberechnungen bzw.
die Richtigkeit der ihnen zugrundeliegenden Voraussetzungen und Zahlenwerte
kaum evaluieren.
Im Hinblick auf die komplexen Genwechselwirkungen ist jedoch ein weiterer
Faktor zu berücksichtigen, dessen Nichtbeachtung von Evolutionsgegnern
in ein Argument gegen die Wahrscheinlichkeit transspezifischer Evolution
gemünzt wird: Um alle Teilorgane zu einem komplizierten Bauplan
zusammenzufügen, müssen - so der Einwand - mitunter dutzende oder
gar hunderte von Genen derart miteinander verwoben und aufeinander abgestimmt
sein, daß sie ein kompliziertes System aus Genwechselwirkungen (ein
"epigenetisches System") bilden. Es steht daher die Frage im Raume,
wie infolge der Synorganisation, also der Verschaltung vieler
Gene zu einem funktionellen Ganzen überhaupt noch sinnvolle Mutationen
zustandekommen können, die gleichsam dem ganzen System einen Vorteil
bescheren und positiv selektioniert werden. Es läßt sich zeigen,
daß die "Verschaltung" vieler einzelner Module (oder Gene) zu vermehrter
Notwendigkeit, viele passende Mutationen zusammenzubekommen (letztlich also
zu einer sinkenden Zahl an Anpassungsmöglichkeiten)
führt.
"Manche Apparate können durch sukzessive kleine
Schritte entstehen: eine Stelle der Haut mit Lichtsinneszellen kann durch
Pigmenthäufung zu einem Augenfleck werden. In einem zweiten Schritt
wird der Augenfleck zu einem Napfauge, aber dieser zweite Schritt kann nicht
richtungslos an einer beliebigen Stelle erfolgen, sondern ist an den Ort
des Augenflecks gebunden. Dadurch wird die Wahrscheinlichkeit einer
Weiterentwicklung zu einem Auge stark herabgesetzt, und das ist bei jedem
weiteren Schritt der Fall, so daß die Wahrscheinlichkeit einer solchen
Entwicklung äußerst gering wird."
(REMANE et al., 1973, S. 160 f.)
Wie also sind solche Kopplungen sowie die kooperativen, schrittweisen Umbauten
ganzer Baupläne zu bewerkstelligen? Eine mögliche Antwort auf diese
Frage liefern moderne Systemtheorien, die insbesondere von RIEDL ausgearbeitet
wurden. In diesem Modell werden sukzessive Strukturgene unter ein Regulatorgen
verschaltet. Beginnt man also mit einem solchen "Hauptschalter" und einem
neuartigen Funktionsprotein, können schrittweise weitere Gene unter
die Kontrolle dieses Regulatorgens gebracht und ausprobiert werden, ob die
Funktion besser wird (im Augenblick ist man im Falle des Komplexauges bei
Drosophila bei 2000 Genen angelangt, die unter der Kontrolle des
Pax6-Regulatorgens ausgeprägt werden)! Solche Einheiten "wachsen" im
Laufe der Zeit zu einem hierarchisch organisierten Gennetz, das sich immer
schwerer auflösen läßt.
Eine Mutation am Regulatorgen würde nun eine Änderung des
Zusammenspiels aller untergeordneten Gene gleichzeitig bewirken. Die einzelnen
Strukturen, die beim Aufbau eines Organs beteiligt sind, müßten
infolge der Kopplung nun nicht mehr "warten", bis die anderen "richtig" mutieren.
Dadurch wird die Trefferchance für eine günstige Mutation stark
erhöht, weil das Variationspotential mit steigendem Kopplungsgrad dramatisch
eingeengt wird (man könnte sagen, die "Loszahl" der möglichen
Mutationen wird durch Kopplung bedeutend verringert) (RIEDL,
1990).
Denken wir uns dazu eine Struktur, für die zehn Gene codieren.
Nehmen wir an, die Chance, daß in jedem der zehn
ungekoppelten Gene unabhängig voneinander eine passende
Mutation zustandekommt, läge jeweils bei 10-6. Die
Wahrscheinlichkeit einer positiven Gesamtveränderung der Struktur erniedrigt
sich daher auf (10-6)10 = 10-60.
Kommt es nun aber zu einer "Rangung" (Ordnung) der zehn Gene im Sinne einer
gemeinsamen Kopplung unter ein Regulatorgen, können viele
der Einzelentscheidungen (Mutationen) vermieden werden, wir haben es mit
einem Abbau von "redundanten Determinationsentscheidungen" zu tun.
Infolge der Kopplung zehner Gene beträgt die Chance, das Funktionselement
als Ganzes selektionspositiv zu verändern, jetzt nicht
mehr 10-60 - die Erfolgschance der Änderung eines
Regulatorgens bleibt im Prinzip bei 10-6 (RIEDL und
KRALL, 1994). Und da es immens viele Möglichkeiten geben
dürfte, irgendwelche Gene schrittweise so zu verschalten,
daß sie dem System jeweils irgendeinen beliebigen (!)
Überlebensvorteil bescheren, ist die Schlußfolgerung der
Evolutionsgegner widerlegt.
Wir können also festhalten: Die Kopplung von Genen führt zwar zu
einer höheren Notwendigkeit, "passende" Mutationen zusammenzubekommen,
der "selektive Ausschuß" wächst. Gleichzeitig wird aber das
Evolutionsgeschehen immer mehr dem Regime des Zufalls entzogen. Damit
werden Wahrscheinlichkeitsbetrachtungen wertlos, weil die Prämisse von
der Kumulation vieler unabhängiger Zufallsveränderungen
nicht mehr stimmt:
"Dabei (inzuge der Genkopplung) zieht das Wachsen
bestimmter Notwendigkeiten einen Abbau der Möglichkeiten des Zufalls
nach sich, während dieses verringerte Repertoire der Entscheidungen
eine Kanalisation der möglichen Ereignisse zur Folge hat (...)
Die funktionelle Bürde vieler Merkmale und der selektive Ausschuß
wachsen. Gleichzeitig aber werden im Fall gleichbleibender Anpassungsziele
zahlreiche Entscheidungen redundant (...) Der Anpassungsvorteil steigt dabei
exponentiell mit der Zahl der vermeidbaren Entscheidungen, wobei die Zunahme
der Realisierungschancen eines bestimmten Zustandes wieder der Abnahme der
Möglichkeiten des Zufalls entspricht (...)"
(RIEDL, 1990, S. 352 f.)
Zusammenfassend läßt sich feststellen, daß die
Wahrscheinlichkeitsberechnungen nicht das leisten, was sich Antievolutionisten
erhoffen. Die angenommenen Voraussetzungen erweisen sich als falsch, weil
sich Berechnungen, welche die Selektion, die Entscheidungsfreiheit in der
Evolution, die Möglichkeit von der Existenz von Doppelfunktionen und
die Kanalisierung von Evolutionsereignissen infolge Genkopplung
unberücksichtigt lassen, als irrelevant herausstellen.
________________________________________________
Fußnoten:
(*)
In Abwandlung des erwähnten
Würfelbeispiels könnte man auch den Fall eines Ziegelsteins
bemühen, um antievolutionistische Schlußfolgerungen zu widerlegen.
So stellt man fest, daß die Konfiguration der Splitter in jedem Falle
auch extrem unwahrscheinlich ist und dennoch realisiert wird. Gegen dieses
Beispiel wenden Evolutionsgegner nun beispielsweise folgendes ein:
"Die Zersplitterung eines herabfallenden
Ziegelstein liefert jedoch keinerlei Funktionalität. Die Frage muss
daher nicht lauten: Wie groß ist die Wahrscheinlichkeit für die
Anordnung der Splitter, sondern: Wie groß ist die Wahrscheinlichkeit
für eine durch die Zersplitterung gelieferte Funktionalität?"
(WITTLICH, 2002)
In dieser Betrachtung steckt jedoch derselbe Denkfehler, über
den wir oben gesprochen haben. Die Selektion nämlich,
die - wie wir gesehen haben - enorm in die Zufallsverteilung eingreift, die
wird hier mit keinem Worte erwähnt. An die Möglichkeit, daß
zunächst eine noch so kleine Abweichung der "Splitteranordnung" vom
statistischen Durchschnitt bereits genügt, um quasi einen ersten
selektionspositiven Schritt in Richtung einer komplexeren Struktur
zu fixieren, diese Möglichkeit diskutiert WITTLICH nicht. Findet
man nach einigen "Fallversuchen" tatsächlich eine Struktur, die eine
wichtige Richtung vorgibt, kann man schrittweise - weitere Selektionsschritte
summierend - auf dem bisher Erreichten aufbauen, bis man endlich eine hinreichend
"funktionale" und komplexe Struktur in die Splitteranordnung gebracht hat.
Und dann braucht man keine unendlich vielen Versuche, um eine solche Struktur
zu realisieren; es genügen jeweils bereits einige wenige, um - durch
schrittweise Selektion "vorteilhafter" Konfigurationen - komplexere Strukturen
zu generieren.
(**)
SCHNEIDER hat in Simulationsversuchen genau das gezeigt: "Complex
specified information", die von Evolutionsgegnern wie beispielsweise
DEMBSKI für einen Beweis eines "intelligenten Designs" gehalten werden,
läßt sich in solchen zweistufigen Prozessen völlig planlos
generieren. Wie konnte er einen Zufallsgenerator dazu bringen, durch planlose
Aneinanderreihung von Buchstaben "complex specified information" zu
erzeugen? Die Antwort gibt SCHNEIDER:
"By mutation (non directed,
can't be intelligent) replication (non-directed, can't be
intelligent) and selection (ahh ha!) (...) So what's going
on? Living things themselves create "specified complexity" via environmental
selections and mutations. Living things and their environment are the
"intelligent designer"! So what was Dembski's mistake? It was that he proposed
that the design by necessity had to come from outside the living things,
whereas it comes from within them and between the organism and its
environment!"
(SCHNEIDER, 2002)
Last
update:
26.10.02
Verwandte Themen:
Kritische Besprechung
einer antievolutionistischen Replik
Zur
Homepage
© by Martin Neukamm, 30.04.02