Non. Je vais être honnête, je m'attendais à cette réponse de votre part. Vous avez montré à plusieurs reprises que vous aviez une conception curieuse de la cellule - vue comme une sorte de mécanisme d'horlogerie (on en revient toujours aux mêmes métaphores...) où le moindre gaspillage d'énergie doit être évité et où la moindre perturbation de n'importe lequel des rouages délicats de l'ensemble met en péril la survie de l'organisme.
Vous utilisez plusieurs acides aminés pour rien en produisant des copies d’une protéine déjà existante en quantité suffisante.
En effet, c'est inutile de produire en deux exemplaires une protéine qui l'est déjà en un. Mais passons à la suite.
De telles organismes sont, il me semble désavantagés.
C'est là que se trouve le noeud du problème. Vous partez de votre conception (erronée) de la cellule pour poser l'équation existant = utile = avantageux. De la part d'un artisan intelligent, il paraît absurde d'ajouter des particularités inutiles à son oeuvre : c'est pourquoi vous vous autorisez à renverser l'équation, et à poser inutile = désavantageux. Or, ce qui est vrai du point de vue de la conception intelligente ne l'est pas de celui de la sélection naturelle : du moment qu'une particularité d'un organisme ne gêne pas sa capacité à se reproduire, elle ne sera pas défavorisée par la sélection. Elle se répandra de manière aléatoire dans la population. En l'occurrence, je ne vois vraiment pas quel désavantage signaticatif pourrait résulter de la production en double exemplaire d'une protéine déjà présente au départ. Le dépense énergétique additionnelle occasionnée est ridicule par rapport à celle, globale, de la cellule ; l'effet d'une duplication de gène au niveau de l'organisme étant, par ailleurs, presque toujours nul, on doit conclure logiquement qu'un gène dupliqué n'est pas désavantageux.
Ensuite, les mutations **aléatoires** sur le gène dédoublé ont plus de chance (infiniment plus de chance) de produire une protéine néfaste pour l’organisme.
Je vous l'accorde. La probabilité souvent avancée est de 10 puissance -4 (1/10 000), ce qui est très faible. Simplement, dès qu'on introduit la sélection naturelle, cette donnée devient sans importance : toutes les mutations néfastes seront contre-sélectionnées. Qu'il y en ait 99, 9999 ou un million avant que n'apparaisse la première mutation positive est sans importance (sinon en terme de rapidité) au niveau de la sélection naturelle, puisque celle-ci accumulera patiemment les moindres variations positives et éliminera toutes les mutations négatives.
À chaque mutation sur le gène dédoublé, UNE FONCTION DOIT EN DÉCOULER.
Disons plutôt que "chaque mutation, pour être conservée, doit, d'une manière ou d'une autre, améliorer la capacité de survie de l'organisme mutant". Cela implique directement que son action soit différente de celle du gène, non-muté, dont elle est issue : qu'elle le soit suffisamment pour qu'un observateur humain juge pertinent de parler de "nouvelle fonction" ou qu'il préfère évoquer "la modification d'une fonction préexistante" (c'est une distinction qui est incontournable pour des raisons pratiques, mais triviale en théorie) n'est pas le problème central ici.
Or, il existe près de 10EXP600 possibilités (la sélection naturelle ne « dit pas » aux mutations laquelle « choisir », elle agit à posteriori) dont une infime, très, très, très infime partie des séquences pourraient « cadrer » compte tenu des fonctions déjà accomplies par l’organisme.
Oui, mais les mutations n'exploreront pas de façons aléatoires les 10 puissance 600 (je vous fais confiance pour le chiffre) possibilités : elles généreront des modifications infimes à partir de la séquence préexistante. Autant dire que le nombre de possibilités est dès le départ largement plus limité. De plus, la sélection naturelle éliminera dès le départ toute modification tendant à être désavantageuse pour l'organisme - et, en accumulant petite variation légèrement avantageuse après petite variation légèrement avantageuse, fabriquera de grandes modifications très avantageuses. La distinction peut sembler superficielle a priori, mais elle ne l'est pas : si on vous lâche sur un terrain de 3 km² en vous disant qu'il s'y trouve une fourmi et que vous devez la repérer, vous pouvez chercher longtemps en choisissant à chaque essai un centimètre carré au hasard pour voir si elle s'y trouve (ce qui reviendrait dans notre cas à essayer une des 10E600 combinaisons possibles) ; en revanche, vous irez bien plus vite si, à chaque pas que vous faites, quelqu'un vous dit "tu te réchauffes", "tu refroidis", etc. (c'est la manière dont fonctionne concrètement le mécanisme de la sélection naturelle). C'est un jeu que nous avons tous testés enfants, et je crois que n'importe qui sera d'accord pour dire qu'il fonctionne très bien.
Autrement dit, le gène doit muter de façon à coder pour un caractère complètement nouveau (disons l’appareil de Golgi apparaissant chez le procaryote). À chaque « essai » aléatoire de changement sur le gène, il faut exécuter une fonction pour être « retenu ».
Nous sommes d'accord.
Or, un changement radical DOIT se produire un jour ou l’autre.
Là, nous ne sommes plus d'accord : les mutations ne peuvent tout simplement pas produire de changement "radical" (au niveau moléculaire s'entend : je ne nie pas qu'un petit changement moléculaire puisse avoir occasionnellement des répercussions morphologiques importantes, ce qui est hors de notre propos). Par conséquent, l'évolution ne peut pas faire intervenir ce type de changement : le "gradualisme génétique" est un passage obligé.
C’est à ce point précis où tout ce joue de façon aléatoire. Tant que les mutations produisent des changements qui ne font que faire varier minimalement un caractère « utilisé », je suis bien d’accord avec votre approche (quoique théorique). Mais on doit arriver inévitablement à un point tournant où le caractère CHANGE de fonction et finit par coder pour, disons, un appareil de Golgi chez une espèce de bactérie. À ce point précis, les probabilités s’appliquent entièrement.
Pas du tout. La théorie de l'évolution ne nécessite pas de "point de bascule" où le gène passerait subitement de la fonction "synthèse de l'ATP" (au hasard) à la fonction "construction de l'appareil de Golgi" (par exemple). Il suffit qu'une petite modification dans la séquence du gène lui permette d'accomplir, même très légèrement, une nouvelle fonction - que son activité enzymatique provoque la formation d'une ébauche d'appareil de Golgi, par exemple (c'est très plausible et vérifié en pratique). Que celle-ci ne soit pas optimale est évident : mais à partir du moment où elle existe, elle sera automatiquement conduite à l'optimalité par la sélection naturelle (je rappelle que, le gène ayant été dupliqué, la perte de son ancienne fonction est sans importance). Par conséquent, les probabilités ne s'appliquent pas à ce niveau-là : il y a bel et bien un principe directeur, qui fait que le hasard en une seule étape, seul mécanisme que les probabilités sont habilitées à décrire, n'a rien à voir avec l'évolution.
En fait, vous n’avez que réduit le problème en omettant de considérer que des changements drastiques doivent se produirent pour qu’émerge des structures totalement nouvelles (cie « inconnues » à l’organisme)
Encore une fois, les structures nouvelles n'émergent pas "en une fois" mais par modification de structures préexistantes. Pourquoi insiste-t-on en permanence sur le fait que tout le vivant est formé exactement des mêmes molécules et macromolécules ? Tout simplement parce que c'est une confirmation éclatante de ce mécanisme.
Les exemples de résistances** ne sont pas approprié pour expliquer l’origine d’organites ou d’organes nouveaux. La raison est simple : la fonction d’une protéine inhibitrice de l’insecticide n’est pas reliée à d’autres mécanismes de l’organismes.
Nous sommes d'accord.
La simple présence de cette protéine ne change rien au fonctionnement normal de l’organisme.
Si - elle change l'aptitude de l'organisme en question à se reproduire. Il y a donc bien, dès ce niveau, interdépendance des fonctions - même à un niveau minime, je vous l'accorde.
Dernier point : comment le premier gène serait-il apparu dans votre scénario? Je crois que votre négation de mon calcul est en faute mais vous ne pourriez nier que le « premier gène » s’est formé complètement au hasard.
La théorie de l'évolution ne s'applique pas à l'apparition de la vie. Il faut que vous compreniez que vous pouvez faire la meilleure réfutation possible de l'abiogenèse, ça n'atteindra pas l'évolution : ce sont deux choses différentes. "Mon scénario" n'a donc rien à voir avec la formation du premier gène.
Ceci dit, même si c'est un sujet séparé, je ne pense pas que vos calculs soient pertinents pour le traiter. Tout simplement parce qu'en présupposant que le premier gène s'est formé "au hasard", ils font abstraction des lois de la physique. C'est une raison très simple, triviale même - mais elle n'est pas à négliger pour autant. On a montré que certaines surfaces minérales et certaines conditions chimiques (qui émergent couramment dans la nature) ont tendance à provoquer la formation spontanée de polymères organiques complexes.
Or, on sait (contrairement à ce que vous affirmez plus bas) qu'un être vivant formé d'un seul gène peut exister. En réalité, les recherches récentes en chimie prébiotique ont permis de démontrer qu'un être vivant formé d'une seule molécule était susceptible (1) d'apparaître spontanément, (2) de se répliquer et (3) d'évoluer (par le jeu des mutations/sélection naturelle). Vous le savez déjà, il s'agit de l'ARN. On a démontré expérimentalement qu'un seul "gène nu" peut parfaitement avoir été à l'origine de la vie. Par ailleurs, on a identifié, d'un côté d'autres auto-réplicateurs (mais ils n'ont pas de molécules en commun avec les êtres vivants modernes - c'est pourquoi il y a peu de chances qu'ils aient pu participer à leur origine) et d'autres molécules organiques complexes susceptibles d'émerger spontanément (mais elles ne sont pas à elles seules capables de se répliquer - c'est pourquoi elles ne peuvent pas être considérées comme des êtres vivants).
La science n’a pu observée à ce jour que des systèmes organisées à partir d’une intelligence pré-existante.
C'est faux (toutes les précisions ci-dessus sur la sélection naturelle et l'exemple, parmi beaucoup d'autres, de l'ARN le démontrent bien). En revanche, ce qui est vrai, c'est que la science n'a jamais observé l'émergence d'intelligence sans système organisé préexistant. Vous inversez la véritable causalité : l'intelligence ne peut, dans l'état de nos connaissances, exister sans le substrat d'un système complexe. En revanche, on sait que des systèmes complexes peuvent se former sans intervention intelligente.
Si vous voulez enlever le pré-requis « intelligence », vous sortez automatiquement du cadre scientifique.
Ouhlà... Depuis quand "l'intelligence est nécessairement la cause première de tout système complexe" est un principe scientifique de base (alors qu'on observe précisément tout le contraire) ? Et depuis quand "la préexistence d'un système complexe est la condition de base de l'existence d'une intelligence" n'est-il pas un principe, jusqu'à preuve du contraire, validé par l'observation ?
Autrement dit, nous nous retrouvons avec, d'un côté, une "théorie" qui ne satisfait pas aux principes scientifiques de base (réfutabilité, naturalisme) et qui nécessite, pour fonctionner, la suppression pure et simple de toutes les lois de la physique. De plus, cette théorie est assise sur un présupposé métaphysique (Dieu existe) alors que la science est nécessairement neutre par rapport à ces questions. De l'autre, nous avons un fait établi (l'évolution des espèces), qui a été à la fois validé par des raisonnements logiques, confirmé par des expériences et observé dans la nature comme en laboratoire, qui ne répond pas aux questions métaphysiques (comme toute bonne théorie scientifique, laissant à chacun la liberté de ses croyances) et qui ne nécessite pour fonctionner que des mécanismes observés et confirmés à plusieurs reprises. L'issue du débat me paraît claire.
|