Overblog
Suivre ce blog Administration + Créer mon blog
Le blog de cepheides

Le blog de cepheides

articles de vulgarisation en astronomie et sur la théorie de l'Évolution

Publié le par cepheides
Publié dans : #physique, #paléontologie

 

 

 

nuage protosolaire    système solaire
formation du système solaire

 

 

 

      Aujourd’hui, toute personne s’intéressant quelque peu à l’astronomie ou à la paléontologie sait que la Terre est âgée d’environ 4,5 milliards d’années et qu’elle est née approximativement en même temps que son étoile, le Soleil. Il n’en fut pas toujours ainsi : vers le milieu du XIXème siècle, deux écoles de pensée s’opposaient sur l’âge véritable de notre planète et les congrès scientifiques sur cette question donnaient alors lieu à des disputes parfois violentes, voire à quelques empoignades mémorables ; en effet, les physiciens avançaient l’âge maximal de 50 millions d’années tandis que les géologues parlaient plutôt en termes de centaines de millions d’années (ce qui était également l’opinion de Darwin qui pensait – à juste titre – qu’il fallait beaucoup de temps pour que les espèces évoluent et se transforment). Sans oublier tous ceux qui, appliquant à la lettre les enseignements des textes bibliques – et il y avait parmi eux quelque savants –, ne démordaient pas d’une création de la Terre remontant à environ six mille ans. Cette querelle – il s’agissait effectivement plus d’une polémique et même d’une dispute que d’une simple controverse – dura un demi-siècle ! Ce fut probablement le désaccord le plus long et un des plus virulents ayant jamais opposé des scientifiques de premier ordre et il ne me semble pas inintéressant de revenir sur les arguments des uns et des autres.

 

 

Le point de départ : Charles Lyell

 

     Né en 1797, Charles Lyell se destinait en fait à une carrière de droit mais il était passionné par la géologie qu’il avait toujours plus ou moinsCharlesLyell pratiquée. En 1828, Lyell voyage en Italie et dans le sud de la France : à cette occasion, il étudie diverses couches géologiques et leur trouve une unité en ce sens que ces différentes strates peuvent toutes être classées selon les fossiles d’animaux marins qu’elles renferment. Il en déduit une notion de continuité dans le temps, un temps qui ne peut être que nécessairement assez long. Deux ans plus tard, il commence à publier ses « principes de géologie », un véritable « pavé dans la mare » du catastrophisme qui prévalait à l’époque.

 

     En ce temps-là, en effet, à la suite de Cuvier (et d’autres grands noms), on pensait que la Terre s’était créée très rapidement (en quelques milliers d’années) à cause d’événements violents, catastrophiques (d’où le nom de la théorie) comme, par exemple, le Déluge. Cette approche avait par ailleurs le gros avantage de ne pas brusquer les esprits religieux de ceux qui accordaient à la Bible le statut de témoignage authentique du passé. Lyell comprend qu’il remet en question bien des idées reçues mais il a une certitude : pour obtenir les couches géologiques qu’il a étudiées, il faut du temps et non des événements brutaux. Il redonne alors toute leur place aux idées de James Hutton, un géologue qui, quelques années plus tôt, avait avancé que la Terre s’était formée graduellement et que les éléments qui avaient permis cette création étaient encore présents et actifs. Pour Hutton, la Terre était « infiniment » vieille et il avait appelé sa théorie « uniformitarisme » (ou actualisme), expliquant que les transformations observées des roches et des océans en un endroit précis s’étendaient forcément sur une le déluge par Géricaultdurée de temps obligatoirement fort longue (on ne connaissait pas encore la tectonique des plaques) mais, à l’époque, il ne fut guère écouté. Lyell défendit donc cette approche aux dépens du catastrophisme ambiant et cela devait avoir une grande importance dans la suite des événements.

 

     En effet, quelques années plus tard, Charles Darwin croit reconnaître dans diverses espèces vivantes (mais également disparues) des ressemblances qui ne peuvent s’expliquer que parce que ces espèces dérivent les unes des autres (voir le sujet : les mécanismes de l’évolution). Darwin avait lu avec attention les principes de géologie de Lyell et avait compris ce qu’ils impliquaient : la transformation – ou plutôt l’évolution – des espèces devenait crédible s’il lui était accordé un laps de temps suffisant ce que précisément le catastrophisme ne pouvait pas lui offrir. Après avoir longtemps hésité, Darwin publie « l’origine des espèces » en 1859, non sans insister sur tout ce qu’il doit à Lyell, et le livre entraînera les remous que l’on sait. Darwin, se basant sur une évaluation empirique de l’érosion de la croute terrestre, se risque à avancer pour l’âge de la Terre une date qui lui paraît compatible avec la théorie qu’il défend : 300 millions d’années. Mais devant la levée de boucliers des catastrophistes, dans la seconde édition de son livre, il renonce à donner un chiffre tout en continuant à proclamer que Lyell a forcément raison, ce dernier étant d’ailleurs en retour un des premiers scientifiques de renom à le soutenir.

 

 

La contestation : Lord Kelvin

 

     William Thomson – plus connu sous le nom de Lord Kelvin – était un très célèbre physicien puisqu’il avait – entre autres - donné son nom à une échelle de température absolue : le kelvin (la température de 0 K est égale à -273,15 °C et correspond au zéro absolu). Or, il était très dubitatif quant à la théorie de Darwin et, plus encore, sur les échelles de temps défendues par Lyell : il chercha donc à démontrer que tous ces gens-là se Lord-Kelvintrompaient… Il entreprit de s’appuyer sur les lois de la thermodynamique pour évaluer l’âge de la Terre et, d’emblée, une certitude s’imposa à lui : la Terre et le Soleil devaient être relativement jeunes sinon les deux astres ne seraient plus – et depuis longtemps- que des corps froids et inhabitables ; il était impossible, selon Kelvin, que les géologues aient raison car les chiffres qu’ils proposaient – des centaines de millions d’années – étaient bien trop élevés et, pour tout dire, fantaisistes.

 

     La réputation mondiale de Lord Kelvin était alors telle que les géologues ne purent que s’incliner. Quelques années plus tard, en 1862, Kelvin publia le résultat de ses travaux sur la diffusion de la chaleur dans l’espace qui concluaient à un âge maximal de la Terre ne pouvant en aucun cas dépasser 100 millions d’années. C’était bien peu pour les géologues qui se demandèrent alors s’ils n’avaient pas sous-estimé les caractéristiques physiques de l’érosion de la croûte terrestre et très dérangeant pour un homme comme Darwin qui trouvait que 100 millions d’années, c’était décidément très insuffisant pour expliquer le long cheminement de l’Evolution, mais bon… Seul, Thomas Huxley, ami proche du naturaliste et grand vulgarisateur de la théorie de l’Evolution, n’accepta jamais les conclusions du physicien, estimant que celui-ci devait forcément se tromper quelque part mais sans pouvoir dire où, ni de quelle manière… Il demeura toutefois bien seul sur sa position et les chiffres de Kelvin finirent par s’imposer au point que même Lyell retira ses propres estimations de la réédition de ses « principes de géologie ». Darwin quant à lui rectifia, certes à contrecœur, certains passages de ses livres afin de prendre en compte une vitesse d’évolution des espèces bien plus rapide qu’il ne l’avait primitivement estimée.

 

     En 1897, lord Kelvin publia de nouveaux travaux avec des calculs plus affinés qui concluaient à des chiffres encore plus petits : 20 à 40 millions d’années pour l’âge de la Terre ! C’était assurément un démenti définitif aux chiffres avancés par les tenants de l’authenticité biblique mais qui était loin de faire le bonheur des géologues et des Darwiniens. L’affaire en resta là jusqu’au début du siècle suivant et, la chose est assez rare pour être signalée, c’est à un physicien que l’on devra la levée de l’interdit jeté par un autre physicien…

 

 

La solution : Ernest Rutherford

 

     C’est en effet un physicien qui va apporter les éléments de résolution Rutherford_1908.jpgde cette querelle entre les géologues (et naturalistes) et les représentants de sa discipline… en donnant raison au camp opposé !  Cet homme providentiel est un Néo-zélandais travaillant en Angleterre et s’appelant Ernest Rutherford. Aujourd’hui, Rutherford est reconnu comme le père de la physique nucléaire mais à cette époque il n’en était encore qu’au commencement de sa prodigieuse carrière.

 

     Nous sommes au tout début du XXème siècle et le Français Pierre Curie travaille depuis quelque temps sur le radium ; il se rend compte que, compte tenu de la petite taille des échantillons observés, ce corps dégage une chaleur sans commune mesure avec ce à quoi on aurait pu s’attendre. Rutherford arrive à la même conclusion quelques mois plus tard. Or, on savait que la Terre était très riche en ce type d’éléments ; dès lors, une évidence s’impose : notre planète possède le moyen de conserver sa chaleur et, contrairement à ce que défend Lord Kelvin depuis des années, elle ne se refroidit pas ou, en tout cas, seulement extrêmement lentement. Rutherford est à présent convaincu que la Terre est capable de conserver sa chaleur durant des millions d’années grâce à la radioactivité naturelle et, bien sûr, cela change tout ! Cet extraordinaire dégagement de chaleur, explique Rutherford, a une explication parfaitement logique puisqu’elle est la conséquence de la désintégration naturelle de certains atomes comme le thorium sur lequel il a longtemps travaillé et, bien sûr, le radium. Au début, cette découverte choque chimistes et physiciens pour lesquels, jusqu’à ce jour, il ne pouvait être question de destruction de la matière mais les travaux de Rutherford sont sans appel et, bientôt, tous se rendent à l’évidence (Pierre Curie mettra deux ans). En 1903, âgé seulement de 32 ans, Rutherford entre dans le cercle fermé des découvreurs de génie et reçoit une prestigieuse récompense, la médaille Rumford, décernée par la Royal Society.

 

     C’est donc tout naturellement que, l’année suivante, il se rend à Londres terre-coupe 2pour participer à un congrès sur l’âge de la Terre… en présence de Lord Kelvin en personne. Il n’a aucun mal à expliquer pourquoi le vieux physicien s’est trompé : ce dernier a tablé sur une dissipation progressive de la chaleur originelle sans savoir qu’il en existait une importante source au centre de la Terre : les lois de la thermodynamique ne peuvent donc pas s’appliquer telles quelles. Les géologues (et les partisans de la théorie de l’Evolution) avaient donc eu raison sans le savoir !

 

     Lord Kelvin assista à la démonstration de Rutherford et aux débats qui s’ensuivirent mais jamais il n’accepta l’idée que la Terre pouvait être aussi âgée que le démontrait son jeune confrère car c’était admettre l’ouverture tant recherchée par les évolutionnistes, or, à cela, Lord Kelvin ne pouvait se résoudre tant il détestait l’idée même des travaux de Darwin. Quelques scientifiques continuèrent à soutenir sa position, plus par respect pour leur vieux maître que par conviction véritable, mais à sa mort, en 1907, on oublia définitivement ses calculs sur l’âge de la Terre. Les géologues avaient enfin trouvé l’explication de ces superpositions de strates qui les avaient tant intrigués et les Darwiniens le support scientifique nécessaire à la transformation des espèces dont ils avaient toujours été certains sans pouvoir le prouver.

 

 

L’âge de la Terre aujourd’hui

 

     Les recherches sur l’âge réel de la Terre se sont poursuivies au fil des années. En 2002, des études portant sur des corps radioactifs rares comme l’hafnium et le tungstène ont encore repoussé l’origine de notre globe de quelques dizaines de millions d’années : on pense à présent que la Terre (et d’autres planètes) s’est constituée plus tôt et plus rapidement qu’on le croyait, probablement dans les 30 à 40 millions d’années du début du système solaire ce qui la fait arriver à un âge total de 4,6 milliards d’années, Soleil et planètes s’étant formées au quasi même moment. L’explication la plus probable est celle de l’explosion à cette époque d’une supernova proche dont l’onde de choc serait en quelque sorte venue « fertiliser » le nuage de gaz qui se trouvait à l’emplacement de notre système solaire actuel pour donner naissance, par agrégation progressive, à notre étoile, une naine jaune à longue durée de vie, et à son cortège de planètes. C’était il y a 4,6 milliards d’années et, pourtant, notre planète est toujours chaude comme en témoignent notamment les volcans qui, de temps à autre, viennent réveiller les consciences humaines. C’était il y a suffisamment longtemps pour que la Vie ait pu apparaître sur Terre, se diversifier et donner naissance au monde que nous connaissons aujourd’hui.

 

 

 

 

Images

 

1. du nuage protosolaire  au système solaire (sources : lamaisondalzaz.com)

2. Charles Lyell (1797-1875) (sources : cosmology.tistory.com)

3. le Déluge, par Géricault (musée du Louvre) (sources : lettres.ac-rouen.fr)

4. Lord Kelvin (1824-1907) (sources :  www.universitystory.gla.ac.uk)

5. Ernest Rutherford (1871-1937) (sources :   commons.wikimedia.org/wiki)

6. coupe de la Terre (sources :  geothermie.tpe.free.fr)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : Charles Lyell - catastrophisme - Georges Cuvier - James Hutton - uniformitarisme - tectonique des plaques - Charles Darwin - Lord Kelvin (William Thomson) - lois de la thermodynamique - Thomas Huxley - Ernest Rutherford - désintégration atomique 

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

Articles connexes sur le blog

1. les mécanismes de l'évolution

2. distances et durées des âges géologiques

3. le rythme de l'évolution des espèces

4. la dérive des continents ou tectonique des plaques

5. origine du système solaire

 

 

 Dernier sommaire général du blog : cliquer ICI

 

l'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 3 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #biologie

 

         

  

 

     Dans les années 20, un cataclysme considérable bouleversa le petit monde jusque là protégé de la physique fondamentale : l’irruption de la mécanique quantique. De quoi s’agissait-il ? Tout simplement de la remise en cause du caractère déterministe des phénomènes physiques avec l’introduction dans le domaine subatomique du hasard pur et dur. En d’autres termes, alors que dans le monde physique du visible (le nôtre de tous les jours) chaque action est connue pour être produite et déterminée par une action préalable, on affirmait tout à coup que dans le domaine de l’infiniment petit (à l’échelle de l’atome), c’était le seul hasard qui régissait la succession des événements… Impossible à croire ? Pourtant,  les équations étaient formelles et jamais la mécanique quantique n’a depuis été prise en défaut ; plus encore, elle a contribué à la réalisation d’extraordinaires outils tout en décryptant certains phénomènes jusque là inexplicables…  (voir le sujet : mécanique quantique). Aujourd’hui, plus aucun scientifique ne remet en cause cette physique bien particulière et cela même si on a du mal à l’accorder avec la théorie de la relativité générale d’Einstein.

 

     Or, en ce début de siècle (ou de nouveau millénaire, c’est comme on voudra), voilà que la question semble à son tour se poser… pour la biologie. Quoi, la science du vivant serait, elle aussi, sous le joug – au moins partiellement – du pur hasard ? Faut-il voir dans cette affirmation une provocation de quelques scientifiques en mal de notoriété ou, au contraire, d’une piste sérieuse pour expliquer les mécanismes régissant la Vie ? Explication.

 

 

Retour (rapide) sur la physique fondamentale

 

     C’est en 1927 que Heisenberg avance son « principe d’incertitude » (ou principe d’indétermination), c'est-à-dire l’affirmation selon laquelle on ne peut pas connaître en même temps la vitesse et la position d’une particule : dans le monde subatomique, on ne peut parler qu’en termes de probabilité, les objets ayant des comportements aléatoires, théoriquement imprévisibles à l’échelle de l’unité. Il s’agit là d’une notion bien difficile à comprendre : comment un objet ne peut-il « qu’éventuellement » être là ? Schrödinger utilisa une métaphore demeurée célèbre pour tenter de « visualiser » le concept, celle de son chat : on en trouvera une description en fin de l’article sur la physique quantique. Quoi qu’il en soit, les équations sont sans équivoque : à ce niveau d’organisation, c’est le hasard qui détermine la présence (ou l’absence) à un endroit donné de l’objet subatomique. Mais alors, me direz-vous, si c’est vrai,  comment se fait-il que ma main ne traverse pas la table sur laquelle je m’appuie car plus rien n’est possible si les particules se trouvent n’importe où ? La réponse tient dans la quantité : s’il est impossible de savoir si une particule est là plutôt qu’ailleurs, ce n’est plus vrai si l’on considère un nombre suffisant d’entre elles : en grande quantité, et bien qu’ayant une conduite individuelle aléatoire, il est possible de décrire un comportement statistique probabiliste de l’ensemble des particules : on ne peut pas savoir où se trouve une particule donnée (le hasard) mais on peut parfaitement définir la position d’un grand nombre d’entre elles (probabilité). En somme, on obtient l’ordre (le comportement de l’ensemble) à partir du désordre (le comportement au hasard de chacune des molécules prises isolément). Bon, mais que vient faire la biologie dans tout ça ?

 

     Eh bien, certains scientifiques se demandèrent aussitôt s’il était possible d’appliquer cette notion de « comportement aléatoire » aux molécules du vivant, ou plutôt à leurs constituants. Puis, après avoir bien réfléchi, tous conclurent que cela n’était pas possible parce que la génétique nous apprend qu’il n’existe, par exemple chez l’Homme, que 46 chromosomes, un nombre bien trop petit pour que des comportements « aléatoires » deviennent par la suite probabilistes… Quelques années passèrent… jusqu’à ce qu’on reconsidère la génétique cellulaire.

 

 

La compréhension de la génétique cellulaire progresse

  

     On comprend de mieux en mieux ce qui se passe, par exemple, au cours de l’embryogénèse, c'est-à-dire lors de la formation du fœtus. Bien sûr, à première vue, tout semble relever du déterminisme, c’est-à dire d’un programme préétabli avec un ordre immuable : on sait à présent qu’il existe sur les chromosomes des gènes régulateurs dont la fonction est de coder des protéines elles-mêmes régulatrices qui vont agir sur les cellules embryonnaires afin de leur faire quitter leur état indifférencié et les spécialiser, ici en cellules d’os, là en cellules du sang, là encore en cellule de pancréas, etc. Le fonctionnement de ces gènes est le suivant : des protéines régulatrices spécifiques vont se fixer sur un gène précis d’un chromosome et induire la formation d’enzymes qui vont copier ce gène sous la forme d’un transporteur (ARN-messager et ARN de transfert). Cette copie sort du noyau cellulaire et toute la petite machinerie cytoplasmique de la cellule va construire la protéine spécialisée qui n’aura plus qu’à agir sur son organe-cible. Impossible, semble-t-il, de faire plus déterministe !

 

     A y bien réfléchir, toutefois, la description de ce type d’action cellulaire est forcément déduite d’un ensemble de cellules puisque les techniques ne sont pas assez précises (du moins jusqu’à peu) pour examiner ce qui se passe dans une seule. De ce fait, ce que l’on observe est considéré comme représentatif de chacune des cellules auxquelles on attribue donc un mode d’action forcément identique mais est-ce bien la réalité ? Car, lorsqu’on examine avec attention les protéines régulatrices que l’on vient d’évoquer, on se rend compte qu’elles ne se déplacent que par leur seule diffusion, de façon désordonnée et aléatoire, et que, de plus, elles sont plutôt en nombre restreint : comment peuvent-elles bien rencontrer à chaque fois la copie du gène présente dans la cellule ? La réponse est simple : la rencontre – quand elle a lieu – relève du hasard ! Et pour une cellule donnée, impossible de prévoir ce qui va se passer : action complète, partielle ou pas d’action du tout… Pourtant, on sait bien que les actions biologiques ont lieu, que l’embryogénèse, pour reprendre cet exemple, suit un ordre bien précis, alors ? Nous revenons à ce que nous a appris la physique fondamentale : les cellules agissent de façon aléatoire à leur échelle individuelle mais leur très grand nombre rend parfaitement plausible la probabilité de l’action considérée… Mais… n’a-t-on pas dit, avec les physiciens, en début de sujet, que 46 chromosomes (pour l’Homme), c’était insuffisant pour permettre notre calcul probabiliste ? Voyons cela de plus près.

 

 

Richesse des constituants biologiques

 

     Comme pour la physique subatomique qui concerne des particules aussi nombreuses que variées, on peut décrire à présent un « infiniment petit » biologique également fort riche en entités diverses. C’est vrai, la cellule humaine ne contient dans son noyau que 46 chromosomes constitués d’ADN enroulé en double hélice. Toutefois, cet ADN est lui-même composé de corps simples appelés bases (puriques ou pyrimidiques) au nombre de quatre : cytosine, guanine, thymine et adénosine. Leur agencement et leur répétition dans un ordre précis va composer une espèce de code (le code génétique) qui, lu par des organites spécialisés tels que les ARN, va induire la formation de telle ou telle protéine. Chaque fragment indépendant de code est un gène. Soit mais encore ? Chez l’Homme, il existe environ 25 000 à 30 000 gènes actifs ce qui représente une moyenne d’un peu moins de 1000 gènes par chromosome (inégalement répartis en quantité puisque certains chromosomes sont plus gros que d’autres). On estime que ces gènes dits codants (puisqu’ils peuvent être « lus » et donc entraîner une action) représentent à peu près 3 à 5 % de l’ADN humain ; disons-le autrement : 95 % des chromosomes de l’Homme sont constitués de « gènes illisibles », les bases se succédant dans un désordre qui ne veut rien dire, en tout cas pour les cellules humaines présentes. Nous avons donc dit environ 25 000 gènes actifs susceptibles d’être codés par un ARN. Or, cet ARN peut subir à son tour un épissage (des remaniements) aboutissant à la fabrication de plusieurs ARN différents donc de plusieurs protéines… On le voit, au niveau cellulaire, beaucoup d’intervenants et beaucoup de mécanismes différents… et on s’étonne presque, si l’on est un déterministe farouche, qu’il n’y ait pas plus d’erreurs dans ces milliards de cellules qui vivent en symbiose.

 

 

Hasard et sélection naturelle

 

     C’est vrai : il est très difficile de s’imaginer que les mécanismes ultra précis et si élaborés de la vie cellulaire puissent relever du seul hasard… Et pourtant ! De plus en plus de scientifiques ont la certitude que c’est bien lui qui ordonne le domaine biologique de base. Comme pour les protéines inductrices déjà citées, l’essentiel des opérations biologiques se déroule au hasard, un hasard qui est partout présent au niveau moléculaire. Pourquoi ? Parce que les actions moléculaires dépendent de facteurs changeants et imprévisibles comme le cheminement des molécules au sein d’un milieu variable et dans des endroits divers, la modification des facteurs environnementaux, l’état général de l’organisme dans son ensemble, etc. Et, pensent certains, c’est la sélection naturelle qui va écarter ou retenir telle ou telle molécule en fonction du lieu, de son action favorable ou non, de la période de temps considérée, etc.

 

     Le hasard, donc, est ici omniprésent mais un hasard plus ou moins organisé selon le niveau où on l’observe : total pour la molécule individuelle… mais prédictible à l’échelon cellulaire. Et on pense réellement que c’est vraiment possible, ça ? Sans aucun doute. Je repense au célèbre exemple de la pièce de monnaie ; on la lance une fois en l’air et il est impossible de savoir avec certitude de quel côté elle tombera : vous aviez parié sur pile ? Eh bien, vous avez une chance sur deux de gagner… ou de vous tromper. A présent, lançons la pièce plusieurs centaines de fois et c’est tout l’inverse : on s’aperçoit qu’elle tombe à peu près 50% des fois sur pile et 50% des fois sur face, un phénomène parfaitement prévisible. Transposons-le, ce phénomène, en biologie : une molécule seule ne permet pas de savoir ce qui va se passer mais s’il existe beaucoup de molécules – comme dans une cellule – eh bien on peut deviner à quoi on peut s’attendre ! Fort bien mais a-t-on des preuves de tout ça ?

 

 

Que disent les observations récentes ?

 

     Depuis une vingtaine d’années, on commence à comprendre que le hasard intervient dans le fonctionnement cellulaire et de nombreux articles scientifiques s’en font l’écho. Par ailleurs, les observations de l’activité individuelle des cellules se multiplient parce que, à présent, nous possédons la technique qui les autorise. Or, les résultats sont formels : pour l’expression d’un gène donné, certaines cellules vont le synthétiser parfaitement, d’autres pas du tout et d’autres partiellement : en réalité, tous les intermédiaires existent… Le gène sera finalement actif si, à l’échelle de la population des cellules, l’action conjuguée de beaucoup d’entre elles atteint un certain seuil, le seuil de déclenchement.

 

 

Qu’en conclut la communauté scientifique ?

 

     Comme toujours – et j’oserai dire que c’est tant mieux – les scientifiques sont divisés : au fond, il n’y a finalement rien de pire qu’un avis unanimement partagé et que nul ne peut remettre en cause. Pour une majorité de biologistes, s’il est incontestable que le hasard intervient dans la grande machinerie du vivant, celui-ci reste pour eux finalement marginal. Il est vrai qu’il semble a priori difficile de remettre en cause le caractère déterministe des phénomènes biologiques. Pour d’autres, encore minoritaires, le hasard a une place

déterminisme = probabilisme lorsque probabilité de survenue = 1

bien plus importante qu’on veut bien le reconnaître et, pour eux, nombre de phénomènes en apparence parfaitement organisés sont plus le résultat d’actions probabilistes, la conséquence d’une sorte de hasard organisé.  Cette situation, en apparence contradictoire, n’est pas sans rappeler les années 1920 lorsque, comme je l’ai déjà mentionné, la mécanique quantique envahissait une partie de la physique fondamentale jusqu’alors terriblement déterministe… En réalité, les scientifiques ne sont peut-être pas si éloignés qu’ils le croient les uns des autres car si l’on y réfléchit vraiment, le fait qu’un événement se produise avec certitude (déterminisme) peut être également décrit comme une chance de probabilité toute proche de 1 : en pareil cas, le déterminisme ne serait qu’un cas particulier du probabilisme…

 

 

 

Images

 

1. table de roulette (sources :  www.animationcasino.com/)

2. le chat de Schrödinger (sources : www.astrosurf.com/)

3. duplication de l'ARN - image Wikipedia (sources :  www.colvir.net/)

4. cellule embryonnaire humaine se développant sur une couche de fibroblastes (sources :  www.maxisciences.com/)

5. calculer une probabilité : la machine de Babbage au XIXème siècle, ancêtre de l'ordinateur (sourvces :  impromptu.artblog.fr/)

6. le hasard... mais organisé ! (sources : sleemane-plat-tunisien.blogspot.com/)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Sources et documents

 

* Wikipedia France (http://www.wikipedia.fr/index.php)

* La Recherche (http://www.larecherche.fr/)

* Science & Vie (http://www.science-et-vie.com/)

* CNRS (http://www.cnrs.fr/)

* INSERM (www.inserm.fr/ )

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

Mots-clés : hasard - déterminisme - mécanique quantique - relativité générale - principe d'incertitude de Heisenberg - Erwin Schrödinger - ARN messager - cellule - bases puriques et pyrimidiques - gène codant - épissage - sélection naturelle - probabilisme scientifique

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

 Sujets apparentés sur le blog :

 

1. mécanique quantique

2. pour une définition de la Vie

3. les mécanismes du cancer

4. la mort est-elle indispensable ?

 

 

 

 Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 4 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

 

                                                  taches solaires en 2001

                                               (sources :  www.journaldunet.com/)

 

 

     Chaque jour et depuis à présent de nombreuses années, des astronomes professionnels mais aussi des amateurs éclairés, répartis sur les cinq continents, évaluent le nombre et l’étendue des taches solaires. Ils déterminent ainsi l’indice RI ou « nombre relatif international de Wolf » qui, corrélé à d’autres mesures (photographiques, électriques, etc.) permet en fait de quantifier l’activité solaire. Toutefois, depuis quelques mois, les observateurs se heurtent à un problème de taille : les taches solaires ont disparu ! Phénomène plutôt inhabituel puisqu’il faut remonter à un peu avant la guerre de 14-18, voire au XVIIe siècle, pour retrouver un tel événement : des mois entiers durant lesquels aucune tache n’est visible… On peut donc se poser une double question des plus légitimes : pourquoi une telle anomalie et, d’abord, ces fameuses taches, c’est quoi au juste ?

 

 

 

Origine des taches solaires

 

Le Soleil, nous avons déjà eu l’occasion de le dire dans des sujets précédents,  est de type spectral G2–V. Quand on le regarde, on lui reconnaît une couleur jaune tirant sur le blanc : il est en réalité plus chaud que la moyenne des étoiles de sa taille puisqu’il accuse environ 5800 kelvins à sa surface, soit 5527 °C (rappelons que la température de son centre, siège des réactions nucléaires, est de l’ordre bien plus élevé de 15 600 000 kelvins). C’est pour cette raison qu’il est classé G2 tandis que la lettre V signifie simplement qu’il est toujours (et pour longtemps) situé sur la séquence principale du diagramme de Hertzsprung-Russell des étoiles (voir le sujet : mort d’une étoile). La majeure partie des étoiles de notre galaxie, la Voie lactée (et probablement de toutes les autres galaxies), sont des naines rouges, donc moins chaudes que le Soleil (classé comme une naine jaune) mais, au total, il existe des millions d’étoiles semblables à lui ce qui en fait un astre parfaitement banal. Mais ces taches (que l’on peut voir sur l’image d’introduction) me direz-vous ?

 

Sur un corps incandescent, une tache signifie simplement que l’endroit est (relativement) plus froid que le reste du corps : on peut le voir par exemple dans une fonderie où les barres d’acier possèdent pour certaines d’entre elles et à certains moments des taches sombres qui tranchent sur le jaune rougeoyant du reste. Pour le Soleil, c’est pareil : les taches sont donc des zones (légèrement) moins chaudes mais pourquoi ?

 

Il y a quelques années (en 2001), le satellite d’observation SOHO est venu confirmer ce que l’on soupçonnait : une tache solaire

est une espèce d’immense tourbillon (certaines

champ magnétique terrestre

taches sont grandes comme des dizaines de Terre) où le gaz situé à la surface du Soleil plonge vers l’intérieur à des vitesses de plusieurs milliers de km à l’heure. On sait depuis longtemps que le Soleil est le lieu de gigantesques champs magnétiques et ce sont eux qui enserrent les flux de gaz venant de son cœur et y retournant d’où l’apparition de zones moins chaudes, les taches. Ces taches sont donc variables en tailles et en durées, ces dernières pouvant s’étendre sur plusieurs jours ou semaines. Il existe comme on va le voir des cycles d’activité solaire qui rythment l’aspect de ces taches mais une chose est certaine : leur disparition totale durant des mois entiers est très inhabituelle.

 

 

 

 Cycles solaires

 

Depuis bien longtemps, les astronomes ont voulu caractériser l’activité solaire, notamment en cherchant à savoir si celle-ci se répétait à termes réguliers, un peu comme il existe un faux « cycle solaire » chaque année (les saisons) dû en fait à la révolution terrestre. Il faudra attendre l’astronome suisse Johann Wolf (1816-1893) – celui du nombre relatif international déjà cité – pour en avoir la certitude : c’est le premier à avoir réussi à quantifier cette activité en comptant les fameuses taches. Précisons toutefois que ces dernières étaient connues depuis fort longtemps : les astronomes chinois et grecs de l’antiquité en parlent dans leurs différents ouvrages mais c’est Galilée qui, grâce à sa lunette astronomique, les observera de façon plus complète.

 

Ces taches sont, on l’a dit, le lieu d’une intense activité magnétique et un endroit rendu moins chaud que le reste de la surface solaire. Elles évoluent en groupes plus ou moins importants qui, peu à peu, se rapprochent de l’équateur solaire jusqu’à changer de polarité et inaugurer ainsi le cycle suivant. Chacun de ces cycles dure approximativement 11 ans (en fait entre 8 et 15 ans) mais puisque les polarités – on vient de le dire – s’inversent à chaque fois, on peut parler de cycle complet tous les 22 ans. Bien, voilà pour la description mais que peut-on en conclure sur l’activité de notre étoile, activité dont on sait l’importance à notre échelle et à celle de notre planète ?

 

Contrairement aux idées reçues sur son caractère immuable, le Soleil passe donc par différentes périodes de plus ou moins grande vigueur : on sait que son maximum d’activité correspond à la partie du cycle solaire où existe un maximum de taches ; c’est à ce moment là que les éruptions solaires sont les plus fréquentes et que ses protubérances (les projections de matière depuis sa surface) sont les plus intenses. De nombreuses émissions de rayons (ultraviolets, ondes radio, rayons X) sont contemporaines de ces épisodes d’hyperactivité et cela peut avoir des conséquences importantes pour la Terre avec notamment des perturbations dans les communications (le cauchemar des gestionnaires de satellites), voire même dans les transports aériens. Mais au-delà ? Sur le climat, par exemple ? La question est difficile et pas encore tranchée. Voyons déjà si le passé nous apprend quelque chose.

 

 

 

 Irrégularités du passé

 

Lorsque l’on se penche sur les chroniques météorologiques (ou sur ce qui en faisait office) dans le passé, on s’aperçoit qu’un important changement climatique a été décrit entre le XVIème et XIX siècle sous le nom de petit âge glaciaire.

 

·              Le petit âge glaciaire : il s’est étendu approximativement des années 1550-1580 aux années 1850-1860. Il s’agit d’une période de climat froid, notamment décrit en Europe et en Amérique du nord (ce n’est pas une surprise) mais qui a touché le globe dans son entier. En réalité, il semble que cette période ait même commencé plus tôt, les hivers ayant été particulièrement rigoureux, dit la chronique, depuis le XIIIème siècle. On assiste alors à une considérable avancée des glaces et à des phénomènes spectaculaires : on marche à pied sur la Tamise gelée en 1607 et sur la Seine durant 35 jours de suite en 1777 (cette dernière gèlera 24 fois entre 1740 et 1859 mais plus aucune fois - sauf erreur - depuis 1891). En 1709, la méditerranée est gelée à Marseille et à Gènes. Le 21 janvier 1795, au Helder, la cavalerie française de Pichegru s’empare de la flotte hollandaise bloquée par les glaces et durant l’hiver de 1780, à New York, on allait à pied sec (ou plutôt à pied gelé) de Manhattan à Staten Island ce qui, pour ceux qui connaissent, est plutôt difficile à faire aujourd’hui. Autant de signes montrant que, durant ces quelques siècles, il a fait froid, très froid… Bon, mais quel rapport avec les taches solaires ?

 

 

·                Les minimums solaires : plusieurs minimums d’activité solaire ont été décrits durant les phases les plus extrêmes du petit âge glaciaire que je viens de mentionner. Il en existe trois : le minimum de Spörer (1420-1570), celui de Maunder (1645-1715) et celui de Dalton (1790-1830). Durant le minimum de Maunder, l’activité magnétique du Soleil a pratiquement disparu durant près de 70 ans sans qu’on ait la moindre idée de la cause. C’est durant ces périodes de moindre activité solaire que des phénomènes bien particuliers ont été décrits : par exemple, durant le minimum de Dalton (30 ans de moindre activité solaire), la station allemande d’Oberlach qui suivait les phénomènes climatiques a décrit une baisse moyenne des températures de 2° sur une durée de plus de 20 ans… 

 

 

Quelles conclusions peut-on tirer de ces rapprochements entre le refroidissement du climat et les minimums d’activité solaire ? Précisément que, par un mécanisme encore mal connu, le Soleil a une influence probablement importante sur le climat terrestre même s’il n’est pas seul : des éruptions volcaniques ou des diminutions de courants océaniques sont également évoqués. On ne peut toutefois pas s’empêcher d’avancer deux hypothèses d’origine solaire : une variation du rayonnement et la modulation par le vent solaire des rayons cosmiques. Quelles proportions pour les uns et les autres ? On ne sait pas vraiment.

 

 

 La situation actuelle

 

Depuis 1761 on suit et on compte les cycles solaires. En 2008 s’achevait avec son minimum le cycle 23 ; dès lors devait commencer le cycle 24 avec la montée en puissance progressive de l’activité solaire qui culminerait avec son cortège de protubérances, de maxima magnétiques, de taches, etc. sauf que… il ne s’est rien passé ; on a eu beau scruter, rien à se mettre sous la dent : pas de tache, pas de début de reprise de cycle. Bon, se sont dit les astronomes, tout cela n’est pas bien grave et le Soleil n’est pas un ordinateur, il a quelques irrégularités : tout repartira en 2009 ! Mais au début d’octobre 2009,  le soleil totalisait déjà 8 mois sans la moindre tache… Pourtant, les spécialistes expliquent que le cycle 24 a bien débuté puisque, dans les très rares régions actives pouvant être surveillées, l’inversion des champs magnétiques a bien eu lieu en janvier 2008…

 

Le cycle en cours semble donc différent des précédents et on ne sait pas quand redémarrera pleinement l’activité magnétique solaire. A en croire la presse spécialisée, il y a même des astronomes qui prédisent la disparition programmée des taches solaires vers 2015 car leurs températures, par insuffisance de champ magnétique, augmentent peu à peu jusqu’à les faire se confondre avec le reste de la surface. Alors, disparition des taches solaires pour longtemps ? Mais, au fait, cela s’est déjà produit… durant les minimums de Maunder et de Dalton notamment… avec les conséquences sur le climat que l’on a décrites : le refroidissement général.

 

 

Nous ne savons pas si les taches solaires vont disparaître durablement et, avec elles, survenir une moindre activité de notre étoile. Seul l’avenir (assez proche) pourra nous renseigner mais une chose est sûre : si c’est le cas, si nous approchons d’un nouveau minimum, ce ne sera pas forcément mauvais pour notre planète en ces temps de réchauffement climatique !

 

 

 

Complément : le retour des taches solaires (février 2010)

 

      En ce mois de février 2010, depuis plusieurs jours, on peut à nouveau observer quelques taches solaires, signe d'une reprise normale du cycle solaire. Aucun scientifique ne semble en mesure d'expliquer les raisons de ce retard de près de trois ans, ni si cette reprise sera véritablement durable. En tout état de cause, on peut penser que le maximum d'activité prévu pour 2012 ne sera probablement pas à la hauteur de celui de 2001 (en raison, précisément, de ce retard) : nous le verrons bien en temps et en heure, de la même façon que nous saurons rapidement si la reprise d'activité actuelle est durable ou un simple épiphénomène. Patience, patience... comme toujours !

 

 

... et le nouveau cycle solaire (mai 2013)

 

 

     Par comparaison avec les cycles solaires antérieurs rapportés par les chroniques des sociétés savantes, il est tout à fait possible d'estimer l'activité solaire à venir. Le spécialiste des taches solaires David Hattaway (de la NASA) pense que le cycle actuel, le numéro 24, sera probablement centré sur mai 2013 et, du coup, que la période de ce cycle sera de 13 ans (donc 26 ans au total). On peut dès lors faire une estimation du cycle 25 qui suivra et qui devrait être de 19 ans avec un maximum en 2032. En replongeant dans les tables, on s'aperçoit que le cycle 24 actuel est très semblable à celui des années 1799 à 1810 (cycle 5), en intensité et en période. Le cycle suivant devrait donc être le plus faible depuis 200 ans et, toujours selon Hattaway, nous nous dirigerions alors vers un minimum de Dalton (voir plus haut, dans l'article)...

 

 

 

 

Images

  

1. taches solaires en 2001 (sources : www.journaldunet.com/)

2. planète tournant autour d'une naine rouge : il s'agit bien sûr d'une vue d'artiste...  (sources : lecosmographe.com)

3. champ magnétique solaire (sources : irfu.cea.fr)

4. protubérance solaire (sources :  www.cea.fr/)

5. la Seine gelée en 1891 (sources : www.meteopassion.com)

6. un soleil... sans taches (sources :  blog.syti.net)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

  Mots-clés :  indice de Wolf - type spectral stellaire GV-2diagramme de Hertzsprung-Russell - naine rouge - naine jaune - satellite SOHO - champ magnétique solaire - cycles solaires - petit âge glaciaire - minimums de Spörer, Maunder, Dalton 

(les mots en gris renvoient à des sites d'informations complémentaires)

 

  

 Sujets apparentés sur le blog :

 

1. mort d'une étoile

 2. origine du système solaire

 3. la couleur des étoiles

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 4 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #Évolution, #paléontologie

 

  

        

 

 

 

          Dans son livre princeps « L'origine des espèces »,  Charles Darwin évoque le rythme de l’évolution, c’est-à dire la transformation graduelle des espèces au fil du temps. Pour lui, le rythme de cette transformation ne peut être que lent, certainement progressif mais de façon presque imperceptible et surtout constant sur des centaines de siècles. Un problème, néanmoins, le préoccupe : lorsqu’on fouille le sol à la recherche des fossiles correspondants, on trouve toujours des spécimens en apparence fixés, bien différents les uns des autres (et ce même pour des lignées qui sont manifestement issues d’une même origine), sans ces formes qui témoigneraient des subtiles et minuscules transformations prédites par la théorie : en réalité, tout se passe comme si l’évolution procédait de façon suffisamment rapide pour ne pas laisser de traces intermédiaires fossiles. Quand on l’interroge sur cette apparente contradiction, Darwin répond toujours de la même façon : « les chaînons manquants n’ont tout simplement pas encore été découverts… ». En 2009, pourtant, nous en sommes pratiquement toujours au même point et si quelques unes de ces formes dites intermédiaires ont été mises en évidence pour certaines espèces bien précises, cela ne représente qu’une infime partie de ce à quoi nous aurions dû nous attendre. Où sont donc ces fossiles censés démontrer les transformations progressives des espèces ? Le naturaliste anglais se serait-il trompé ? Comment explique-t-on l’évolution aujourd’hui ?

 

 

 

Pour expliquer l’évolution trois théories se différencient… et se complètent

 

 

* Le gradualisme, tout d’abord, est la théorie explicative issue de ce que l’on appelle le néodarwinisme ou théorie synthétique de l’évolution, c'est-à-dire l’adaptation au Darwinisme de la redécouverte de la génétique (voir le sujet les mécanismes de l’évolution). Suivant en cela Darwin lui-même, de nombreux auteurs s’en réclament, expliquant donc que l’évolution des espèces ne peut être que lentement progressive, la Nature – par l’intermédiaire de la sélection naturelle – ne modifiant les êtres vivants que par petites touches. Et ce n’est qu’après des centaines de siècles qu’on peut s’apercevoir de l’apparition de différences profondes entre les parents ancestraux et leurs lointains descendants.

 

Cette approche conceptuelle s’oppose au « catastrophisme » qui prévalait jusqu'à la révolution darwinienne, une théorie qui soutenait, à la suite notamment des textes religieux, que les espèces avaient été créées en une seule fois (sous-entendu par Dieu) et détruites, au moins pour certaines d’entre elles, de la même manière (par exemple à l’occasion d’un déluge, d’un formidable tremblement de terre ou d’une apocalypse). Précisons que le catastrophisme est le témoin d’une époque où l’on n’avait aucune notion des temps géologiques : on pensait alors que la Vie avait été créée en sept jours et, selon l’étude des textes sacrés, que la Terre n’avait pas 4,5 milliards d’années comme on le sait aujourd’hui mais seulement… 4004 ans.

 

De fait, prenant en compte l’immensité des âges géologiques (que représente pour l’esprit humain une durée de plusieurs milliards d’années alors qu’il a déjà tant de mal à intégrer ce que signifie deux ou trois milliers d’années ? A ce sujet, on trouvera quelques réflexions s’y rapportant dans l’article : distances et durées des âges géologiques), le gradualisme explique de façon convaincante que des fossiles datés de millions d’années peuvent être les ancêtres de formes actuelles d’êtres vivants. Reste néanmoins le problème déjà évoqué : pourquoi ne trouve-t-on presque exclusivement que des spécimens, certes apparentés, mais ayant les uns par rapport aux autres des différences morphologiques et adaptatives le plus souvent très marquées ? Pourquoi n’existe-t-il pas, si l’évolution est si progressive,  de fossiles seulement séparés par des différences mineures? 

 

 

* Les équilibres ponctués : en 1972, Stephen J. Gould et Nils Eldredge prennent à contre-pied la position officielle en remettant en cause le gradualisme ; pour ces deux auteurs, jugés immédiatement iconoclastes, si on ne trouve pas les chaînons manquants tellement recherchés, c’est tout bêtement parce qu’ils n’existent pas ! S’appuyant sur la faune de Burgess dont on a déjà parlé (voir le sujet le schiste de Burgess), Gould explique qu’il existe des espèces qui disparaissent par hasard, sans raison apparente, alors qu’elles sont aussi bien armées pour survivre que les autres : elles sont alors probablement victimes de mauvais concours de circonstances (géographiques ou événementiels par exemple) qu’il est bien difficile de reconstituer par la suite. Il s’agit là d’une sorte de « catastrophisme biologique ».

 

 De la même façon, si toutes les espèces évoluent, selon Gould, cette évolution ne serait pas progressive mais par à-coups : il existerait de longues phases dites de stagnation durant lesquelles rien ne se passerait puis, soudainement, l’apparition d’une période de transformation très rapide (moins de 100 000 ans à comparer aux millions d’années sans réels changements). L’évolution, en somme, procéderait de façon saccadée, intermittente, et conduirait en peu de temps à ce que l’on appelle des spéciations, c’est-à dire des transformations intraspécifiques si importantes que les animaux en résultant ne pourraient plus s’apparier avec leurs ancêtres immédiats d’où l’apparition de nouvelles espèces.

 

 

* Cas particulier du saltationnisme : il s’agit en fait d’une théorie encore plus radicale que celles des équilibres ponctués que l’on vient d’évoquer et avec laquelle on la confond volontiers. Pour son créateur (un généticien
spéciation allopatrique
autrichien des années 40), l’acquisition d’un caractère nouveau peut se produire sur quelques dizaines d’années, en l’espace de quelques générations tout au plus. Comment cela serait-il donc possible ? Par l’apparition de mutations soudaines et imprévisibles… Bien des scientifiques pensent que des mutations surviennent assez fréquemment chez les êtres vivants mais que, pour l’immense majorité d’entre elles, elles n’entraînent aucune conséquence (on dit alors qu’elles sont neutres) tandis que d’autres – très désavantageuses pour le sujet – sont dites délétères en ce sens que l’individu qui en est porteur n’est pas viable. Restent quelques mutations favorables… et transmissibles susceptibles d’engendrer une nouvelle lignée, différente de celle du départ : une nouvelle espèce est alors apparue.

 

Inutile de préciser que, lorsqu’ils entendirent pour la première fois évoquer cette théorie, les gradualistes sourirent (pour ne pas dire qu’ils se moquèrent férocement, ce qu’ils firent aussi avec le ponctualisme de Gould). Depuis, de l’eau a coulé sous les ponts… et des découvertes biologiques majeures sont venues à la rescousse du saltationnisme.

 

En effet, pour qu’une mutation brutale soit suffisamment importante, il faut qu’elle porte sur un élément de base de l’individu : justement, on a depuis quelques années mis en évidence des gènes du développement (comme les gènes homéotiques ou gènes hox qui sont responsables de la mise en place des organes mais il y en d’autres) qui interviennent dans  l’organisation de tout un segment du futur individu ; se pourrait-il alors qu’une mutation portant sur ce type de gène organisateur fondamental puisse entraîner l’apparition soudaine d’individus complètement différents ?

 

Il est en fait probable que tout le monde a tort et a raison en même temps : on pense aujourd’hui qu’une grande partie de l’évolution des espèces se fait de façon progressive au long des millénaires par de petites touches successives,  un peu à la manière d’un peintre pointilliste à son chevalet. Mais il a bien fallu – pour reprendre cette comparaison – que l’artiste jette à un moment ou à un autre les grandes lignes de ce qu’il peint : c’est ici qu’intervient la théorie des équilibres ponctués, et peut-être aussi le saltationnisme et, au fond, pourquoi pas ? 

 

 

 

Un rythme évolutif variable selon les espèces

 

Cette transformation des espèces au fil du temps est différente selon celles que l’on étudie ; pour le comprendre, prenons deux exemples extrêmes :

 

* le cœlacanthe : il s’agit d’un poisson très « archaïque », dernier représentant des crossoptérygiens, au point qu’il fut lors de sa découverte baptisé « véritable fossile vivant ». Étant apparu au dévonien, période du milieu de l’ère primaire (ou paléozoïque), tous les scientifiques pensaient qu’il avait disparu avec les dinosaures, au crétacé, à la fin de l’ère secondaire (ou mésozoïque). Imaginez la surprise de la scientifique qui en trouva un exemplaire vivant (enfin, mort depuis peu) en 1938 ! On en trouva un autre en 1955, puis plus récemment une colonie entière en 1998, du côté des Comores… Par comparaison avec les nombreux fossiles de cœlacanthes que l’on possède, on a pu se rendre compte que les différences entre ceux-ci et les exemplaires actuels étaient somme toute minimes : cet extraordinaire poisson que l’on croyait disparu depuis 65 millions d’années avait très peu évolué et si différences il y a, elles restent faibles. Un parfait représentant pour les gradualistes ;

 

* le VIH (virus du SIDA) : bien que certains scientifiques se demandent si les virus sont bien des êtres vivants, on peut leur accorder, me semble-t-il, ce statut puisque qu’ils se reproduisent avec un matériel génétique qui est bien le leur même s’ils ont besoin d’une cellule-hôte pour se répliquer. Or les virus mutent rapidement : on sait, par exemple, que le virus de la grippe n’est pas tout à fait le même d’une année sur l’autre au point qu’il faut chaque fois recommencer une vaccination préventive… Le virus du SIDA est, de ce point de vue, une sorte de champion toutes catégories puisqu’il mute sans cesse, parfois au sein d’un même malade. C’est tellement vrai qu’encore aujourd’hui on est bien incapable de réaliser un vaccin susceptible d’empêcher sa prolifération. Alors, des mutations si rapides ne rappellent-elles pas le saltationnisme mentionné plus haut ?

 

D’une espèce  à l’autre, comme on vient de le voir avec ces deux exemples, le rythme de l’évolution est variable. Pour l’Homme, il est clair qu’il se situe loin de ces deux extrêmes. S’il est certain qu’il n’existe aucune différence (sauf d’ordre culturel évidemment) entre un homme du 21ème siècle et un Romain du règne d’Auguste, d’éventuelles différences sont probablement moins importantes qu’on ne le croit avec des ancêtres plus lointains comme ceux qui vivaient à l’aurignacien, une époque préhistorique d’il y a environ 35 000 ans. Il faut remonter à des centaines de milliers d’années pour voir des différences significatives entre les hominidés de cette époque et les hommes d’aujourd’hui.

 

 

 

Facteurs intervenant dans le rythme de l’évolution

 

Ils sont vraisemblablement nombreux et la plupart d’entre eux restent mal cernés. Ce que l’on peut dire est que la Vie, quelle qu’elle soit, est une constante adaptation à un environnement forcément changeant. D’ailleurs, certains auteurs ont expliqué qu’une trop grande stabilité conduisait inexorablement à la régression et à la mort. C’est sans doute vrai mais une trop grande fluctuation des éléments environnementaux conduit aussi à un résultat identique et, aujourd’hui même, il est difficile d’apprécier les conséquences sur la faune et la flore terrestres d’un éventuel (et rapide) réchauffement climatique : de nombreuses espèces, stables depuis des centaines de milliers d’années, n’y survivraient probablement pas ! On pourrait donc résumer cela de la manière suivante : de la stabilité, certes, mais pas trop…

 

Quels sont donc ces facteurs qui influent sur le rythme de l’évolution ? Très certainement tous les événements « imprévisibles » et rapides : les modifications de l’environnement, que ce soit un

Chixculub
l'impact de la météorite détruisit les grands sauriens

réchauffement climatique et ses conséquences physiques (montée des océans, déplacement des zones désertiques, des forêts, etc.) ou une glaciation qui entraîne des effets inverses. Ailleurs, ce sera une catastrophe naturelle comme les grandes éruptions volcaniques du passé ou bien la météorite qui, il y 65 millions d’années, provoqua la disparition des grands sauriens en percutant la péninsule du Yucatan. A chaque fois que se produit ainsi une aggravation du stress environnemental et que les conditions changent notablement, cela entraîne inévitablement une augmentation de la pression de sélection et des espèces entières sont menacées ou détruites… tandis que d’autres, jusque là presque invisibles, profitent de la niche écologique qui se libère pour se développer à leur tour. Il a existé ainsi par le passé de grandes extinctions d’espèces, dites « de masse » (voir le sujet les extinctions de masse) et, chaque fois, celles-ci ont été suivies par une explosion de nouvelles espèces ou la transformation rapide d’espèces existantes ce qui, on l’a dit, est la même chose. Voilà qui va dans les sens des théories évolutives comme les équilibres ponctués chers à Gould.

 

Mais il n’en reste pas moins que l’aspect physique de la Terre change peu au cours du temps (du moins jusqu’à l’apparition de l’Homme) et, pourtant, les espèces vivantes se transforment petit à petit : voilà qui va dans le sens du gradualisme des néodarwiniens.

 

 

La Nature est aveugle : à la façon de ces petits mammifères qui cherchent leur chemin en creusant la Terre, bifurquant à chaque fois qu’un obstacle se présente mais toujours prompts à choisir la voie la plus économique, elle permet l’évolution de toutes les espèces vivantes, faune et flore réunies, comme en témoignent les traces plus ou moins bien fossilisées que l’on retrouve en creusant le sol de notre planète. La plupart de ces espèces viennent d’un passé si lointain que l’esprit humain peine à en saisir l’immensité. D’ailleurs, quatre-vingt dix neuf pour cent des espèces ayant un jour colonisé la Terre ont aujourd’hui disparu. Les survivantes s’adaptent sans cesse grâce à la sélection naturelle qui privilégie les plus performantes mais peut-être aussi grâce au hasard le plus pur (voir le sujet : le hasard au centre de la Vie). Il est encore difficile aujourd’hui de dire selon quelles proportions se distribuent l’évolution lente et graduelle et l’évolution ponctuelle par à-coups mais une chose est certaine, cette évolution existe et c’est elle qui permet de décrypter le monde tel qu’on le connaît aujourd’hui et de nous permettre ainsi de le comprendre et de le respecter.

 

 

Images

 

1. cœlacanthe (sources :  forumfr.com  )

2. catastrophisme : l'apocalypse (sources : merryswankster.com/)

3. les schistes de Burgess, Canada britannique (sources  : flickr.com/photos/))

4. un type de spéciation (sources :  www.colvir.net)

5. autre cœlacanthe (sources :  www.plongeur.com/)

6. la fin des grands sauriens (sources : newsoftomorrow.org )

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Mots-clés : Charles Darwin - gradualisme - néodarwinisme - théorie synthétique de l'évolution - sélection naturelle - catastrophisme - théorie des équilibres ponctués - Stephen J. Gould - Nils Eldredge - schistes de Burgess - spéciation - mutation - gènes du développement - saltationnisme - cœlacanthe - VIH - stress environnemental - pression de sélection - extinctions de masse - hasard biologique

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

Sujets apparentés sur le blog :

 

1. les extinctions de masse

2. les mécanismes de l'Evolution

3. distances et durées des âges géologiques

4. le hasard au centre de la Vie

5. la querelle sur l'âge de la Terre

6. la dérive des continents ou tectonique des plaques

7. l'Evolution est-elle irréversible ?

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

Mise à jour : 4 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #médecine

 

                                       

 

 

   

     La pandémie de grippe A avance à son rythme, qui est rapide : on en parle tous les jours à la télévision et dans les journaux. Certains de nos compatriotes semblent par avance terrorisés, d’autres affectent de traiter l’affaire par le mépris, d’autres encore hésitent, doutent, s’interrogent. La cacophonie atteint son paroxysme lorsqu’on évoque l’éventuelle vaccination : s’agit-il d’une étape indispensable dans l’éradication du virus ou d’une opération de marketing sciemment organisée par l’industrie pharmaceutique ? Les Pouvoirs publics s’impliquent-ils autant parce qu’ils possèdent des informations tenues secrètes ou, suite à l’effet canicule de 2003, « ouvrent-ils le parapluie » pour se protéger d’éventuelles critiques à venir ? Face à tant d’incertitude, voire d’incohérence, sur un problème pourtant sérieux, essayons d’y voir un peu plus clair.

 

 

 

 

Intérêt et limites de la vaccination en pathologie virale

 

     Rappelons tout d’abord qu’une campagne de vaccination est une opération préventive destinée à empêcher la diffusion d’un agent – ici un agent viral – à l’ensemble d’une population et surtout aux personnes fragiles (dites « personnes à risques ») que ce soit en raison de leur âge ou d’une affection dont ils sont porteurs. Car, on l’a déjà écrit dans un sujet précédent (voir sujet : grippe A(H1N1), inquiétudes et réalités), il n’existe pas de traitement curatif en cas d’affection virale : la prévention paraît donc une attitude logique. Sauf que cela dépend de la maladie en cause : le vaccin – on le verra – n’est jamais un acte totalement anodin (même s’il est en principe très bien toléré) et risquer un effet indésirable même simplement potentiel pour une maladie somme toute banale est discutable. La première des exigences est donc d’évaluer les risques encourus par la population en cas d’infection, ici par le virus H1N1, et c’est là que cela devient compliqué : la maladie est nouvelle (en tout cas pour la majorité des gens actuellement vivants) et on a du mal à apprécier sa dangerosité. Y a-t-il moins de risques en vaccinant ou en ne faisant rien ? Première interrogation.

 

 

 

 

Fabrication d’un vaccin : le cas de la grippe A

 

     Dans une vaccination, le but est d’obtenir une certaine quantité d’antigènes dont l’innocuité est certaine mais qui, injectée à un organisme vivant, est susceptible d’entraîner de sa part une réaction de rejet par son système immunitaire ; dès lors, lorsque l’organisme sera en contact avec le vrai virus, l’organisme « reconnaîtra » l’élément étranger et s’en débarrassera avant que ce dernier ne cause de dégâts. Voilà pour la théorie. Cette approche s’est trouvée légitimée dans bien des maladies, soit non virales comme le tétanos ou la diphtérie, soit virales comme la rage ou la grippe saisonnière (dite grippe habituelle car nous la voyons se manifester chaque année au début de l’hiver). On sait par ailleurs qu’il faut plusieurs mois pour fabriquer un vaccin de qualité (c'est-à-dire efficace et sans danger) et, dans le cas de la grippe saisonnière, c’est bien ce qu’il se passe habituellement puisque le vaccin est fabriqué durant les 6 mois de période chaude de l’hémisphère considérée.

 

     La donne est différente avec la grippe A puisque nous nous trouvons ici dans l’urgence (la pandémie est en marche) pour fabriquer un vaccin pour la première fois avec ce type de souche virale. Et ce d’autant que ce n’est pas aussi simple qu’avec la grippe habituelle. En effet, selon les souches incriminées, la réaction du système immunitaire est variable : par exemple, pour la grippe habituelle, pas de problème et il ne faut qu’une toute petite quantité d’antigènes pour obtenir la réaction de défense de l’organisme (probablement parce que des souches voisines ont déjà circulé les années précédentes). C’est tout le contraire avec la grippe aviaire H5N1 (ou la souche H7N9 qui frappe la Chine en 2013) : ce virus entraîne très peu de réactions de défense de la part du système immunitaire, un peu comme s’il n’était pas reconnu pour ce qu’il est ; or, il s’agit d’un tueur impitoyable puisqu’il entraîne la mort plus d’une fois sur deux. Il est donc impératif pour une vaccination efficace de rendre le système immunitaire « sensible » au virus H5N1 et, pour ce faire, on doit le « stimuler » avec des produits appelés adjuvants : nous y reviendrons. Et la grippe A(H1N1) dans tout ça ? Elle occupe, semble-t-il, une position intermédiaire. Au début de l’épidémie, on a eu l’impression que son immunogénicité ressemblait à celle de la grippe aviaire (c'est-à-dire très faible) puis, au fur et à mesure qu’on en a su un peu plus, on s’est rendu compte que cette immunogénicité devait être meilleure que supposée au début et que, en définitive, la reconnaissance du virus (ou de sa fraction antigènes) était nettement plus forte que pour la grippe aviaire. Dès lors, on peut se poser la question de la nécessité de renforcer la reconnaissance du virus par le système immunitaire, donc de l’utilité d’adjuvants dans le vaccin. Deuxième interrogation.

 

 

 

Les adjuvants sont-ils indispensables dans le vaccin contre la grippe A ?

 

     Comme on vient de le voir, pour certains virus particulièrement mal reconnus par l’organisme, il est nécessaire de renforcer leur détection par des éléments complémentaires qu’on nomme adjuvants (un adjuvant, en pharmacologie, est un « additif » sans effet thérapeutique dont le seul rôle est de renforcer l’action du principe actif). Les plus utilisés aujourd’hui sont les sels d’aluminium et des émulsions à base de squalène (tandis que ceux à base de mercure sont abandonnés). Cela présente-t-il un problème ? Eh bien, d’une certaine façon, oui : ces adjuvants renforcent bien l’action des vaccins mais ils ont été accusés de provoquer des effets indésirables parfois plus graves que la maladie elle-même… Par exemple, il y a quelques années, la vaccination contre l’hépatite B a, en France, été vécue comme susceptible d’entraîner l’apparition de scléroses en plaques. En Grande-Bretagne, c’est le vaccin contre la rougeole (une maladie mortelle chez nos amis britanniques) dont on a prétendu qu’il pouvait induire l’apparition de symptômes autistiques. Précisons que les liens statistiques n’ont jamais pu être prouvés entre les vaccinations et ces maladies mais la méfiance règne (attisée par les opposants aux vaccinations dont les buts ne sont d’ailleurs pas forcément médicaux).

 

     Y a-t-il donc réellement un avantage à fabriquer un vaccin complété avec des adjuvants pour la grippe A(H1N1) ? On a dit que le taux global de reconnaissance du virus par le système était quand même plus faible que celui de la grippe habituelle ; en l’occurrence, si le vaccin ne contient pas d’adjuvants, il faudra certainement procéder à une double vaccination à trois semaines d’intervalle… alors qu’on manque de temps ! Ce temps qui passe trop vite et dont on a parfois si cruellement besoin ! A ce propos, parlons chiffres un instant : nous sommes à présent fin novembre et la vaccination est entrée dans sa phase active depuis près de 3 semaines, avec un peu de retard sur le programme prévu (mais, compte-tenu du temps assez clément, la grippe A, elle-aussi, est un peu en retard). Les personnes "à risques" ont été appelées en premier, suivies des femmes enceintes et, actuellement des élèves et lycéens. Il est encore néanmoins trop tôt et donc difficile d'évaluer l'impact réel de la campagne. Un grand nombre de personnes refusent toujours la vaccination (mais cela varie selon les jours et... les infos à la télé !). A l'inverse, j'ai parmi ma clientèle un nombre non négligeable de malades avec une lourde polypathologie qui attendent encore de recevoir leur convocation ; ailleurs, des centres sont tantôt déserts, tantôt pris d'assaut. En somme, quelques dysfonctionnements mais une avancée certaine. Tout cela suffira-t-il alors qu'une deuxième vague de l'épidémie est prévue au premier trimestre 2010 et que l'actuelle n'a pas encore atteint son pic maximal ? L'avenir le dira mais je rappelle qu’une épidémie - et c’est d’ailleurs bien ce qu’il se passe avec la grippe habituelle – commence à décliner lorsque 50 % de la population environ a été soit vaccinée, soit malade. On voit donc que, au-delà des cas strictement individuels (faut-il ou non se faire vacciner ?), il existe un enjeu de santé publique…

 

     Revenons au problème des éventuels adjuvants. L’immunogénicité plus faible de la grippe A(H1N1) oblige également à utiliser des quantités d’antigènes plus importantes or c’est cette fraction du vaccin qui est la plus longue à produire. Toujours le facteur temps ! La présence d’adjuvants permettrait donc une réponse vaccinale plus précoce mais à quel prix ? Dans le doute, certains pays ont décidé de ne pas employer de tels vaccins : c’est, par exemple, le cas des États-Unis qui, échaudés par une politique vaccinale douteuse lors d’une épidémie sur leur territoire en 1976, ont décidé de ne pas utiliser de vaccins avec adjuvants contre le virus H1N1, une réserve que ne partagent pas les  autorités européennes et donc françaises. Pour être complet – et pour la petite histoire – l’épidémie de grippe porcine qui, en 1976, aux États-Unis, a laissé un si mauvais souvenir (des effets indésirables furent rapportés… mais sans toujours de relation évidente avec la vaccination) avait été anticipée par des vaccins… sans adjuvants !

 

 

 

Faut-il se faire vacciner ?

 

     Disons le d’emblée : la vaccination n'est pas obligatoire et l’attitude adoptée sera certainement fonction de l’état de santé de chacun mais aussi – et peut-être surtout – des croyances et préjugés personnels…

 

     Il existe toutefois quelques éléments d’ordre général qui permettent d’engager une réflexion plus rationnelle :

 

·  D’abord et on l’a déjà dit, la vaccination n’est pas qu’un simple geste individuel puisque intervenant à l’échelle de la population pour peu qu’elle soit suffisamment importante…

 

·  Pour les individus à risques (insuffisants respiratoires, immunodéprimés, etc. voir le sujet : grippe A(H1N1), inquiétudes et réalités), il paraît logique de fortement conseiller une vaccination car pour ces personnes, le syndrome grippal clinique pourrait se révéler très dangereux.  

 

·  Cas particulier des personnes à risques pour la grippe A(H1N1) : à la suite du (léger) recul épidémiologique qu’on a sur cette maladie, on sait que certains groupes d’individus sont particulièrement menacés (ce qui n’est pas le cas avec la grippe habituelle),  à savoir les femmes enceintes, notamment lors de leur troisième trimestre de grossesse, les enfants surtout en bas-âge et, d’une manière plus générale, les personnes jeunes. La vaccination est donc proposée au cas par cas, avec le vaccin sans adjuvants pour les femmes enceintes, certes moins actif mais aussi potentiellement moins agressif. A ce propos, cassons-le cou à une vieille rengaine : le vaccin avec adjuvants n'est pas proposé aux femmes enceintes parce qu'il est "plus dangereux" mais parce que, pour des raisons éthiques, il n'a jamais pu être testé chez elles. Ce qui est d'ailleurs également le cas de tous les médicaments du marché avec comme effet pervers de disposer de moins en moins de traitements pour les femmes enceintes, au fur et à mesure du retrait des "anciens "médicaments (qui avaient été jadis utilisé chez elles sans précautions particulières).

 

·  Concernant la population « en bonne santé » : c’est ici que l’interrogation est la plus forte car il convient de savoir si la vaccination peut ou non être utile chez le « malade de base » ; en effet, après tout, un syndrome grippal ne dure que quelques jours durant lesquels seule une partie des personnes atteintes est réellement alitée tandis que pour beaucoup le tableau sera celui d’un gros rhume (en tout cas, si l’on en juge par ce que l’on sait aujourd’hui de la maladie). Bon, alors, ce n’est pas si grave, Docteur ? Non ce n’est pas si grave… sauf que, pour quelques personnes apparemment bien portantes, la grippe peut tuer sans qu’on sache vraiment pourquoi. C’était déjà vrai avec la grippe habituelle et ça l’est encore plus avec cette grippe A. Il est assurément difficile de se faire une idée : certaines études parlent d’un taux de mortalité de 1 pour mille (quand même pas loin de 35 000 morts rien qu’en France en pareil cas !) tandis que d’autres avancent le chiffre plus rassurant (et plus probable) de 1 pour 100 000. Les personnes touchées par ce qu’on appelait jadis une forme de grippe dite « maligne » seraient, selon l’OMS, plutôt jeunes (moins de 35 ans) et 40% d’entre elles n’auraient jamais eu la moindre maladie grave. Peu de morts en somme par rapport au nombre important de malades mais quand ça concerne directement quelqu'un chez vous… Le vaccin peut en principe empêcher cela mais qu’en est-il alors des risques à long terme que nous évoquions plus haut ? Comme souvent en médecine, il n’y a pas de réponse univoque et ce sera donc à chacun d’apprécier.

 

 

 

Quelles sont les propositions des Pouvoirs publics ?

 

     Les pouvoirs publics - d'ailleurs critiqués par certains mais c'est toujours ainsi en pareil cas - ont été résolument interventionnistes (un souvenir de la canicule de 2003 ?) et, en France, alors que notre pays ne représente que 1% de la population mondiale, on a commandé plus de 10% des vaccins disponibles. Comme je l'ai déjà dit, la vaccination n'est pas obligatoire. Les différentes catégories à risques ont donc d'abord été appelées et on va tout prochainement proposer le vaccin à l'ensemble de la population avec un succès qu'il est difficile de prévoir : faible s'il existe des nouvelles alarmantes sur le vaccin (comme récemment au Canada) et surtout si elles sont attisées par les ligues antivaccination, plus important au fur et à mesure que les médias rapporteront le nombre forcément progressif des décès. 

   

 

     Pour le reste de cette histoire, il faudra attendre de voir comment la pandémie évolue : elle-seule nous dictera l’attitude finale à adopter… et ce qu'il conviendra de faire l'année prochaine. Parce que, à moins d'une grosse surprise, le virus de la grippe A nous accompagnera encore quelque temps... non sans avoir muté et donc nécessité une revaccination annuelle.

 

 

 

 

Images :

 1. masques (sources : www.corsematin.com/)

2. se protéger (sources : www.mecanopolis.org/)
3. virus de la grippe A(H1N1) (sources : farm4.static.flickr.com)
4. vaccination (source : www.lexpress.fr)
5. la femme enceinte, une cible (sources : www.atoutfemme.com/)
6. bisous... protégés ! (sources : 24heures.ch)
 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)
 
  
 
Mots-clés : grippe A(H1N1) - grippe aviaire (H5N1) - effet indésirable - antigène - système immunitaire - adjuvant - immunogénicité - squalènes - hépatite B - rougeole - épidémie de grippe porcine américaine
 (les mots en gris renvoient à des sites d'informations complémentaires)
 
 
 
sujets apparentés sur le blog
 
 
 
 
 
 
Dernier sommaire général du blog : cliquer ICI
 
 
 L'actualité du blog se trouve sur FACEBOOK
 
 
Mise à jour : 4 mars 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #biologie

 

 

   

Tienda Elena - mode et inspiration mexicaine
fête des morts au Mexique

 

 

 

 « Evolution et immortalité sont des concepts incompatibles. Si les organismes doivent s'améliorer et se renouveler tous les ans, la mort est un phénomène aussi nécessaire que la reproduction » (Sir Franck Macfarlane Burnet, prix Nobel de médecine 1960).

 

     Peu de systèmes philosophiques et/ou religieux considèrent la mort des individus comme inutile et dommageable pour leur société. Au contraire, est souvent avancée la nécessité « de faire de la place » pour les générations à venir et ce mécanisme de disparition programmée est presque toujours vécu comme quelque chose de parfaitement naturel au point qu’on n’imagine pas une seconde qu’il puisse en être autrement. Une approche purement scientifique de la question ne renvoie pourtant pas forcément aux mêmes conclusions : si beaucoup d’auteurs restent imprégnés d’une approche quasi-philosophique qui fait de la mort un phénomène indispensable au maintien de la vie, d’autres ont longuement réfléchi à l’intérêt de cette mort pour le vivant et c’est cette manière différente de voir les choses que je me propose d’aborder dans ce sujet.

 

 

 

Qu’est-ce que la mort ?

 

 

     Monsieur de la Palice l’aurait facilement trouvé : la mort, c’est l’absence de vie ! C’est la disparition de cette vie dont nous avons cherché les caractéristiques essentielles dans un sujet précédent (voir article : pour une définition de la vie). Éliminons d’emblée, les problèmes « qui fâchent » : il existe encore des objets dont nous ne savons pas vraiment s’ils sont vivants ou non (les prions, les virus, etc.). En pareil cas, nos observations (et nos définitions) sont encore incomplètes et l’avenir permettra probablement de trancher. Parlons du reste – qui est le plus grand nombre – et évoquons ce dont nous sommes certains.

 

     La mort peut s’évaluer à deux niveaux différents : la mort de la cellule individuelle, que ce soit une cellule unique comme chez les bactéries ou qu’elle fasse partie, avec des millions d’autres, d’un organisme pluricellulaire, et la mort de l’individu précisément composé de ces multiples cellules.

 

 

* La cellule individuelle : elle est capable de s’autodétruire par un mécanisme appelé apoptose qui est une sorte de mort cellulaireapoptose-lymphocytaire.gif programmée (Au contraire, les cellules cancéreuses, immortelles, ont perdu cette faculté ce qui caractérise leur dangerosité). Cette apoptose survient naturellement sous certaines conditions comme le stress, des intoxications, des agressions diverses. Toutefois, il peut exister des dysfonctionnements de cette apoptose, soit qu’elle soit réprimée comme dans les cancers déjà cités, soit qu’elle soit mal contrôlée comme, semble-t-il, dans la maladie d’Alzheimer, la maladie de Parkinson, etc.

 

 

* L’organisme pluricellulaire : il s’agit ici de la disparition d’un organisme complexe, soit parce que certaines de ses cellules, indispensables au maintien de son existence, ont failli à leur tâche, soit parce que, par un processus de vieillissement, l’ensemble des cellules de l’individu n’ont pas pu se rénover suffisamment au fil du temps, conduisant à ce que certains appellent une « mort naturelle », un principe sur lequel nous aurons l’occasion de revenir. Quoi qu’il en soit, l’individu qui est victime du phénomène ne peut maintenir son métabolisme et doit disparaître, mourir. Or, on peut se poser ici une question fondamentale : au-delà de la mort d’un individu, ce qui, pour lui, est évidemment une tragédie, quel est l’intérêt véritable de cette disparition pour l’espèce à laquelle il appartient, quels avantages réels pour le maintien de la Vie ? Ou, dit autrement, en quoi la disparition de cet individu arrange-t-elle les affaires des autres ? Avant de tenter de répondre à ces questions, voyons d’un peu plus près ce qu’est la mort et ce qu’elle signifie.

 

 

 

Comment meurt-on ?

 

 

     On peut considérer la mort, ici aussi, de deux points de vue, d’ailleurs complémentaires : celui de l’individu auquel je viens de faire allusion (pour lui totalement abominable) et celui de la population à laquelle il appartient pour laquelle cette mort peut être ressentie comme un élément de renouvellement indispensable. Intéressons-nous d’abord à ce second aspect qui privilégie une approche générale et statistique (je reviendrai secondairement sur l’approche individuelle).

 

 

D’un point de vue général, il existe deux abords possibles de la mort :

 

 

 * une intervention extérieure : ici est fait allusion à une volonté divine (ou à toute autre forme de volonté supérieure). C’est bien connu : les Dieux sont immortels et c’est d’ailleurs en cela qu’ils se différencient du commun des vivants. Au demeurant, dans certaines religions, l’Homme lui-même a perdu sa qualité d’immortel en raison d’une faute antérieure supposée. La mort des Hommes est donc vécue comme la conséquence d’une malédiction ou parfois même d’une punition divine. Elle prend, en pareil cas, toute sa dimension théologique car c’est Dieu qui la décide. Nous n’aborderons évidemment pas ici cet aspect des choses qui échappe quelque peu à la science;

 

 

* une intervention intérieure : le processus de sénescence touche la quasi-totalité des êtres vivants. Ceux-ci deviennent de plus en plus fragiles au fur et à mesure qu’ils avancent en âge et, en l’absence mort-2.jpgd’un accident extérieur, ils finissent tous par mourir d’une cause interne (défaillance d’un organe majeur, rupture ou oblitération d’un vaisseau sanguin, etc.) ou d’une inadaptation aux conditions de leur environnement (la baisse, par exemple, de leurs défenses immunitaires les empêche de résister comme auparavant à une agression bactérienne ; ailleurs, une déshydratation a raison de leur résistance, etc.). Bref, en l’absence d’accidents évidents, on meurt tôt ou tard « de mort naturelle » comme disait Brassens et cela de manière variable selon les espèces considérées : remarquons au passage que les animaux n’ont évidemment pas le même taux de longévité (un rat vit 2 ans, une baleine 2 siècles alors que ce sont tous deux des mammifères) mais on est frappé de constater que, pour une même espèce, cette longévité est toujours la même et que, de plus, elle semble globalement proportionnelle à la taille.

 

     Comment expliquer, à l’échelle des populations, cette nécessité de remplacer les êtres vivants à l’issue d’un temps variable mais à peu près constant d’une génération à l’autre ? La théorie qui paraît la mieux acceptée par l’ensemble des gens est héritée des travaux déjà anciens de Linné, à savoir :

 

 

* le mutualisme providentiel : l’idée centrale en est que, pour permettre un développement harmonieux de l’ensemble des espèces vivantes, il est impossible que l’une d’entre elles (a fortiori toutes) soit immortelle ; en effet, si c’était le cas, les « immortels » finiraient pas supplanter les individus normalement mortels… jusqu’à disparaître à leur tour faute de subsistance. La mortalité naturelle des individus est ici corrélée à la reproduction, seule à même de permettre une permanence génétique. Tout se passe comme si la Nature devait être en équilibre – toujours le même -  et qu’il existe en conséquence autant de victimes que de prédateurs (prédateur au sens large comprenant aussi bien les maladies infectieuses que certains phénomènes naturels). Il s’agit là d’une idée intéressante, rassurante même, mais toutefois fausse.

 

 

* Le néodarwinisme : il faudra attendre Darwin et ses travaux sur la sélection naturelle pour revoir le concept. Dans l’optique darwinienne, lamort-3-crocodile.jpg mort est un mécanisme individuel qui devient un moteur de l’évolution pour l’espèce : les prédateurs ne veillent plus comme précédemment à l’équilibre démographique de leurs proies et il existe une compétition incessante dont l’issue est toujours incertaine. Des espèces entières peuvent disparaître si elles n’évoluent pas assez vite, si elles ne s’adaptent pas suffisamment aux changements de leur environnement (par exemple, on peut dire que le « réchauffement climatique » actuel est porteur en lui-même de la disparition de nombreuses espèces). A l’échelon individuel, on se trouve à l’opposé du mutualisme précédent dont le but était de conserver l’équilibre : ici, c’est tout le contraire puisque la prédation permet l’évolution, le changement. En somme, le vieillissement – et donc la mort - serait un mécanisme qui aurait été sélectionné par l’évolution car, s’il ne profite évidemment pas à l’individu, il bénéficierait à l’espèce : en éliminant les plus âgés, il permettrait aux plus jeunes d’accéder plus aisément aux ressources du milieu.

 

     Alors, me direz-vous, tout est bien et la théorie, cette fois, semble rationnelle. Ce serait conclure trop vite car, à y bien réfléchir, l’explication n’est pas si claire que ça. Pour qu’elle soit exacte, il faudrait avant tout que le vieillissement profite effectivement aux populations ce qui est loin d’être le cas : dans un écosystème naturel, les morts sont bien plus souvent le fait d’accidents, de pénuries de ressources, de maladies, de parasitisme, etc. Bref, le vieillissement n’a guère le temps de manifester son intérêt pour l’espèce, les individus étant pratiquement toujours morts avant… De ce fait, la théorie reste imprécise et ne prouve pas que la mort est indispensable au maintien de la vie.

 

    Il existe également un problème, cette fois-ci à l’échelle de l’individu : on sait que celui-ci doit transmettre ses gènes afin d’assurer sa descendance (pour certains scientifiques, comme Richard Dawkins, c’est même son seul et unique intérêt); dans le cas de la reproduction sexuée normale, un individu verra son enfant posséder la moitié de ses gènes tandis que son petit-fils en aura seulement le quart, l’arrière petit-fils un huitième, etc.… or, un individu immortel, toujours jeune, transmettrait chaque fois la moitié de son patrimoine génétique… ce qui est certainement plus gratifiant pour lui !

 

     En somme, quelle que soit l’approche que nous choisissons, la mort ne semble pas si intéressante que cela, ni pour l’individu, ni pour le groupe dont il fait partie. Prenons en note et abordons les choses à présent à l’échelle de l’individu.

 

 

 

 

Quelles sont les raisons qui pourraient expliquer la mort individuelle ?

 

 

     Tout se passe, nous l’avons déjà dit, comme s’il existait un mécanisme parfaitement programmé qui oblige finalement l’individu à s’autodétruire ; on sait que cette autodestruction relève au départ du domaine cellulaire – nous l’avons également évoqué – mais cela ne nous explique pas la raison de la concordance de la sénescence et donc de la mort. Plusieurs explications ont été avancées.

 

 

·         La théorie du taux de vie

 

     Cette théorie part d’une observation peu contestable : chaque fois que l’on « refroidit » un être vivant (de nombreux travaux ont été faits sur la mouche drosophile), celui-ci semble pouvoir vivre plus longtemps (les auteurs de science-fiction ont d’ailleurs largement exploité ce thème avec la cryogénie susceptible de permettre les longs voyages intersidéraux). D’ailleurs – et j’en reviens à une remarque précédente – la longévité des animaux est souvent en rapport avec leur taille : ne dit-on pas que si un éléphant avait l’activité d’un colibri, il brûlerait immédiatement… Tout se passe donc comme si les réactions chimiques étaient en rapport avec la température, une découverte des années 50. C’est également à cette époque qu’on a mis en évidence les effets néfastes pour l’organisme des radicaux libres, sous-produits du métabolisme cellulaire. Alors, existe-t-il vraiment une corrélation entre le vieillissement et la dégradation d’un organisme en rapport avec ses activités chimiques ? On y a cru un certain temps. Malheureusement, de très nombreuses exceptions, manifestement inexplicables par la théorie, ont finalement entrainé son rejet par la majorité des scientifiques… alors qu’elle reste très prisée du grand public !

 

 

·      Les théories évolutionnistes : (j’utilise volontairement le pluriel car plusieurs approches souvent intriquées ont été avancées).

 

     Dans les années 60 tout d’abord, un des plus grands immunologistes de l’époque, le britannique Peter Medawar émit l’hypothèse dite de « l’accumulation mutationnelle ». Medawar s’appuyait sur l’observation que certaines maladies génétiques se transmettent d’une génération à l’autre parce que les gènes qui en sont responsables ne s’expriment que tardivement dans la vie des individus, après que ceux-ci aient eu des enfants et aient donc transmis le gène nuisible. Tout se passe ici comme si les gènes (et leurs mutations) n’exprimaient leurs actions que de façon mort-4-d-bris-sur-la-plage.jpgrelative au temps. Il proposa donc l’explication suivante : les mutations délétères s’accumulent avec le temps, comme des épaves sur la plage de la vie, parce que la sélection naturelle ne les élimine pas si elles n’entravent pas la reproduction. On comprend donc que, en cas d’environnement hostile, la plupart d’entre elles n’auront pas pu se manifester puisque leur porteur aura été éliminé précocement mais que, dans le cas inverse, c’est leur accumulation qui conduit au vieillissement et à la mort. En d’autres termes, le vieillissement est un phénomène collatéral qui ne peut pas être supprimé par la sélection naturelle…

 

     Quelques années plus tard, l’américain George C. Williams va dans le même sens – mais un peu plus loin en formulant la théorie dite de la pléiotropie antagoniste; il explique alors que la sélection naturelle peut laisser s’exprimer (et donc « choisir ») des mutations fortement délétères pour l’individu âgé à la condition que celles-ci améliorent son aptitude à se reproduire : le vieillissement est dû à l’accumulation de ces effets négatifs tardifs et la sélection naturelle, ici, se moque de l’individu âgé pour peu qu’elle ait permis sa meilleure adaptation lorsqu’il était jeune.

 

     Enfin, plus récemment, a été introduite la notion « du soma jetable », le soma signifiant l’ensemble des tissus qui composent un individu. L’auteur, Thomas Kirkwood, nous dit la chose suivante : cela coûte beaucoup d’énergie pour entretenir des cellules et leurs associations multiples (maintien du matériel génétique, mécanismes antioxydants et antivieillissement, synthèse des protéines, épuration cellulaire, etc.)… La Nature est en principe économe et elle n’a pas envie de passer du temps à maintenir en état de fonctionnement un organisme qui, le plus souvent, n’a même pas le loisir de vieillir puisqu’il est détruit par des événements extérieurs (prédateurs, maladies, parasites, etc.) : mieux vaut pour elle investir son énergie dans les fonctions de reproduction. (Je me permets de préciser que, pour la compréhension de l’argumentation, on a parlé en termes « finalistes »  - la Nature veut, elle souhaite, etc. - mais, bien entendu, tout cela relève du simple déterminisme…). Donc, pour résumer, la mort n’est finalement qu’un épiphénomène puisque ce qui compte c’est la reproduction et la transmission des informations génétiques… Ensuite, eh bien, ensuite, on laisse aller parce que le reste ne sert plus à rien. On peut donc avancer que la mort de l’individu n’est qu’accessoire et qu’elle ne sert réellement ni à l’évolution, ni à l’espèce…

 

 

 

Et l’Homme dans tout ça ?

 

 

     Les explications sur le rôle de la mort que nous venons de résumer concernent évidemment l’ensemble des êtres vivants. L’Homme en transformant son milieu se retrouve à part : lui seul a été capable de pousser l’espérance de vie jusqu’à des limites jamais atteintes dans unmagritte-par-une-belle-fin-d-apr-s-midi- milieu naturel et sauvage. Lui seul a permis de voir apparaître ce que l’on appelle de « grands vieillards » que ce soit pour sa propre espèce ou pour toutes celles qu’il a domestiquées et/ou réduites en captivité. Et c’est parce que ces individus très âgés ne sont normalement que l’exception dans la Nature que, en les multipliant, on a pu voir apparaître une « sénescence généralisée ».

 

     Il existe bien sûr des disparités importantes entre les différents êtres humains : génétiques, sociaux-culturelles, professionnelles, etc. Pourtant, pour tous ceux qui ont la chance d’arriver à un âge avancé, on voit peu à peu se manifester ces facteurs de vieillissement, ces « épaves sur la plage de la vie » qui, en s’accumulant, conduisent à la « mort dite naturelle ».

 

     Il semble que la Nature - par le biais de l’évolution - a privilégié les phénomènes de reproduction des individus et consacré beaucoup d’énergie à ce que ceux-ci soient de qualité, seul moyen de permettre le maintien des espèces au sein d’un milieu mouvant. La mort, c’est-à dire la disparition des individus une fois qu’ils se sont reproduits, n’est qu’un pis-aller, un dommage collatéral : on aurait pu imaginer qu’il en soit autrement avec, pourquoi pas, un univers occupé par des êtres vivants quasi-immortels dont les naissances ne serviraient qu’à combler les vides des morts par accidents ou permettre une expansion en cas d’élargissement de la niche écologique occupée. Toutefois, dans le grand livre de l’évolution du vivant sur notre planète, la mort est marquée depuis longtemps comme l’une des composantes, certes finale, de la Vie. Il aurait pu en être autrement sans que l’évolution n’en soit réellement entravée mais c’est cette solution qui a été retenue, certainement par hasard.

 

     Il n’en reste pas moins que cette façon de voir les choses se heurte à l’idée communément admise que, pour qu’une population « progresse », il est indispensable que les générations antérieures, usées, s’effacent au profit des plus récentes : c’est le vieil adage « place aux jeunes » ! Et pourtant, comme on vient de le voir, il s’agit là plus d’un apriori que d’une véritable donnée scientifique…

 

     Quoi qu’il en soit, j’espère que cette approche assez inhabituelle de la mort aura permis de comprendre que la science – ici la biologie - doit toujours chercher à se remettre en cause et qu’elle ne doit jamais se contenter d’idées toutes faites, fussent-elles en apparence évidentes et partagées par le plus grand nombre.

 

 

 

 

Images

 

1. Fête des morts au Mexique (sources : pinterest.com)

2. Lymphocytes en apoptose (sources : www.cnrs.fr)

3. Sénescence : portrait d'Elisabetha Drum par Michael Ströck (sources : stable.toolserver.org/)

4. Prédateur (sources : www.isabelle-leca.fr)

5. Laisses de mer (sources : www.ecosociosystemes.fr)

6. Par une belle fin d’après-midi, René Magritte, 1964 (sources : www.artadvisory.ch)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)

 

 

 

Mots-clés : mort - cellule - organisme pluricellulaire - apoptose - mort dite naturelle - sénescence - taux de longévité - Carl von Linné - mutualisme providentiel - prédation - sélection naturelle - Richard Dawkins - théorie du taux de vie - radicaux libres - théories évolutionnistes de la cellule - Sir Peter Medawar - George C. Williams - pléiotropie antagoniste - théorie du soma jetable - Thomas Kirkwood 

 (les mots en blanc renvoient à des sites d'informations complémentaires)

 

 

 

Sujets apparentés sur le blog :

 

1. l'âme

2. les extinctions de masse

3. les mécanismes de l'Evolution

4. indifférence de la Nature

5. la notion de mort chez les animaux

 

 

 

 Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

mise à jour : 28 février 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #médecine

 

pathologie virale
grippe saisonnière ou grippe H1N1 ?

 

       

 

     Repoussée de quelques semaines en raison d'un mois de septembre particulièrement doux et ensoleillé, l'épidémie de grippe A (H1-N1) se propage à présent assez rapidement dans l'hémisphère nord et donc en France. On sait bien - on l'a assez répété - qu'il s'agit d'une épidémie de grippe jusque là inconnue . Inconnue et donc suscitant des peurs multiples, souvent infondées mais c’est bien habituel : on a toujours peur de ce que l’on ne connaît pas… Essayons donc de faire le point sur un problème qui nous concerne tous.

 

 

 
Les affections virales


     La grippe – toutes les grippes – sont le fait de virus, c’est-à dire de micro-organismes bien plus petits que les bactéries responsables de l’autre grande partie des maladies infectieuses. Les virus se caractérisent, entre autres, par plusieurs caractères :

 
   • ils sont souvent très contagieux ce qui explique leur diffusion rapide au sein d’une même population ;

 
   • ils mutent facilement et fréquemment (je pense par exemple au virus du SIDA, si redoutable) ce qui fait que, au fil des mois, on n’a jamais vraiment affaire à la même souche ;

 
   • il est difficile de les traiter réellement : contrairement aux bactéries, ils ne sont pas sensibles aux antibiotiques. De ce fait, il n’existe que, soit des traitements préventifs (les vaccins), soit des traitements palliatifs susceptibles de ralentir ou minimiser leur évolution (antiviraux comme le Tamiflu), soit encore des traitements symptomatiques (paracétamol, sirops, etc.) qui s’efforcent de corriger les signes de la maladie.

 
     A une époque d’explosion des communications et des contacts entre les populations, on comprend donc qu’il est difficile de contrôler ces expansions virales au risque de paralyser totalement les activités humaines (voir sujet : les grandes pandémies). Alors, cette épidémie de grippe A qu’on nous annonce (et qui, d’ailleurs, est déjà présente sous nos latitudes) est-elle si redoutable ? Heureusement, non ! Mais elle reste, comme on va le voir, un sujet de préoccupation sanitaire.

 

 

Présentation du virus


     Et d’abord deux questions simples : pourquoi A et que veut dire le sigle H1N1 ?

  
     Les scientifiques classent les virus selon leur dangerosité : A pour les plus virulents, puis B et C. On a donc théoriquement affaire à un virus « dangereux ».

 

     Il faut à présent s’intéresser (un peu) aux mécanismes de l’infection virale. Les virus possèdent à leur surface des protéines qui vont leur permettre d’attaquer les cellules vivantes. Il en existe principalement deux types :

 

 
   • les hémagglutinines (d’où la lettre H) : ce sont elles qui permettent aux virus d’entrer dans la cellule qu’ils vont infecter

 
   • et les neuraminidases (lettre N) : ces protéines permettent de « libérer » le virus de la cellule où il se trouve afin qu’il puisse envahir d’autres cellules.

 
     Bien entendu, il existe plusieurs types de protéines H et N ce qui explique le nombre important de virus différents. Rappelons, à titre d’exemple, que le virus de la grippe espagnole de 1920 était déjà de type H1N1 tandis que le virus si redouté – à juste titre - de la grippe aviaire est de type H5N1.

 

 

La pandémie

 
     Comme le rappelle fort justement l’OMS, la pandémie est en marche. Pour mémoire et au risque de me répéter, je rappelle qu’une épidémie est la présence d’une maladie infectieuse concernant l'ensemble d'une population bien définie (tandis que les cas isolés touchant quelques individus de ci, de là sont qualifiés de « sporadiques »). Une pandémie est une épidémie à grande échelle touchant la population mondiale. Ce qui est bien le cas ici puisque la grippe A (H1N1) est retrouvée sur tous les continents et à (presque) toutes les latitudes.

  
     Il est donc trop tard pour enrayer la diffusion du virus (mais l’a-t-on jamais pu ?) : il ne nous reste qu’à nous protéger au maximum, nous aurons l’occasion d’y revenir. 

 

 

 
Les risques encourus


     Tout d’abord, une interrogation s’impose : quelles sont les conséquences d’une infection par la grippe A (H1N1) chez les individus dits « normaux » ? En fait, et pour autant que l’on sache, elles sont probablement minimes. Bien sûr, il s’agit d’une grippe et, si l’on en juge par les épidémies passées de grippe saisonnière, il faut s’attendre à être malade quelques jours avec un tableau variable selon les personnes atteintes mais qui regroupe principalement : une grande fatigue, de la fièvre, une toux plus ou moins intense, des douleurs articulaires multiples et erratiques. Bref, rien de bien nouveau, ni de réellement spectaculaire. Tant mieux. J’ajoute qu’il existera très certainement une partie de la population atteinte… qui ne présentera aucun signe particulier ! Tout cela, on le voit, n’est pas terriblement inquiétant.

 
     Alors, me direz-vous, pourquoi tout ce tintamarre médiatique ? Pour une raison finalement simple : cette variante de grippe étant nouvelle, il n’existe en principe aucune protection immunitaire  chez tout un chacun et le vaccin dont on dispose à présent est encore assez mal connu dans son efficacité (probablement excellente) et son innocuité (très certainement minime).

  
     Or, si chez l’individu dit moyen le risque est finalement faible d’être très malade, ce n’est pas le cas des populations dites « à risques ». En effet, un nombre important de sujets sont particulièrement sensibles aux infections, quelles qu’elles soient, et donc la grippe. On pense évidemment à toutes les personnes dont les systèmes immunitaires sont diminués (déficiences immunitaires de tous types, malades du SIDA, malades sous chimiothérapies diverses, notamment anticancéreuses, etc.) ainsi que les sujets présentant une insuffisance respiratoire chronique (asthmatiques, bronchiteux chroniques, emphysémateux, etc.).

 

     Les deux tranches extrêmes de la vie sont également particulièrement sensibles à la grippe : enfants de moins de 8 ans – notamment les nourrissons que l'on ne peut pas vacciner – qui n’ont jamais été en contact avec les virus et les personnes âgées dont les systèmes immunitaires sont théoriquement moins performants. Dans ce dernier cas, toutefois, le CDC d’Atlanta (qui suit avec attention toutes les pathologies infectieuses de la planète) pense qu’une partie au moins des plus de 60 ans (1/3 environ) pourrait être naturellement protégée contre la grippe A (H1N1) en raison d’une épidémie précédente (dans les années 50) qui aurait pu les immuniser : il s’agit toutefois là d’une affirmation qui reste à vérifier…

  
     Quoi qu’il en soit, on comprend aisément que toutes ces personnes « à risques » devront être vaccinées en priorité… et c'est bien ce qui se passe actuellement (fin novembre) puisqu'elles bénéficient avant les autres de l'envoi à leurs domiciles d'un "coupon" leur permettant de se présenter sans attendre dans les centres de vaccination dédiés.
Signalons au passage que, pour être totalement efficace, la vaccination antigrippe A risque de devoir se faire en deux injections à trois semaines d'intervalle ce qui ne simplifie pas la situation... Par ailleurs, les femmes enceintes - catégorie appelée après les personnes "à risques" que l'on vient d'évoquer - bénéficient quant à elles d'une vaccination par vaccin non adjuvé, peut-être moins efficace mais également moins agressif. (Pour plus d'informations sur cette vaccination , se reporter par le lien au sujet dédié : le vaccin de la grippe A(H1N1)). 

 

     Rappelons toutefois que quelques personnes, de préférence jeunes et en bonne santé antérieure, risquent de mourir de cette affection sans que l'on sache bien quels facteurs favorisants les prédisposent à cela : une sensibilité particulière, peut-être d'ordre génétique ? Une réaction extrême (un choc allergique ?) comme on peut en voir lors de piqures de guêpes (le virus serait alors l'agent allergène) ? Autre chose ? On ne sait pas .Très peu de gens, sans doute, sont concernés par un tableau si redoutable mais quand cela tombe dans votre famille... Dans tous les cas, que la dégradation de l'état clinique du malade soit très brutal ou plutôt progressif en deux ou trois jours, un signe bien particulier doit attirer l'attention : les difficultés respiratoires. En effet, lors d'une grippe habituelle, s'il y a, comme on l'a dit, fièvre, forte toux, etc., la sphère respiratoire reste à peu près indemne : une difficulté pour respirer est donc inhabituelle et doit impérativement amener à consulter...

 

 

 
Comment se protéger ?


     En cas de pandémie, comme actuellement, la protection est difficile : il faudrait demander à l’ensemble de la population de porter des masques, voire des gants, de ne plus serrer les mains, de ne plus toucher aux poignées de portes, d’éviter les endroits où se retrouvent des groupes importants de personnes, etc. C’est compliqué : il s’agit là d’attitudes qui peuvent être appliquées aux personnels de santé (hôpitaux, médecins de ville) mais un peu illusoires pour l’ensemble de la population.

  
     De ce fait, et comme la maladie n’est surtout dangereuse que pour la partie la plus sensible de nos contemporains, toute la stratégie mise en place par les pouvoirs publics a consisté à gagner du temps. Empêcher enquelque sorte que la grippe ne s’étende trop vite pour permettre ainsi au vaccin d’arriver en temps et en heure ce qui est le cas à présent. En contrepoint, le temps sec et ensoleillé du début de l'automne n'est plus guère qu'un lointain souvenir : la course de vitesse entre grippe et vaccin se poursuit de plus belle... d'autant qu'une partie importante de la population reste, pour de multiples raisons, encore hostile à la vaccination. Une hostilité dont je suis près à parier qu'elle s'érodera au fur et à mesure qu'évoluera la maladie !

 

 

 
La situation est loin d’être désespérée


     La grippe A (H1N1) est un problème parce que la population mondiale n’est pas (encore) protégée contre elle. Toutefois, dans l’immense majorité des cas, les malades atteints ne seront que peu malades, ce qui est une bonne nouvelle. Il nous faut donc gagner un maximum de temps pour permettre aux personnes sensibles d’être protégées et cela doit être possible si nous acceptons un minimum de protection, à savoir les quelques mesures d’hygiène que j’ai déjà mentionnées et le maintien à leur domicile (avec si possible des masques) des personnes certainement infectées.

  
     Il n’en reste pas moins que la grippe saisonnière sera également là cet automne (d’où la nécessité d’une double vaccination) avec l’espoir qu’il n’y aura pas de « mélange » entre les différentes souches incriminées ce qui pourrait compliquer la situation. Par ailleurs, ces pandémies virales qui se multiplient ne sont quand même pas un bon signe : le vrai danger vient de la grippe aviaire, autrement plus mortelle, et l’on sait que plus il y a d’individus atteints par des virus grippaux, plus il y a de chances qu’une mutation entre ces différents vecteurs d’infection soit possible mais il s’agit là d’un autre problème.


     On pourrait résumer la situation actuelle de la façon suivante : aucune inquiétude particulière à avoir car on sera capable de fournir le vaccin à temps aux personnes qui en ont le plus besoin mais vigilance néanmoins pour éviter l’évolution planétaire défavorable d’une maladie encore banale.

 

 

 
Images


1. grippe saisonnière habituelle ou grippe A ? (sources : www.brivemag.fr)
2. structure d’un virus grippal (sources : labelblue.canalblog.com)
3. Peur de la pandémie ? (sources : www.titem.fr; crédits photo : ZYG_ZAG (Flickr)
4. facteurs de risque (source :
www.geocities.com)
5. les virus aiment l’automne (sources : boolsite.net) 

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)  

 

 

 Brève : une explosion de cas dès la rentrée, l'hypothèse haute

 

     Selon le travail de Fabrice Carrat (INSERM, université Pierre-et-Marie Curie, Paris), l'un des spécialistes mondiaux des simulations d'épidémies grippales, il faudrait s'attendre à une forte épidémie qui, au plus fort de l'infection, pourrait provoquer 900 000 nouveaux cas par jour. En 82 jours, 45 à 50% de la population serait contaminée. Entre 18 et 20 millions de personnes tomberaient malades, soit 30 à 35% de la population française. 5 à 13% d'entre elle nécessiteraient une hospitalisation et 2 à 4 pour 1000 succomberaient à la maladie - soit un total de décès allant de 36 000 à 80 000. Tel est le scénario catastrophe qu'engendrerait la grippe A(H1N1) en France... si rien n'est fait pour limiter la propagation du virus. C'est grâce à cette hypothèse complètement improbable que l'efficacité des stratégies de lutte contre la maladie peut être évaluée.

 (Science & Vie, n°1104, septembre 2009)

 

 
Mots-clés : pandémiehémagglutininesneuraminidasesOMS (Organisation Mondiale de la Santé) - recommandations de l'OMS pour la grippe H1N1 - sujets à risques – CDC (Centers For Disease Control And Prevention, Atlanta, Géorgie, USA) – immunisation antérieure – mesures d’hygiène élémentaires – climat – grippe aviaire

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

 

Sujets apparentés sur le blog

 

1. les grandes pandémies

2. le vaccin de la grippe A (H1N1)

3. retour sur la grippe A

 

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK



Mise à jour : 28 février 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

  

 

 

      Souvent les hommes ne voient que ce qu’ils veulent voir et cela les entraîne de temps en temps dans des égarements funestes. En théorie, les scientifiques ne devraient pas tomber dans ce travers puisqu’ils appuient leurs affirmations sur des observations (et, en principe aussi, sur des expérimentations) dûment constatées, partagées, critiquées et validées mais l’histoire des sciences nous prouve que ce n’est pas si simple : récemment encore des élucubrations malheureuses (je pense à « la mémoire de l’eau » qui défraya la chronique il y a quelques années) nous prouvent le contraire. Heureusement, il est difficile de tromper durablement l’ensemble de la communauté scientifique… Et pourtant !

 
     Vers la fin du XIXème siècle, dans leur désir de prouver à toute force l’existence d’une vie extra-terrestre, la presque totalité des savants de l’époque se laissèrent entraîner dans une aventure pour le moins douteuse : à les croire, on avait acquis la certitude que notre voisine, la planète Mars, était habitée par des êtres intelligents aux remarquables capacités techniques et cette affirmation laissa (et laisse parfois encore) des traces profondes dans notre inconscient collectif.
 

 


Genèse d’une folie générale


     Le XVIIIème siècle se terminant, on a enfin la preuve que notre Terre n’est pas le centre du monde (voir sujet : la Terre, centre du Monde). Les observations patientes et progressivement de plus en plus précises des siècles précédents finissent par convaincre tout un chacun que les planètes tournent bien autour du Soleil, qu’elles possèdent des satellites, qu’elles sont comme la Terre des globes rocheux et que, en somme, elles lui sont très semblables. Dès lors pourquoi ne pas imaginer qu’elles recèlent également la Vie ? Et c’est effectivement ce qu’il se passe : les Philosophes (qui font suite à la Renaissance) s’emparent du sujet, l’approfondissent, le discutent, l’exposent et, de partout, on en arrive à venir écouter, entre autres, les conférences savantes d’un Fontenelle qui disserte à n’en plus finir sur « la pluralité des mondes habités ». Les découvertes de l’astronomie moderne se multipliant (c’est à cette époque qu’on découvre deux nouvelles planètes : Uranus par William Herschel et Neptune grâce aux complexes calculs mathématiques de Le Verrier), on en est convaincu : les mêmes causes produisant les mêmes effets, la Vie existe aussi sur les autres planètes et le système solaire est forcément habité par d’autres êtres intelligents avec lesquels il ne suffit plus qu’à entrer en contact ! On scrute avec patience tous les astres du système solaire et on finit par s’en persuader : c’est Mars qui apportera la preuve irréfutable de la théorie. Le plus grand astronome français du moment, Camille Flammarion, use de tout son poids – qui est considérable – pour appuyer cette affirmation. Il écrit notamment deux livres sur le sujet (le premier alors qu’il n’a pas encore 20 ans et le second une quinzaine d’années plus tard, intitulé « la planète Mars et ses conditions d’habitabilité », ouvrage dans lequel il consacre plus de 600 pages à la planète rouge !).
 

 

 
L’observation de Mars

 
     Le premier savant (connu) à se pencher sur le problème est un Jésuite, le père Secchi, à l’aide de la lunette astronomique de l’observatoire du Vatican. Secchi décrit une grande tache en triangle qu’il va baptiser « canal de l’Atlantique » et, plus encore, croit apercevoir des bandes noires parsemant la surface de l’astre, des bandes noires qu’il dénomme également du nom de canaux. En réalité, le terme utilisé – canali en italien – signifie bras de mer mais il sera mal compris par les traducteurs étrangers, deviendra canaux et l’on sait la bonne fortune qu’aura cette appellation en réalité impropre…

 
     C’est toutefois l’astronome italien Schiaparelli qui laissera durablement son nom dans cette aventure. Schiaparelli n’est pas un inconnu : il s’agit d’un des plus grands astronomes italiens de l’époque, entre autre directeur de l’observatoire de Milan. En 1877, ce savant profite d’une opposition de Mars (c'est-à-dire lorsque la Terre se situe entre le Soleil et Mars que l’on peut donc observer quand le Soleil se couche) pour étudier la planète avec un appareil de bonne facture et il confirme les observations de Secchi. Il décrit les mêmes lignes noires qu’il baptise également canali traversant des étendues brillantes (les continents) pour aller d’une tache plus sombre à une autre (les mers). Deux ans plus tard, il croit voir des « dédoublements » de ces canaux qu’il qualifie de géminations. De ce fait, c’est sûr : il est totalement impossible que ces structures soient l’œuvre de la Nature et elles se révèlent donc forcément artificielles. Quelques années plus tard (1888), Schiaparelli publie une grande carte des canaux avec force détails et une architecture des plus complexes…

 
     Ces publications, témoignages d’une observation minutieuse, sont une véritable révolution dans le landerneau astronomique et la communauté scientifique s’emballe. Toute la communauté ? Pas vraiment car il existe quelques courageux réfractaires aux idées nouvelles.

 

 
 
Les canaux martiens ne font pas l’unanimité


    Dès le début, en 1877, des voix s‘élèvent pour contester la découverte. Celle notamment de l’anglais Nathaniel Green qui réalise sa propre carte à partir de ses propres observations effectuées au large de l’Afrique, à Madère. La carte de Green ne relève aucun canal mais Schiaparelli n’en tient évidemment aucun compte et, bien au contraire, se moque de l’anglais en notant qu’il « n’est qu’un observateur médiocre »… ce qui ne convainc pas l’intéressé. Toutefois, Green est bien seul et la saga martienne s’empare de tous les esprits. Camille Flammarion – pour ne citer que lui – sera durablement influencé par les affirmations de l’astronome italien. Un autre personnage sera également convaincu, personnage qui aura beaucoup d’importance pour la suite des événements : Percival Lowell.

 

 

 
Percival Lowell et le « grand public »

 
     Percival Lowell est un riche américain qui, astronome amateur, abandonne tout pour se consacrer exclusivement à l’étude de la planète rouge (il sera par la suite le découvreur posthume de la planète naine Pluton). Sa « vocation » lui serait venue de la lecture du livre de Flammarion sur Mars. Quoi qu’il en soit, il se lance dans l’étude de la planète avec sa lunette de 6 pouces et recherche l’endroit qui lui paraît le plus propice à ses observations. Il retient le lieu de Flagstaff, dans l’Arizona, et, en 1894, y fait construire un grand observatoire d’altitude qu’il nommera « Mars Hill ». Bien entendu, il confirme rapidement les dires de Schiaparelli et offre même une explication aux immenses constructions observées. Pour lui, les Martiens ont construit des canaux pour lutter contre la désertification en cours de Mars et, irriguant les terres à partir des calottes glaciaires de la planète, combattre ainsi la sécheresse qui progresse. Il voit même dans le dédoublement des canaux rapporté par Schiaparelli (la fameuse gémination) une preuve supplémentaire de l’ingéniosité des architectes martiens qui peuvent ainsi poursuivre l’irrigation même en cas d’obstruction d’un des canaux (qu’il imagine bordés d’une bande de végétation d’une trentaine de km de part et d’autre, un peu à la façon de ce que l’on observe dans la vallée du Nil). Par la suite, l’observatoire de Lowell tirera de multiples clichés photographiques destinés à apporter la preuve irréfutable de la théorie, des clichés en fait assez flous et peu explicites mais quand on a la foi…

 
     Lowell n’est pas qu’un simple astronome amateur doté de moyens financiers importants : c’est également un conférencier au charisme certain qui multiplie les interventions publiques et sait manier la publicité à son avantage. Avec lui, l’intérêt pour les canaux martiens gagne le grand public par ailleurs tout disposé à croire à l’existence des mystérieux petits hommes verts… C’est ainsi que, en 1898, HG Wells, très inspiré par les travaux de Lowell, fait paraître un de ses chefs d’œuvre, la « guerre des mondes », un ouvrage considérable qui contribuera pour beaucoup à la popularité de l’habitabilité de Mars !

 

 

La fin d’un rêve


     Dès 1909, grâce à la lunette de l’observatoire de Meudon, Eugène Antoniadi montre bien le caractère trompeur des canaux en expliquant qu’il existe certainement des structures éparses dues au relief tourmenté de Mars mais que leur alignement désordonné peut donner l’illusion de lignes continues. Peine perdue : les « tenants des canaux » n’en démordent pas.

 
     Comment expliquer de telles erreurs chez des scientifiques de renom ? Certainement en partie par l’insuffisance du matériel utilisé : une luminosité insuffisante des lunettes d’observation peut, par exemple, entraîner une fatigue visuelle et faire voir des lignes continues là où n’existent que des points épars. Lorsqu’on utilise des instruments plus grands, c’est la turbulence de l’air qui vient créer les artéfacts recherchés. Tout cela est vrai mais l’essentiel n’est pas là. En vérité, dans l’histoire qui nous intéresse, il s’est agi d’une authentique psychose collective qui s’est emparée d’une communauté scientifique qui ne demandait « qu’à croire ». Lorsqu’une opinion est constituée avant qu’elle ne soit prouvée, toutes les recherches vont dans le même sens et les résultats sont fatalement interprétés en fonction du point de départ… (Rappelons au passage que c'est exactement cette même démarche antiscientifique qui, 
dans le domaine de l'Evolution, anime les créationnistes de la théorie du Dessin intelligent  : voir le sujet science et créationnisme). Et l'on sait bien que rien ne peut faire douter celui qui ne veut pas savoir : jusque dans les années 1960, le successeur de Lowell en charge de la fondation multiplia les clichés et, encore à sa mort, il croyait dur comme fer à la réalité des canaux martiens…

 
     Il faudra attendre les premières sondes spatiales (en l’occurrence Mariner 4, en 1965) pour se débarrasser définitivement de ces croyances d’un autre âge… qui subsistent encore dans l’inconscient collectif de nos contemporains comme le prouve la certitude absolue de certains concernant la présence d’OVNI occupés par des êtres intelligents venant de temps à autre nous rendre visite. Pourtant, à la suite des différentes missions automatisées envoyées dans tout le système solaire et de leurs extraordinaires photographies et séries de mesures, on sait avec certitude qu’il ne peut exister de vie organisée industrielle sur les autres planètes (et la première étoile proche est si lointaine…) mais rien n’y fait. Comme on le dit - non sans humour - dans la série X-Files : I want to believe !

 

 

 
Photos

 

1.  la planète Mars qui doit sa couleur rouge à des dépôts d'oxyde de fer (sources : boolsite.net)

2. Camille Flammarion (sources : astrosurf.com)

3. carte des canaux de Schiaparelli (sources : lecomplotdespapillons.blogspot.com)

4. Percival Lowell (sources : nirgal.net)

5. couverture du livre "la Guerre des mondes" de Wells (sources : decitre.fr)

6. preuve par Antoniadi de l'illusion des canaux martiens (sources : daviddarling.info)

7. vue d'artiste des canaux martiens (sources : nirgal.net, crédits photos  : Chesley Bonestell)

(Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)
 

 

 
Mots-clés : vie extraterrestreFontenelleCamille FlammarionAngelo Secchi – canali - Giovanni Schiaparelli – opposition planétaire – gémination – Nathaniel Green – Percival LowellHerbert George WellsEugène Antoniadi - Mariner 4X Files 

 (les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

 Sujets apparentés sur le blog

 

1. la Terre, centre du Monde

2. Intelligent Design

3. Science et créationnisme

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

Mise à jour : 28 février 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #divers

 

 

étoile double Régulus et galaxie naine Leo 1

 

     

     Un anniversaire est toujours un peu l’occasion de dresser le bilan de l’année qui vient de s’écouler. L’an dernier, j’avais passé en revue les articles qui avaient ici fait l’objet d’une publication. Pour le début de cette troisième année du blog, je me propose de le revisiter – comme on dit aujourd’hui de façon quelque peu pompeuse – afin d’en dresser une sorte de thématique globale qui, comme on le découvrira facilement, tourne toujours autour de la notion de Vie (et plus spécifiquement de la place de l’Homme dans le grand concert universel).
     En effet, quelle que soit la discipline choisie (astronomie, paléontologie, éthologie, etc.), la Vie – je veux dire la Vie telle qu’on la connaît sur Terre et qu’on la soupçonne dans l’univers – est le point commun de tous les sujets abordés. Que l’on aborde la géographie spatiale de la planète où nous savons qu’elle existe, les mécanismes supposés de son apparition et de son évolution ou, ailleurs, les fondements physicochimiques qui lui ont permis d’exister, c’est toujours elle le pivot central de notre propos. Je me propose donc de revenir sur une présentation (quasi-lapidaire) des différents articles mais regroupés de façon thématique (Chaque fois, bien sûr, des liens renverront au sujet concerné). Il va de soi que tout cela est loin d’être exhaustif : il ne s’agit que d’une première approche que des articles futurs viendront compléter autant que faire se peut.

 

  

Le lieu 


     Pour essayer de comprendre ce qu’est la Vie, il est tout d’abord indispensable de connaître l’endroit où elle a pu apparaître, c'est-à-dire l’Univers qui nous entoure et dont nous sommes partie intégrante. L’astronomie, principalement, répond ici à cette recherche, tant d’un point de vue descriptif que prospectif.


Big Bang et origine de l’Univers : le point de départ le plus probable de ce dans quoi nous vivons ;

 
Fonds diffus cosmologique : la preuve, découverte fortuitement, de la validité du modèle cosmologique du Big Bang ;

 
Distances et durées des âges géologiques : pour essayer d’entrevoir la trace infinitésimale de la trajectoire humaine dans le cosmos passé et à venir ;

 
Les galaxies : notre galaxie, la Voie lactée n’est que l’une parmi des milliards d’entre elles ;

 
Mort d’une étoile : comprendre les différents types d’étoiles et leur devenir afin de situer notre Soleil parmi elles ;

 
Place du Soleil dans la Galaxie : notre étoile est une étoile quelconque, plutôt excentrée, dans une banale galaxie parmi d’autres ;

 
Céphéides : les étoiles si particulières qui ont permis de comprendre combien l’Univers est immense ;


La Terre, centre du monde : pour en finir avec l’absurde anthropocentrisme des siècles passés ;


Météorites et autres bolides : des corps célestes multiples dans la banlieue de la Terre qui peuvent théoriquement poser problème ;

 
Etoiles doubles et systèmes multiples : il existe beaucoup d’autres types de systèmes stellaires que celui de notre Soleil mais pas forcément exotiques pour autant ;

 
Amas globulaires et trainards bleus : d’autres étoiles, bien différentes de la nôtre ;


Trous noirs : des objets étranges, prévus par la théorie, dont l’existence a été longtemps sujette à caution ;

 

Pulsars et quasars : d’autres objets mystérieux de l’espace dont on sait aujourd’hui décrypter la structure ;

 
Matière noire et énergie sombre : environ 90% de la matière contenue dans l’Univers est invisible et encore inconnue de nos jours .

 

 

Les moyens


     Que savons-nous des mécanismes fondamentaux qui régissent notre univers ? Quels sont ses composants de base ? Voici quelques pistes de réflexion.


Les constituants de la matière : il semble impossible de comprendre l’Univers et ses lois sans en connaître les éléments de base ; parlons alors des atomes et des grandes lois universelles qui régissent la matière;


Théorie de la relativité générale : grâce à Einstein, nous pouvons à présent expliquer les phénomènes cosmiques car ce scientifique génial a pu démontrer que les lois physiques sont les mêmes partout, ici et aux confins de l’univers;


Mécanique quantique : si la relativité générale explique le macro-univers, celle-ci ne peut s’appliquer à l’échelon de l’atome ; c’est alors qu’intervient la mécanique quantique et ses concepts extraordinaires – voire apparemment incompréhensibles – qui n’a pourtant jamais été prise en défaut.

 

 

L’origine


     Sait-on comment est apparue la Vie telle que nous la connaissons ? Peut-on seulement définir ce qu’elle est ?


L’origine de la Vie sur Terre : longtemps abandonnée aux phantasmes de tous genres, ce problème fondamental a été récemment abordé par la science qui possède à présent quelques pistes sérieuses pour l’éclaircir ;


Pour une définition de la vie : quels sont les critères nécessaires pour savoir si un être est vivant ou non ? Le sujet s’efforce d’en définir les priorités.

 

  
L’évolution


     Les êtres vivants d’aujourd’hui sont le fruit d’une très longue évolution. Des milliards d’individus, des millions d’espèces nous ont précédés : comment expliquer ce long cheminement ?

 
Les mécanismes de l’évolution : seule la théorie de l’évolution mise en place par Charles Darwin et complétée par nombre de chercheurs peut expliquer de façon scientifique et cohérente la transformation progressive des espèces vivantes ; on trouvera dans ce sujet le résumé des principales caractéristiques de cette incontournable loi de la nature ;

 
Evolution de l’évolution : pour démontrer, s’il en était besoin, que la théorie de l’évolution est tout sauf statique, voici un sujet qui traite des mutations épigénétiques, une découverte qui aurait fait scandale chez les scientifiques il y a encore peu ;

 
Le schiste de Burgess : à partir de quelques fossiles fort anciens et d’abord mal interprétés, le paléontologue S J Gould a pu expliquer pourquoi les lois de l’évolution reposent avant tout sur le hasard et la nécessité ;

 
L’œil, organe phare de l’évolution : les créationnistes n’arrivaient pas à comprendre comment un organe aussi complexe que l’œil avait pu apparaître sans plan préétabli ; l’article revient sur ce qui n’est finalement que de la logique simple qui vient en parfait appui des thèses darwiniennes ;

 

Les extinctions de masse : au cours des âges géologiques, la disparition concomitante d’un grand nombre d’espèces a failli faire disparaître la vie sur notre planète. Etat des lieux ;

 
La disparition des dinosaures : retour sur l’une des extinctions massives d’espèces la plus médiatisée et sur ce que l’on peut en savoir aujourd’hui ;

 
Le dernier ancêtre commun : sait-on quelle fut l’apparence de l’ancêtre commun aux primates et si même il exista ?

 
East Side Story, la trop belle histoire : avec le paléontologue Yves Coppens, on était tombé d’accord pour situer l’apparition des ancêtres directs de l’homme moderne quelque part dans la vallée du Rift, en Afrique de l’est. On s’était trompé ;

 
Neandertal et Sapiens, une quête de la spiritualité : l’homme moderne est-il le seul à avoir jamais eu accès à une certaine dimension spirituelle ? L’étude de sa brève coexistence avec l’homme de Neandertal prouve le contraire. Qui était donc Neandertal et pourquoi cette autre espèce d’hommes a-t-elle si brutalement disparu ?

 
Le propre de l’homme : quelles différences autres que de degré existe-t-il entre les hommes et les autres habitants de la Terre ? Il n’est pas si facile d’en trouver, l’Homme étant lui-même un grand singe seulement doté d’un cerveau plus volumineux ;

 
La machination de Piltdown : dans le domaine scientifique aussi, il peut exister des faux plus ou moins élaborés qu’il faut du temps pour démasquer. En voici un exemple emblématique.

 

 
Description et moyens d’existence


     Comment la Vie se maintient-elle sur notre planète ? Quels sont ses moyens de survie ? Est-elle si fragile ?


Indifférence de la Nature : à l’aide d’exemples concrets, ce sujet s’efforce de montrer que la Nature n’est ni injuste, ni cruelle (des appréciations purement humaines) mais seulement indifférente car avant tout utilitaire ;


L’agression : l’agression (notamment interspécifique) n’est pas ce que l’on croit, c’est à dire archaïque, mais seulement un moyen pour la Nature de réguler les populations des êtres vivants ;


Reproduction sexuée et sélection naturelle : la reproduction sexuée est le mode de transmission des gènes le plus répandu car un excellent moyen de brasser les potentiels génétiques qui, seuls, permettent aux espèces vivantes de progresser en s’adaptant au milieu ;


Insectes sociaux et comportements altruistes : l’altruisme est avant tout utilitaire et les insectes sociaux un bon exemple pour le prouver ;

 

Les grandes pandémies : un autre moyen pour la Nature de réguler les flux de populations ? Méfions-nous, en tout cas, car nous ne sommes pas à l’abri de tels cataclysmes ;


Mécanismes du cancer : les cellules vieillissantes sont souvent le siège de développements anarchiques qui mettent en jeu l’organisme tout entier qui les abrite. Ce sujet rappelle les différents mécanismes qui concourent à l’apparition de cette terrible maladie ;


Cellules-souches : un espoir pour la médecine et pour l’Humanité mais qui pose aussi de nombreux problèmes éthiques ;


Vie extraterrestre (1) et vie extraterrestre (2) : la Vie n’est elle que l’apanage de la Terre ? Cet article passe en revue les différentes conditions nécessaires à son apparition et cherche à en estimer les probabilités statistiques dans l’Univers ;


Médecines parallèles et dérives sectaires : de nombreuses disciplines se targuent de « guérir » l’Homme de ses maux et il faut donc prendre garde de ne pas tomber dans le piège des dogmatismes ;


L’homéopathie : une médecine dite douce dont on attend encore les preuves de son efficacité ;

 

 
L’avenir


     Peut-on prévoir un futur lointain ? Quelles traces laisseront nous de notre passage dans ce monde si vaste ?


La mort du système solaire : on sait très précisément comment finira notre Soleil et son cortège de planètes. Heureusement, on évoque ici un avenir extrêmement lointain ;


La paléontologie du futur : quelles traces de notre passage laisserons–nous à nos lointains descendants et, surtout, comment faire pour que ces futurs découvreurs comprennent ce que nous fûmes ?

 

 
Les polémiques


     La structure de l’univers, l’histoire de la Terre et l’Evolution des êtres vivants telles que nous les apprend la science sont contestées par certains pour des raisons plus ou moins avouables. L’obscurantisme est encore bien présent dans notre monde. Retour sur quelques grandes controverses.


Astronomie et astrologie : l’astrologie n’est pas une science mais la survivance d’un passé obscurantiste ; l’astronomie, seule, est capable d’interpréter l’Univers de façon scientifique et cohérente ;


L’âme : ce concept éthéré n’est-il que religieux ? Comment la science pourrait-elle en affirmer l’existence ?


Evolution et créationnisme : toutes les avancées scientifiques de ces dernières années, dans tous les domaines, démontrent le bien-fondé de la théorie de l’évolution. Certains, pour des raisons diverses mais toujours antiscientifiques, ne s’y résignent pas : on les appelle des créationnistes ;


Intelligent design : un avatar de plus des théories créationnistes. Pourtant, même aux USA où le créationnisme est puissant, on ne lui accorde heureusement pas le statut de théorie scientifique ;


Réponses aux créationnistes : ce sujet passe en revue les principales réponses à opposer aux arguments créationnistes dont certains peuvent se révéler spécieux.

 

 

     Cette longue énumération thématique (regroupant près de cinquante articles parfois en apparence très différents) résume bien l’esprit du blog : comprendre le monde et le vivant selon les approches scientifiques les plus récentes (éventuellement réécrites en fonction des données nouvelles). Evidemment ce blog ne saurait être exhaustif ce qui, d’ailleurs, est impossible. Ce sera le rôle des publications futures que d’en compléter la trame et, à ce sujet, je souhaite rappeler que toutes les suggestions de sujets à développer et les commentaires divers sont ici les bienvenus… Je forme le vœu qu’il y en ait beaucoup.

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 

 

Images :

 

1. étoile double Régulus et la galaxie naine Leo 1 (sources : cidehom.com)

2. une planète, la Terre (sources : www.gulli.fr)

3. Einstein et la relativité générale (sources : espritscience.blogspot.com)

4. un virus est-il vivant ? (sources : www2.crifpe.ca)

5. évolution humaine (sources : fr.wikipedia.org)

6. l'agression (sources : mdt.skynetblogs.be)

7. mort du système solaire (sources : ajir.org)

8. Adam et Eve au musée créationniste de Petersburg, Kentucky (sources : www.vigile.net)

mise à jour : 28 février 2023

Voir les commentaires

Publié le par cepheides
Publié dans : #astronomie

 

système planétaire
système solaire (vue d'artiste)

 

    

     Il peut sembler étrange de vouloir mélanger des durées et des distances qui, dans notre monde fini, relèvent de deux concepts différents mais ce n’est pas le cas en astronomie. En effet, la vitesse de la lumière (environ 300 000 km par seconde), une constante indépassable, est limitée : dès lors, si l’on regarde en direction du ciel, les objets observés sont à la fois lointains et situés dans le passé (à l’exception relative de notre environnement proche mais nous y reviendrons). Très vite, ces distances et ces durées relèvent de chiffres qu’il est bien difficile pour notre cerveau habitué à notre planète (un monde fini et minuscule) d’appréhender véritablement : que peut bien signifier 100 millions d’années-lumière (al) d’éloignement ou un milliard d’années dans le passé ? C’est la raison pour laquelle, afin de relativiser ces nombres pharamineux, l’esprit humain a souvent cherché des comparaisons qui lui « parlent » mieux : nous en verrons quelques unes.


 

 
Les âges géologiques

 

 
     Aux dernières estimations actuellement en vigueur, notre Univers est âgé de 13,6 milliards d’années tandis que notre Soleil et son cortège de planètes (dont notre Terre) se sont créés il y a 4,5 milliards d’années. Intéressons-nous dans un premier temps à l’histoire de notre bonne vieille Terre. Grâce aux diverses méthodes de datation des roches, nous pouvons subdiviser son âge en différentes périodes : pour plus de commodité, appelons temps 0 la création de notre planète à partir du nuage protosolaire et + 4.5 milliards d’années aujourd’hui (Evidemment, pour être plus proche de la réalité, les scientifiques comptent, eux, en temps négatifs). Nous trouvons alors :

  
   • le précambrien qui s’étend de 0 à + 3,96 milliards d’années,

  
   • l’ère primaire (ou paléozoïque) de + 3.96 à + 4,255 milliards d’années, cette ère étant elle-même subdivisée en plusieurs périodes allant du cambrien au permien,

  
   • l’ère secondaire (ou mésozoïque) de + 4,255 à + 4,435 milliards d’années et comprenant trois périodes, le trias, le jurassique et le crétacé,

  
   • l’ère tertiaire (à présent regroupée avec le quaternaire dans une ère unique appelée cénozoïque) allant de + 4, 435 à + 4,498 milliards d’années

 
   • Et l’ère quaternaire (cénozoïque également) allant de + 4,498 milliards d’années à aujourd’hui.

 
     Dit de cette manière, c’est vrai, ce n’est guère parlant. On peut donc proposer une autre lecture, plus facile à comprendre : essayons de rapporter l’histoire de la Terre à une seule année et voyons ce que donnerait la précédente description. Dans notre nouveau modèle, la création de la Terre se situerait autour du premier janvier de cette année fictive et :

 
   • Le précambrien s’étendrait alors jusqu’à la mi-septembre (il s’agit, bien sûr, d’approximations). C’est durant cette ère que sont apparues les premières créatures pluricellulaires vivantes, à savoir des invertébrés (dont les corps mous nous ont laissé peu de traces) et, selon notre nouvelle approche, cela se situait aux environs de la fin du mois d’août-début du mois de septembre…

 
   • Vient ensuite l’ère primaire, de la mi-septembre à la mi-novembre : c’est à la fin du permien (mi-novembre) qu’a eu lieu la grande extinction qui détruisit 95% des espèces marines alors vivantes et « seulement » 70% des espèces terrestres (voir le sujet les extinctions de masse 
et la grande extinction du Permien)…

 
   • L’ère secondaire, de la mi-novembre aux derniers jours de décembre voit la domination des grands sauriens qui disparaissent à la fin du crétacé, c'est-à-dire quelque part aux environs du 20 décembre ;

 
   • Le cénozoïque occupe la fin de l’année : les premiers hominidés (Toumaï) sont datés d’il y a 7 millions d’années ce qui les situe d’après notre modèle vers les tout derniers jours de décembre. Et l’Homme « moderne » dans tout cela ? Eh bien, son apparition et son extension fulgurante comme actuel animal dominant de la planète trouvent place le 31 décembre, une heure peut-être avant la nouvelle année

 
     Une autre métaphore pour comprendre ces abîmes du temps est de comparer la vie sur Terre à la hauteur de la tour Eiffel : en pareil cas, la présence de l’Homme ne représenterait (en taille) que l’épaisseur de la couche de peinture située sur un des parapets du troisième étage du monument…

 
     Ces façons différentes (mais peu scientifiques, je le reconnais) de dater les événements sont certainement plus parlantes : elles ont, en tout cas, le mérite de nous montrer de manière frappante combien nous sommes les héritiers d’une longue, très longue histoire qui nous a vu précédés par des millions de générations d’animaux qui ont vécu, souffert, se sont reproduits pour, le plus souvent en fin de compte, disparaître sans laisser de traces. Cette pensée devrait nous rendre modestes…

 

 

 

Les distances astronomiques

 

 
     Nous venons d’évoquer les durées de temps écoulées depuis l’apparition de la Terre : elles sont, comme on l’a vu, colossales. Pourtant, l’Univers est approximativement plus de trois fois plus vieux que notre système solaire ! Or, chose remarquable, quand on observe les objets du ciel, on voit le passé : observée, par exemple, par le télescope spatial Hubble, une galaxie qui serait située à, disons, 8 milliards d’années-lumière, se présente à nos yeux comme elle était il y a 8 milliards d’années, c’est-à dire avant la création de notre Soleil… Comment se présente-t-elle réellement aujourd’hui ? Comment se fait-il que sa lumière ait mis si longtemps à nous parvenir ?

 
     C’est que l’univers est gigantesque, s’étendant sur des distances que le cerveau humain a du mal à se représenter. Très tôt dans l’histoire moderne de l’humanité, il a fallu se rendre à l’évidence : les distances calculées en millions voire en milliards de km ne représentent rien à l’échelle de l’univers. Le seul moyen pour déterminer les distances auxquelles se situent les objets astronomiques est de se référer à une autre dimension d’échelle et c’est la raison pour laquelle les scientifiques ont choisi la lumière. Si cette dernière nous paraît se transmettre de façon instantanée dans notre quotidien, il n’en est bien sûr pas de même entre les étoiles – et plus encore les galaxies – qui sont séparées par des distances à nos yeux pharamineuses. C’est ainsi que, même à sa vitesse pourtant conséquente de 300 000 km chaque seconde (en fait, plus précisément 299 792,458 km/s), il lui faut plus de quatre ans pour nous parvenir de notre voisine stellaire la plus proche, justement appelée Proxima du Centaure… Voyons cela de plus près (si j’ose dire).

 

 
          La proche banlieue


     Il s’agit évidemment de notre système solaire. La Terre, seulement la troisième planète du système, tourne autour du Soleil à une distance d’environ 150 millions de km ce qui, en vitesse lumière, représente approximativement 8 minutes. En d’autres termes, si le Soleil venait brusquement à s’éteindre, sa lumière nous éclairerait durant encore huit minutes… Cette distance de 8 minutes-lumière est d’ailleurs appelée unité astronomique (ou UA) et elle permet de situer de façon plus aisée les différents éloignements de nos compagnes planétaires du système.

 
     La plus grande des planètes de notre système, Jupiter, cinquième par le rang, est quant à elle située à 778 000 000 de km ou 5,2 UA. C’est déjà beaucoup plus loin puisque cela représente un peu plus de 40 minutes-lumière ! La dernière véritable planète du système, Neptune (puisque Pluton a été récemment rétrogradée en planète naine) se trouve à 30 UA, soit 4 heures-lumière. Toutefois, la zone considérée comme appartenant au système solaire ne s’arrête pas là : elle se situe à environ quatre fois la distance Soleil-Neptune, soit 120 UA environ. Il s’agit là d’un endroit aux limites finalement imprécises où le vent solaire (c'est-à-dire le flux plasmatique provenant de l’atmosphère solaire) entre en contact avec les vents provenant du milieu interstellaire.

 
     Ces chiffres peuvent paraître quelque peu abstraits. Prenons ici aussi une image nous permettant de mieux réaliser ce qu’ils représentent. Imaginons que nous posions sur le sol une orange sensée représenter le Soleil. La Terre serait alors une bille minuscule de la taille d’une tête d’épingle placée à 15 m de l’orange, Jupiter une bille de la taille d’une olive à 77 m et Neptune un petit pois à 450 m. La zone d’influence du Soleil s’étendrait quant à elle jusqu’à environ 1,5 à 2 km ! Et l’étoile la plus proche, Proxima du Centaure ? Eh bien, elle serait à environ… 4000 km.

 

 
          La Galaxie


     Les distances que nous venons de voir paraissent immenses ? Elles sont pourtant minuscules à l’échelle de notre galaxie, la Voie lactée. En effet, cette dernière (où le Soleil occupe une place relativement excentrée, voir le sujet place du Soleil dans la Galaxie) est un disque oblong d’un diamètre d’un peu moins de 100 000 al pour une épaisseur de 1 300 al et elle contient entre 200 et 400 milliards d’étoiles ! Chacune de ces étoiles est séparée par un grand vide cosmique (comme celui entourant le Soleil) à l’exception – peut-être – du halo central galactique où elles sont plus nombreuses et donc un peu plus proches les unes des autres. Une image ? Eh bien disons que si le système solaire est représenté par un grain de sable, la Galaxie est en proportion une petite plage

 
     La Voie lactée appartient à ce que l’on appelle le « groupe local » qui est un ensemble d’une trentaine de galaxies dont les plus importantes sont notre galaxie et la galaxie d’Andromède M31. Ces galaxies sont suffisamment proches (tout est relatif, évidemment) pour subir leurs attractions réciproques. C’est ainsi que dans un avenir très lointain - 2 à 3 milliards d’années – la Voie lactée et Andromède finiront par fusionner en un super ensemble mais, comme on l’a déjà dit, les distances entre les étoiles sont si immenses qu’aucune d’entre elles ne devrait en heurter une autre.

 

 
          Au-delà

 
     Il existe des milliards d’amas de galaxies (un amas en contient approximativement une centaine) également organisés en superamas mais ces amas sont si distants les uns des autres que, contrairement à ce qui se passe pour le groupe local auquel nous appartenons, leurs forces d’attraction ne peuvent jouer : de ce fait, ces amas de galaxies s’éloignent les uns des autres à la vitesse de l’expansion de l’univers et cela dans toutes les directions (C’est ce qui avait tant intrigué les premiers découvreurs de galaxies - comme Edwin Hubble - qui voyaient bien que leurs spectres tiraient tous vers le rouge signifiant la fuite – le redshift des anglo-saxons – au contraire de celles du groupe local évidemment). Les distances entre les amas de galaxies sont si incroyables que je ne peux vous proposer de métaphores véritablement valides pour les exprimer…

 

 
          Au bout du bout de l’univers (connu)

 
     On trouve partout le fameux rayonnement fossile (voir le sujet fond diffus cosmologique) qui témoigne dans toutes les directions des premiers instants visibles qui ont succédé au Big Bang. Lorsqu'un de nos satellites enregistre des images de ce rayonnement, il regarde à 13,6 milliards d’années dans le passé, un chiffre qu’il me semble impossible de saisir et de vraiment comprendre autrement qu’intellectuellement…
 

 
     Dans ce bref exposé, j’espère vous avoir fait comprendre combien l’univers, notre univers, est immense et, par contre coup, combien notre planète et même le système solaire sont infimes. Par ailleurs, la vie des hommes est si brève que, comparée à l’ancienneté et à l’immensité de l'univers dans lequel ils se trouvent, ils ne représentent rien de plus que de simples bactéries par rapport à la taille et à l’âge de la Terre. Pourtant, les hommes, ces infimes créatures, ont su – au moins partiellement – décrypter leur environnement. Ce qui, en fin de compte, est loin d'être négligeable.

 

     Existe-t-il d’autres intelligences dans cette immensité ? Les calculs statistiques nous disent que oui (voir le sujet vie extraterrestre 2). Alors soit ! Mais, en réalité, le problème n’est pas là : s’ils existent – et si nous pouvons arriver à nous comprendre – comment faire pour passer outre aux limitations induites par ces distances vertigineuses, alors que l’on sait qu’une information ne pourra mettre moins de 4 ans pour atteindre Proxima du Centaure (qui, naine rouge, n’est certainement pas susceptible de voir se développer la Vie sur une de ses planètes, si elles existent) et autant pour en revenir ? Comment communiquer avec les étoiles plus lointaines tant est brève – à l’échelle de l’Univers – la durée d’une civilisation humaine ? J’avoue que j’aimerais bien le savoir.

 

 

 

 

 

Images :

1. le système solaire (sources : le-systeme-solaire.net)

2. les âges géologiques (sources : www.sepaq.com)

3. Jupiter (sources : www.science-et-vie.com)

4. voilà à quoi doit ressembler la Voie lactée vue de l'extérieur (sources : addlaseyne.free.fr)

5. amas de galaxies Abell 1689 (sources : www.futura-sciences.com)

6. fond diffus cosmologique photographié par le satellite WMAP, de la NASA, en 2003 (sources : wikipedia.fr)

 (Pour lire les légendes des illustrations, passer le pointeur de la souris dessus)  

 

 

 

 

 

Mots-clés : vitesse de la lumière - paléozoïque - mésozoïque - cénozoïque - Jupiter - Neptune - vent solaire - Voie lactée - galaxie d'Andromède M31 - amas de galaxies - superamas de galaxies - expansion de l'Univers - rayonnement fossile (fonds diffus cosmologique)

(les mots en gris renvoient à des sites d'informations complémentaires)

 

 

 

 

Sujets apparentés sur le blog

 

1. céphéides

2. place du Soleil dans la Galaxie

3. Big bang et origine de l'Univers

4. l'origine de la Vie sur Terre

5. la querelle sur l'âge de la Terre

6. la dérive des continents ou tectonique des plaques

7. origine du système solaire

8. les extinctions de masse

9. les sondes spatiales Voyager

10. l'expansion de l'Univers

11. la grande extinction du Permien

 

 

 

Dernier sommaire général du blog : cliquer ICI

 

 

 L'actualité du blog se trouve sur FACEBOOK

 

 Mise à jour : 28 février 2023

Voir les commentaires

<< < 10 11 12 13 14 15 16 17 18 19 > >>

copyrightfrance-logo17

Articles récents

 POUR REVENIR À LA PAGE D'ACCUEIL : CLIQUER SUR LE TITRE "LE BLOG DE CEPHEIDES" EN HAUT DE LA PAGE 

 

 

Sommaire général du blog : cliquer ICI

 

 

 

 

Fréquentation

à fin mars 2024

 

Visiteurs uniques : 660 571

 

Pages/articles vus : 943 732

 

 

 

Du même auteur, en lecture libre :

 

Alcyon B, roman de science-fiction (alcyon.eklablog.com)

 

Viralité, roman (djeser3.eklablog.com)

 

Camille, roman (djeser4.eklablog.com)

 

La mort et autres voyages, recueil de nouvelles (djeser2.over-blog.com)

 

 

 

Hébergé par Overblog