
Deux personnes pourraient-elles repeupler la Terre ?
15/1/2026 | 2min
La question est fascinante, presque mythique : deux personnes seulement pourraient-elles repeupler la Terre après une catastrophe mondiale ? D’un point de vue scientifique, la réponse courte est non. Et la réponse longue est encore plus intéressante.Commençons par la génétique. Pour qu’une population soit viable à long terme, il faut une diversité génétique suffisante. Cette diversité permet d’éviter l’accumulation de mutations délétères, responsables de maladies graves, de stérilité ou de malformations. Avec seulement deux individus, toute la descendance serait issue de relations incestueuses, génération après génération. Très rapidement, les effets de la consanguinité extrême deviendraient catastrophiques.On appelle cela la dépression de consanguinité. Elle entraîne une baisse de la fertilité, une augmentation de la mortalité infantile et une vulnérabilité accrue aux maladies. Chez les humains, ces effets apparaissent dès les premières générations. Autrement dit, même si deux personnes pouvaient avoir des enfants, leurs petits-enfants et arrière-petits-enfants auraient de très fortes probabilités de ne pas survivre ou de ne pas se reproduire.Les biologistes utilisent souvent un concept appelé population minimale viable. Pour l’espèce humaine, les estimations varient selon les modèles, mais elles convergent vers un minimum de plusieurs milliers d’individus pour assurer une survie à long terme sans assistance technologique. Certains scénarios très optimistes évoquent quelques centaines d’individus, mais jamais deux.Il existe une règle empirique connue sous le nom de règle des 50/500. Elle suggère qu’il faut au moins 50 individus pour éviter une extinction immédiate due à la consanguinité, et environ 500 pour maintenir une diversité génétique stable à long terme. Même cette règle est aujourd’hui jugée trop optimiste pour les humains.Mais la génétique n’est pas le seul problème. Deux personnes devraient aussi assurer la survie matérielle : produire de la nourriture, élever des enfants, se protéger des maladies, transmettre des connaissances, maintenir des outils, et faire face aux accidents. Or une population minuscule est extrêmement vulnérable aux aléas : une infection, une blessure grave ou une complication lors d’un accouchement pourrait suffire à tout faire disparaître.Certains objecteront que la technologie pourrait aider. En théorie, des banques de gamètes, le clonage ou l’édition génétique pourraient augmenter artificiellement la diversité. Mais dans ce cas, on ne parle plus vraiment de “deux personnes”, mais d’un système technologique complexe préservant une population virtuelle.Enfin, les données de la paléogénétique sont claires : même lors des périodes où l’humanité a frôlé l’extinction, comme il y a environ 70 000 ans, la population humaine ne serait jamais descendue en dessous de quelques milliers d’individus.Conclusion : deux personnes ne pourraient pas repeupler la Terre. Le mythe est puissant, mais la biologie est implacable. Pour survivre, une espèce a besoin non seulement de reproduction, mais surtout de diversité, de résilience et de nombre. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pourquoi les détecteurs d'IA ne sont-ils pas fiables ?
14/1/2026 | 2min
Depuis l’explosion des outils d’intelligence artificielle générative, une nouvelle promesse est apparue : celle des détecteurs d’IA, censés distinguer un texte écrit par un humain d’un texte produit par une machine. Ces outils sont désormais utilisés dans l’éducation, le journalisme ou le recrutement. Pourtant, d’un point de vue scientifique, leur fiabilité est profondément limitée. Et un exemple devenu célèbre l’illustre parfaitement : l’un de ces détecteurs a affirmé que la Déclaration d’Indépendance américaine de 1776 avait probablement été écrite par une IA.Pourquoi un tel non-sens est-il possible ? La réponse tient au fonctionnement même de ces détecteurs.La plupart des détecteurs d’IA reposent sur des analyses statistiques du langage. Ils mesurent des critères comme la “prévisibilité” des mots, la régularité syntaxique ou ce que l’on appelle la perplexité. Un texte est jugé “suspect” s’il semble trop fluide, trop cohérent ou trop régulier. Le problème est évident : un bon texte humain peut parfaitement présenter ces caractéristiques, en particulier s’il est formel, structuré ou rédigé avec soin.À l’inverse, un texte généré par une IA peut facilement échapper à la détection s’il est légèrement modifié, paraphrasé ou enrichi d’erreurs volontaires. En pratique, quelques changements stylistiques suffisent à faire basculer le verdict. Cela montre une première faiblesse majeure : ces outils détectent des styles, pas des auteurs.Deuxième problème fondamental : les IA génératives sont elles-mêmes entraînées sur d’immenses corpus de textes humains. Elles apprennent à imiter la façon dont les humains écrivent. Plus elles progressent, plus leurs productions se rapprochent des distributions statistiques du langage humain. Résultat : la frontière mathématique entre texte humain et texte artificiel devient floue, voire inexistante. D’un point de vue théorique, il n’existe aucun “marqueur universel” de l’écriture humaine.Troisième limite : les détecteurs sont souvent entraînés sur des données datées ou biaisées. Ils comparent un texte à ce que “ressemblait” une IA à un instant donné. Mais dès qu’un nouveau modèle apparaît, avec un style différent, la détection devient obsolète. C’est une course perdue d’avance : l’IA évolue plus vite que les outils censés la repérer.L’épisode de la Déclaration d’Indépendance est révélateur. Ce texte, rédigé au XVIIIᵉ siècle, est formel, très structuré, peu émotionnel et linguistiquement régulier. Exactement le type de style que les détecteurs associent — à tort — à une IA moderne. Cela prouve que ces outils confondent classicisme stylistique et artificialité.En résumé, les détecteurs d’IA ne sont pas scientifiquement fiables parce qu’ils reposent sur des heuristiques fragiles, qu’ils confondent forme et origine, et qu’ils tentent de résoudre un problème peut-être insoluble : distinguer deux productions qui obéissent aux mêmes lois statistiques. Leur verdict ne devrait jamais être considéré comme une preuve, mais au mieux comme un indice très faible, et souvent trompeur. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les neutrinos sont-ils vraiment plus rapides que la lumière ?
13/1/2026 | 3min
En 2011, une annonce a fait l’effet d’une bombe dans le monde scientifique : des chercheurs affirmaient avoir mesuré des neutrinos allant plus vite que la lumière. Si cela avait été vrai, cela aurait remis en cause l’un des piliers de la physique moderne, hérité d’Albert Einstein. Mais que s’est-il réellement passé ? Et pourquoi parle-t-on encore aujourd’hui de l’expérience OPERA ?Commençons par les bases. Les neutrinos sont des particules extrêmement légères, presque sans masse, qui interagissent très peu avec la matière. Des milliards d’entre eux traversent votre corps chaque seconde sans que vous ne le sentiez. Ils sont produits en grande quantité dans les réactions nucléaires, comme celles du Soleil ou des accélérateurs de particules.L’expérience OPERA consistait à mesurer le temps de trajet de neutrinos envoyés depuis le CERN, près de Genève, jusqu’à un détecteur situé sous le massif du Gran Sasso, en Italie. Distance : environ 730 kilomètres. Objectif : vérifier que les neutrinos, comme prévu, se déplacent à une vitesse très proche de celle de la lumière, mais sans la dépasser.Or, surprise : les premières mesures indiquaient que les neutrinos arrivaient environ 60 nanosecondes trop tôt. Autrement dit, ils semblaient dépasser la vitesse de la lumière d’environ 0,002 %. Une différence minuscule, mais suffisante pour bouleverser toute la relativité restreinte, qui affirme qu’aucune information ni particule ne peut aller plus vite que la lumière dans le vide.Face à un résultat aussi extraordinaire, les chercheurs ont fait ce que la science exige : ils ont douté. Car en science, une découverte révolutionnaire impose un niveau de vérification exceptionnel. Très vite, d’autres équipes ont tenté de reproduire la mesure, tandis que les ingénieurs ont passé au crible chaque élément du dispositif.Et c’est là que l’explication est apparue. Deux problèmes techniques étaient en cause. D’abord, un câble à fibre optique mal connecté, qui introduisait un décalage dans la synchronisation des horloges. Ensuite, un oscillateur défectueux, utilisé pour mesurer le temps. Pris séparément, ces défauts semblaient insignifiants ; combinés, ils expliquaient parfaitement l’avance apparente des neutrinos.Une fois ces erreurs corrigées, les nouvelles mesures ont confirmé ce que la physique prédisait depuis un siècle : les neutrinos ne dépassent pas la vitesse de la lumière. Ils s’en approchent énormément, mais restent en dessous.Alors pourquoi cet épisode est-il important ? Parce qu’il montre la science en action. Les chercheurs n’ont pas caché un résultat dérangeant. Ils l’ont publié, soumis à la critique, testé, puis corrigé. OPERA n’a pas renversé Einstein, mais elle a rappelé une règle fondamentale : des résultats extraordinaires exigent des preuves extraordinaires.En résumé, non, les neutrinos ne sont pas plus rapides que la lumière. Mais l’expérience OPERA reste un excellent exemple de rigueur scientifique… et d’humilité face aux mesures. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Qu’est-ce que le principe de réfutabilité de Popper ?
12/1/2026 | 2min
Le principe de réfutabilité est l’une des idées les plus célèbres — et les plus mal comprises — de la philosophie des sciences. Il a été formulé au XXᵉ siècle par le philosophe Karl Popper, avec une ambition claire : définir ce qui distingue une théorie scientifique d’un discours qui ne l’est pas.À première vue, la science semble reposer sur la preuve. On pourrait croire qu’une théorie est scientifique parce qu’elle est confirmée par des expériences. Or, Popper renverse totalement cette intuition. Selon lui, aucune théorie scientifique ne peut jamais être définitivement prouvée vraie. Pourquoi ? Parce qu’une infinité d’observations positives ne garantit jamais que la prochaine ne viendra pas la contredire. En revanche, une seule observation contraire suffit à invalider une théorie.C’est là qu’intervient le principe de réfutabilité. Pour Popper, une théorie est scientifique si et seulement si elle peut, en principe, être réfutée par les faits. Autrement dit, elle doit faire des prédictions suffisamment précises pour qu’on puisse imaginer une expérience ou une observation qui la rende fausse. Si aucune observation possible ne peut la contredire, alors elle sort du champ de la science.Un exemple classique permet de comprendre. L’énoncé « tous les cygnes sont blancs » est réfutable : il suffit d’observer un seul cygne noir pour le contredire. À l’inverse, une affirmation comme « des forces invisibles et indétectables influencent secrètement le monde » n’est pas réfutable, puisqu’aucune observation ne peut la mettre en défaut. Elle peut être intéressante sur le plan philosophique ou symbolique, mais elle n’est pas scientifique.Popper utilise ce critère pour critiquer certaines théories très populaires à son époque, comme la psychanalyse ou certaines formes de marxisme. Selon lui, ces systèmes expliquent tout a posteriori, mais ne prennent jamais le risque d’être démentis par les faits. Quand une prédiction échoue, l’explication est ajustée, ce qui rend la théorie indestructible… et donc non scientifique.Ce point est fondamental : pour Popper, la science progresse par erreurs corrigées, non par accumulation de certitudes. Une bonne théorie n’est pas celle qui se protège contre la critique, mais celle qui s’expose volontairement à la possibilité d’être fausse. Plus une théorie est risquée, plus elle est scientifique.Aujourd’hui encore, le principe de réfutabilité structure la méthode scientifique moderne. Il rappelle que la science n’est pas un ensemble de vérités absolues, mais un processus critique permanent. Une théorie n’est jamais vraie pour toujours ; elle est simplement la meilleure disponible, tant qu’elle résiste aux tentatives de réfutation.En résumé, le principe de réfutabilité de Popper nous apprend une chose essentielle : en science, le doute n’est pas une faiblesse, c’est une condition de progrès. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Le sens de l’humour est-il héréditaire ?
11/1/2026 | 2min
Le sens de l’humour fait partie de ces traits que l’on aime attribuer à la personnalité, à l’éducation, ou à l’ambiance familiale. Mais une question intrigue depuis longtemps les chercheurs : sommes-nous génétiquement programmés pour avoir de l’humour… ou est-ce uniquement le produit de notre environnement ? Une étude publiée dans la revue scientifique Twin Research and Human Genetics apporte des éléments de réponse particulièrement éclairants.Pour étudier l’origine de traits psychologiques complexes, les scientifiques utilisent souvent une méthode classique : la comparaison entre jumeaux monozygotes, qui partagent 100 % de leur patrimoine génétique, et jumeaux dizygotes, qui n’en partagent qu’environ 50 %, comme de simples frères et sœurs. Si un trait est plus similaire chez les jumeaux identiques que chez les faux jumeaux, cela suggère une influence génétique.Dans cette étude, les chercheurs ont analysé plusieurs dimensions de l’humour : la capacité à produire des blagues, la sensibilité à l’humour des autres, et l’usage de l’humour dans les interactions sociales. Les participants devaient répondre à des questionnaires standardisés évaluant leur style humoristique et leur fréquence d’utilisation de l’humour au quotidien.Résultat principal : le sens de l’humour est partiellement héréditaire. Selon les analyses statistiques, environ 30 à 40 % des différences individuelles liées à l’humour peuvent être expliquées par des facteurs génétiques. Cela signifie que les gènes jouent un rôle réel, mais non dominant. Autrement dit, l’humour n’est ni totalement inné, ni purement acquis.Ce point est essentiel. La majorité de la variabilité observée — 60 à 70 % — est liée à l’environnement : la famille, la culture, l’éducation, les expériences de vie, mais aussi le contexte social. Grandir dans un milieu où l’humour est valorisé, pratiqué et encouragé compte donc davantage que l’ADN seul.Les chercheurs soulignent également que toutes les formes d’humour ne sont pas égales face à la génétique. Par exemple, l’humour affiliatif — celui qui sert à créer du lien social — semble plus influencé par l’environnement, tandis que certains traits cognitifs liés à la compréhension des jeux de mots ou de l’ironie pourraient avoir une composante génétique plus marquée, via des capacités comme la flexibilité mentale ou le langage.Enfin, cette étude rappelle un point fondamental en sciences du comportement : les gènes ne déterminent pas des comportements précis, mais des prédispositions. Avoir une base génétique favorable ne garantit pas d’être drôle, pas plus qu’en être dépourvu n’empêche de développer un excellent sens de l’humour.En conclusion, le sens de l’humour est bien en partie héréditaire, mais il se façonne surtout au fil des interactions, des cultures et des expériences. Une bonne nouvelle : même sans “gène de l’humour”, il reste largement… cultivable. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.



Choses à Savoir SCIENCES