Illustration représentant des spécimens de « Cryodrakon boreas»

L’un des plus gros animaux volants de l’histoire identifié au Canada [PHOTOS]

PARIS - Dix mètres d’envergure et 250 kilos: une nouvelle espèce de ptérosaure, gigantesque reptile volant qui vivait à l’ère du Crétacé, a été identifiée au Canada par une équipe de paléontologues.

Ce ptérosaure, appelé «Cryodrakon boreas», vieux d’environ 77 millions d’années, est l’un des deux plus gros animaux volants ayant existé, rivalisant par sa taille avec un autre ptérosaure connu, le «Quetzalcoatlus» (10,5 mètres), expliquent les chercheurs à l’occasion de la publication de leur étude dans le Journal of Vertebrate Paleontology.

Les fossiles avaient été découverts il y a déjà 30 ans dans la province canadienne de l’Alberta, mais les paléontologues les avaient alors associés au «Quetzalcoatlus», découvert au Texas.

Mais en les étudiant de plus près, il s’est avéré que ces fossiles provenaient finalement d’une espèce différente.

En comparant le squelette d’un jeune animal à l’os de cou géant, intact, d’un autre spécimen, les paléontologues ont déduit que le «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.

Il existe à ce jour plus de 100 espèces connues de ptérosaures, répartis en Amérique, en Asie et en Europe.

«C’est une belle découverte. Nous savions que cet animal était présent ici, mais maintenant nous pouvons prouver qu’il est différent des autres, et lui donner un nom», se félicite David Home, chercheur à l’Université Queen Mary de Londres et auteur principal de l’étude.

Cette découverte «nous donne une meilleure idée de la diversité des ptérosaures en Amérique du Nord et de leur évolution», ajoute le chercheur.

Comme les autres reptiles volants du Crétacé, le «Cryodrakon boreas» était carnivore. Il se nourrissait probablement de lézards, de petits mammifères et même de bébés dinosaures.

+



Un fossile d’un os du cou de «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.  AFP/QUEEN MARY UNIVERSITY OF LONDON/DAVID HONE



Un fossile d’un os du cou de «Cryodrakon boreas», qui pouvait atteindre 10 mètres à sa taille adulte.
Illustration d’un spécimen de «Cryodrakon boreas» en vol

Science

Peut-on réellement savoir ce que pensent les animaux?

LA SCIENCE DANS SES MOTS / Sarah, «la chimpanzée la plus intelligente au monde» est décédée en juillet dernier, à quelques jours de son soixantième anniversaire. Durant la plus grande partie de son existence, elle a servi de sujet de recherche, ce qui a permis aux scientifiques d’ouvrir une fenêtre sur le mode de pensée du parent le plus proche de l’humain.

La mort de Sarah nous donne l’occasion de réfléchir à une question fondamentale: peut-on réellement savoir ce que pensent les animaux? En m’appuyant sur mon expérience de philosophe, je postule que la réponse est non. Car il y a des limites de principe à notre compréhension de la pensée animale.

La pensée animale

Il ne fait guère de doute que les animaux réfléchissent. Leur comportement est trop sophistiqué pour n’être qu’instinctif. Mais il est extrêmement difficile de déterminer avec précision ce à quoi ils pensent. Notre langage humain n’est pas adapté à l’expression de leurs pensées.

Sarah est l’exemple parfait de ce casse-tête. Lors d’une étude célèbre, elle a choisi correctement l’objet nécessaire pour compléter une série d’actions. Face à une personne se débattant pour atteindre quelques bananes, elle a bien choisi un bâton plutôt qu’une clé. Alors que face à une personne enfermée dans une cage, elle a préféré la clé au bâton.

Ce qui a amené les membres de l’étude à conclure que Sarah possédait « une théorie complète de l’esprit », comprenant les concept d’intention, de croyance, et de savoir. Théorie immédiatement contestée par d’autres chercheurs. Ils doutaient que nos concepts humains puissent saisir avec exactitude le point de vue de Sarah. Bien que des centaines d’études additionnelles aient été menées depuis des décennies, le désaccord règne en maître quant à la caractérisation des concepts mentaux des chimpanzés.

La difficulté ne découle pas d’une incapacité à s’exprimer. Une fois un langage rudimentaire maîtrisé, le casse-tête Sarah ne relevait plus de savoir ce qu’elle pensait mais bien de comprendre ce que ses mots voulaient dire.

Les mots et leur sens

Il se trouve que le problème de l’association de leur sens aux mots est une obsession fondamentale des philosophes du XXe siècle. Parmi ceux-ci, W.V.O. Quine, probablement le philosophe le plus influent de la seconde moitié de ce siècle.

Professeur à Harvard, la renommée de Quine s’est construite sur l’idée de ce qu’il faudrait pour traduire une langue étrangère — un projet qu’il intitule la traduction radicale. Il conclut qu’il y aurait toujours plusieurs traductions possibles toutes aussi valables les unes que les autres. En conséquence, nous ne pourrons jamais définir le sens exact à attribuer aux mots d’une langue. Mais il a également fait remarquer que la traduction radicale était limitée à la structure même d’une langue.

Quine a inventé une langue étrangère sans aucun rapport avec les langues humaines connues. Je me servirais de l’allemand pour illustrer ce propos. Supposons qu’un germanophone prononce la phrase: Schnee ist weiss («La neige est blanche»). Ses amis sourient et acceptent le sens de cette phrase telle quelle. Malheureusement, il y a peu d’indices quant au sens de la phrase. Il y a plusieurs vérités et la phrase pourrait signifier n’importe laquelle de ces vérités.

Ce qui suggère une conclusion générale: si nous sommes capables de traduire des phrases d’une langue à l’autre, c’est essentiellement parce que nous pouvons traduire les mots d’une langue vers une autre langue.

Mais imaginons une langue dont la structure nous est totalement inconnue. Comment la traduire? Si, pour traduire des phrases, il faut en traduire les mots, mais que ces mots ne sont pas liés à notre langue, nous serions incapables de les reporter dans notre langue. Nous ne pourrions pas comprendre le sens de ces phrases.

Science

Vitesse d'expansion de l'Univers: la controverse continue

WASHINGTON — Les astrophysiciens savent depuis 90 ans que l'univers s'étend, et ils tentent depuis de mesurer la vitesse exacte de cette expansion. Mais différentes méthodes produisent des résultats différents, forçant les scientifiques à se demander si leur théorie du cosmos est solide.

Dans les années 1920, les astrophysiciens Georges Lemaître et Edwin Hubble ont découvert que l'univers était en expansion, au lieu d'être un terrain calme et borné. En 1998, deux équipes de chercheurs ont découvert que le rythme de cette expansion s'accélérait avec la distance, et que l'univers était rempli d'une mystérieuse «énergie noire» causant cette accélération, depuis 14 milliards d'années. Ils ont gagné le prix Nobel en 2011.

La vitesse est calculée grâce à la «constante d'Hubble». Cette constante est estimée de plus en plus précisément par les physiciens. Le problème est qu'elle est de 67,4 selon une méthode, et de 73 selon une autre. L'unité est en kilomètres par seconde par mégaparsec. Un mégaparsec égale environ trois millions d'années-lumière. Cela se lit ainsi: des galaxies situées à trois millions d'années-lumières (1 mégaparsec) s'éloignent de 67,4 (ou 73 !) kilomètres par seconde.

Les deux nombres semblent proches, mais pas pour les cosmologistes. Chaque méthode ayant une marge d'erreur faible, le fossé entre les deux résultats ne s'explique pas par une simple erreur de calcul: il y aurait donc un problème plus fondamental, quelque chose qui nous échapperait concernant l'univers et que la théorie actuelle n'est pas capable d'expliquer. Peut-être que l'équation expliquant le Big Bang et le cosmos a besoin d'être mise à jour.

«Des lois physiques inconnues»

La recherche actuelle, impliquant de nombreuses équipes dans le monde, consiste non seulement à affiner les mesures de distance des étoiles, mais aussi à trouver de nouvelles méthodes pour mesurer la vitesse de fuite des galaxies et peut-être résoudre ce que les physiciens appellent sobrement, au lieu d'une controverse ou d'une crise, la «tension» de la constante d'Hubble. Illustrant cette quête frénétique, une étude décrivant une méthode nouvelle, rédigée par des chercheurs de l'Institut d'astrophysique Max Planck en Allemagne et d'autres universités, est ainsi parue jeudi dans la revue américaine Science.

Ils sont parvenus à mesurer la distance de deux étoiles en observant comment sa lumière se courbe autour de grosses galaxies sur son trajet jusqu'à la Terre. Cette équipe a mesuré la constante à 82,4 km/s/mégaparsec, mais avec une marge d'erreur de plus ou moins 10 %, soit beaucoup plus que les mesures effectuées par d'autres équipes.

«Si la tension est réelle, cela veut dire que l'univers ancien était gouverné par des lois physiques inconnues», dit la cosmologiste Inh Jee à l'AFP, coautrice de l'étude. Le but de ces nouveaux travaux est de vérifier s'il y réellement un problème fondamental. Elle espère que d'autres observations réalisées avec sa méthode permettront de réduire l'erreur, qu'elle reconnaît être trop grande pour l'instant.

Interrogé par l'AFP, l'un des prix Nobel 2011 Adam Riess, de l'Université Johns Hopkins, confirme que ces nouveaux résultats ne sont pas assez précis pour vraiment peser dans la controverse, en tout cas pour l'instant. «Je ne pense pas que cela apporte grand chose à l'état actuel des connaissances. Mais c'est sympa que des gens cherchent des méthodes alternatives, donc bravo¢, conclut le célèbre astrophysicien dans un e-mail.

Science

Paludisme: une promesse venue du Nord

Région fragile, le Grand Nord québécois a encore beaucoup à nous apprendre. Il possède une biodiversité unique dont pourraient même être extraites des molécules susceptibles de nous soigner… ou de soigner des populations lointaines, selon une récente découverte.

L’équipe du chimiste Normand Voyer, de l’Université Laval, a en effet mis à jour de possibles propriétés antipaludiques dans des molécules des eaux froides de la baie de Frobisher, au Nuvavut. Et l’une des quatre molécules issues de ce champignon microscopique du genre Mortierella s’avère particulièrement prometteuse. «L’incroyable, c’est qu’une molécule du Nord pourrait aider à soigner une des pires maladies du Sud», la malaria, ou paludisme, relève le chercheur.

Certains moustiques des régions chaudes (les anophèles femelles) transmettent par piqûre à l’homme un parasite, du genre plasmodium. C’est ce parasite qui entraine le paludisme. Cette maladie infectieuse se caractérise par des symptômes voisins de la grippe : fortes fièvres, douleurs musculaires, affaiblissement, fatigue. Mais les conséquences peuvent être beaucoup plus graves : anémie, œdème pulmonaire, détresse respiratoire, jusqu’au décès pour les nourrissons et les jeunes enfants, les malades et les personnes avec un système immunitaire affaibli.

En laboratoire, les quatre molécules (mortiamide A, B, C et D) ont été testées sur différentes souches. Résultat : la mortiamide D a réussi à éliminer le parasite Plasmodium falciparum des globules rouges, in vitro, en 72 heures.

Il ne s’agit que d’une première étape : l’identification d’une molécule prometteuse. «Il nous faut comprendre son mode de fonctionnement et quelles sont les enzymes qu’elle affecte. Nous sommes encore loin d’un médicament», convient le chercheur.

Le Nunavut constitue un milieu de vie haut en stress avec son alternance de six mois de froid glacial et d’obscurité et de six mois d’intense rayonnement UV. Ce qui explique que les organismes indigènes se parent de moyens de défense performants pour assurer leur survie.

Si un champignon nordique possède de telles molécules, plus toxiques pour les parasites, c’est qu’il s’agit d’une défense chimique — la même stratégie de protection que le piment jalapeño avec ses molécules au goût piquant (capsaïcines), afin de ne pas être mangé.

À côté des prospections minières dans la mire du gouvernement provincial, dorment donc des richesses naturelles, terrestres et marines. «Mon rêve serait de préserver la chimio-diversité du Grand Nord avant que les changements climatiques ne les fassent disparaître», poursuit le Pr Voyer.

Lutte au paludisme

Malgré un recul des cas de paludisme dans le monde depuis près de 20 ans, cette maladie infectieuse stagne : on a compté 219 millions de cas en 2017. Elle fait encore des ravages en Asie, en Amérique centrale et du Sud et surtout en Afrique, où près de 90 % des décès surviennent — l’OMS en dénombrait 435 000 en 2017, majoritairement de jeunes enfants.

À l’autre bout du monde, les changements climatiques déplacent aussi les vecteurs de cette maladie, les anophèles, vers des altitudes plus élevées. La lutte prend de nombreuses voies : insecticides, moustiquaires imprégnées d’insecticides, assèchement de milieux humides… Avec une certaine efficacité, mais sans parvenir à éliminer l’ennemi.

«Nous avons fait beaucoup de progrès, mais il faut plus d’efforts pour éradiquer les moustiques porteurs du parasite», déclare le Professeur adjoint du Département de médecine sociale et préventive de l’École de santé publique de l’Université de Montréal, Thomas Druetz.

Le traitement actuel contre le paludisme — un dérivé de l’artémisinine qui provient d’une plante de Chine, l’Artemisia annua, donné en première ligne — connaît lui aussi des résistances. Même combiné avec d’autres traitements antipaludiques, il perd du terrain face au parasite.

«Les résistances que nous constatons pour les traitements actuels montrent que nous avons besoin de nouvelles molécules. La publication du Pr Voyer est intéressante, mais est à un stade très préliminaire; on ignore encore l’efficacité de cette molécule chez l’homme», relève encore le chercheur.

Pour sa part, le Pr Druetz étudie l’efficacité de médicaments de prévention face au paludisme saisonnier. Sa récente étude, auprès d’enfants du Mali, montre que cette stratégie diminue de 44 % le risque d’un diagnostic positif, mais aussi décroît le risque d’anémie modérée et sévère chez les enfants. Près de 12 millions de très jeunes enfants d’une douzaine de pays africains ont reçu ce type de traitement préventif.

Qui bénéficie de cette pharmacopée du Nord ?

À l’Université du Québec en Abitibi-Témiscamingue, le chercheur et directeur de l’École d’études autochtones, Hugo Asselin, a élaboré un répertoire de 546 taxons végétaux utilisés par les peuples autochtones de la forêt boréale canadienne. Le sureau, l’achilée, le thuya et bien d’autres plantes : un savoir qu’il importe de préserver

Mais ces plantes intéressent aussi les industries pharmaceutique et cosmétique sans que les premiers peuples en tirent des redevances ou une forme de compensation. «Qui bénéficie de cette pharmacopée du Nord ? Lorsqu’on fait des recherches et des produits à partir des ressources utilisées par les communautés, sans les associer, j’y vois un glissement vers une appropriation d’une richesse naturelle et je me questionne sur la dimension éthique», relève l’ethnobotaniste de l’Institut de recherche en biologie végétale de l’Université de Montréal, Alain Cuerrier. Il juge que les travaux du Pr Voyer sont ainsi dans une zone grise, parce que le Canada n’a pas ratifié le Protocole de Nagoya sur l'accès aux ressources génétiques et leur partage équitable.

Les chercheurs n’ont pas de droits acquis sur les ressources et les savoirs locaux et les recherches devraient bénéficier aussi à ceux qui y vivent, d’une manière ou d’une autre. «Il s’agit du territoire Inuit et les chercheurs ont un devoir de transparence et de consultation des communautés qui y vivent. C’est dommage que les autochtones n’aient pas été mêlés à ça ni les autorités autochtones consultées», relève encore le Pr Cuerrier.

Science

Surprise: les squelettes surnommés les «amants de Modène» étaient deux hommes

PARIS — Découverts enterrés main dans la main, ils sont rapidement devenus les «amants de Modène» mais surprise, une étude publiée dans Scientific Reports révèle que ces deux squelettes de l'Antiquité étaient des hommes.

Découvert en 2009 dans la ville de Modène en Italie lors de fouilles dans une nécropole datée entre le IVe et le VIe siècle, les deux individus étaient en trop mauvais état pour que les chercheurs puissent définir leur sexe. Leur inhumation, particulière, avait alors laissé penser qu'ils avaient été placés ainsi pour «montrer leur amour éternel», expliquent les chercheurs dans un communiqué de l'Université de Bologne.

Mais une nouvelle analyse met à mal cette lecture fleur bleue: l'émail dentaire des deux individus contiennent une protéine, appelée AMELY, apanage des hommes.
Une découverte qui rend ces deux squelettes, exposés à Modène, encore plus intéressants. «Dans le passé, plusieurs tombes renfermant des couples d'individus placés main dans la main ont été découvertes mais c'est toujours un homme et une femme», explique Federico Lugli de l'Université de Bologne, coauteur de l'étude.

Reste donc maintenant à découvrir ce qui liait ces deux hommes. «Nous pensons que ce choix symbolise une relation particulière entre les deux individus, mais nous ne savons pas laquelle, reconnait le chercheur qui aurait tendance à écarter tout lien amoureux du fait des pratiques sociales et des restrictions religieuses de l'époque. «À partir du règne de Justinien (527-565), les rapports sexuels entre hommes sont pleinement considérés comme un crime», précise l'étude.

«À la fin de l'Antiquité, il est peu probable qu'un amour homosexuel puisse être reconnu aussi clairement par les personnes qui ont préparé l'enterrement, explique le chercheur. Étant donné que les deux individus sont d'âge similaire, à peu près 20 ans, ils pourraient plutôt être parents, par exemple frères ou cousins. Ou alors ce sont des soldats qui sont morts ensemble au combat.»

Science

Maxime Bernier et le climat: «regardons les faits»

DÉTECTEUR DE RUMEURS / Au cours d’une entrevue accordée à l’émission 24/60 le 4 septembre, le chef du Parti populaire canadien a répété à plusieurs reprises son refus de parler d’une «urgence climatique», et a souligné qu’il fallait s’appuyer sur «les faits». Le Détecteur de rumeurs l’a pris au mot.

Maxime Bernier : Il y a 10 ans, c’était Al Gore qui nous disait, si on ne fait rien, le niveau des océans va monter et ça va être la fin pour certaines villes... À chaque 10 ans, on nous parle d’urgence climatique.

Fait : en citant Al Gore, Maxime Bernier faisait peut-être référence au militantisme environnemental. Mais il n’existe pas de tels cycles dans la recherche scientifique sur le climat ou sur les océans. La tendance lourde, depuis les années 1960, est plutôt constante : une accumulation de données allant de plus en plus dans la direction d’un réchauffement climatique anormalement rapide, causé en bonne partie par l’activité humaine.

MB : Est-ce que le niveau des océans augmente ? Non !

Fait : selon plusieurs études, le niveau des océans a monté en moyenne de 1,2 mm à 1,7 mm par année entre 1900 et 1990, et ces chiffres semblent avoir doublé depuis les années 1990. Si la tendance se maintient, entre les estimations les plus optimistes et les plus pessimistes, cela représentera, d’ici 2100, de 450 à 750 millions de personnes vivant aujourd’hui dans des zones qui seront submergées.

MB : Et on ne peut pas baser des politiques climatiques sur la peur... Moi je suis en train de dire qu'on doit bâtir des politiques publiques sur la raison et les faits.

Fait : la température moyenne de la Terre a augmenté d’un degré depuis un siècle et tout dépendant de la vitesse à laquelle nous réduirons nos émissions de gaz à effet de serre, on aura dépassé le seuil du degré et demi entre 2030 et 2040; le seuil des deux degrés pourrait être franchi avant 2100 — voire les trois degrés, dans les scénarios moins optimistes.

MB : Ce que je suis contre, c’est de dire que (c’est) la faute principale de l’activité humaine. Et il y a des scientifiques comme Patrick Moore, qui a quitté l’organisation qu’il a fondée lui-même, Greenpeace, il est un scientifique, et il dit qu’il y a plusieurs autres facteurs.

Fait : Patrick Moore n’a pas fondé Greenpeace, il en est devenu membre en 1971, comme en témoigne cette lettre fournie par Greenpeace. Moore a été un militant actif de Greenpeace Canada jusqu’au début des années 1980.

Fait : Patrick Moore ne publie pas de recherches, il est avant tout un lobbyiste rémunéré depuis 30 ans par différentes industries, en particulier le nucléaire, l’exploitation minière et forestière.

Le Détecteur de rumeurs ouvre ici une parenthèse : lorsqu’on lit dans les médias une phrase telle que «les scientifiques s’entendent sur le réchauffement climatique», on veut en réalité dire «les scientifiques qui ont publié des recherches sur le climat arrivent tous aux mêmes conclusions». Ou encore : « les scientifiques qui ont publié des recherches sur le climat dans des revues révisées par d’autres scientifiques arrivent tous aux mêmes conclusions». Le seul texte que Patrick Moore ait publié ces dernières années qui pourrait être qualifié de recherche est un document publié en 2016 pour le compte du Frontier Center for Public Policy, un groupe de pression de droite qui a affiché sa vive opposition aux «dommages politiques causés par le lobby de l’énergie verte».

MB : Regardez dans les faits. Regardez dans les faits. Je ne demande pas aux gens de me croire sur parole, je demande aux gens de faire leurs recherches, de regarder, je fais appel à l'intelligence des gens, et j'amène un autre point de vue au débat.

Fait : en science, tout n’est pas sujet au même type de « débat » qu’une discussion politique. L’évolution, par exemple, ne fait plus débat parmi les biologistes, l’astrologie ne fait plus débat parmi les astronomes, la Terre plate ne fait plus débat parmi les géographes. Ces sujets font consensus.

On entend souvent dire que «97 % des recherches publiées par des experts sur le climat» confirment la théorie du réchauffement climatique causé par l’homme. L’origine de cette affirmation est une recherche de l’historienne des sciences de l’Université Harvard, Naomi Oreskes, en 2004 : sur 928 études publiées par des climatologues et contenant les mots-clefs (en anglais) «global climate change», aucune n’était en désaccord avec le consensus sur le réchauffement climatique. Depuis, au moins 14 compilations similaires sont arrivées à des totaux variant entre 91 % et 100 %, tout dépendant du niveau d’expertise retenu pour figurer dans la compilation.

Science

D'autisme, de pesticides et de PR

BLOGUE / À première vue, quand un groupe d'intérêt publie un rapport qui s'appuie sur 158 études scientifiques, il y a de quoi se réjouir. On déplore constamment que la science a de la misère à se frayer un chemin jusque dans les débats publics, alors on ne va quand même pas bouder ce plaisir, hein ? Mais en cette matière comme en tant d'autres, le diable se cache souvent dans les détails, et le rapport de la Fondation David-Suzuki sur le lien entre autisme et pesticides en est simplement une preuve de plus.

Le rapport, paru la semaine dernière, est disponible ici. Il se présente comme une «revue de la littérature scientifique» et montre explicitement du doigt les pesticides comme une cause majeure, sinon la principale, de la hausse fulgurante des diagnostics d'autisme au cours des 20 dernières années — le nombre a été multiplié par presque 10 chez les élèves du Québec depuis 2001, d'après un graphique du rapport.

Le document a eu un bel écho, étant repris par plusieurs médias, malheureusement pas toujours de manière très critique — mais des fois oui, quand même. En fait, même le premier ministre François Legault a été cité comme qualifiant le phénomène de «grave» et «inquiétant», c'est tout dire. Alors il vaut la peine de regarder ce rapport de plus près. Voici ce que j'en retiens, en vrac :

- Vous avez dit «études» ? La bibliographie du rapport comporte bel et bien 158 références, mais ces «158 études» ne sont pas toutes des études à proprement parler, et celles qui en sont ne portent pas toutes sur le lien allégué entre les pesticides et l'autisme. On y trouve des rapports gouvernementaux, des études sur l'inflammation des poumons par des polluants (réf. 31), sur l'effet des polluants sur les mitochondries (partie des cellules qui fournit de l'énergie à la cellule, réf. 33), etc. Il y a aussi des études qui portent sur l'effet de la pollution en général sur l'autisme, dans lesquelles les pesticides sont décrits comme un facteur environnemental parmi d'autres, sans plus.

- Pas toutes pertinentes. Il y a bel et bien, dans ces références, des études qui suggèrent vraiment un lien entre les pesticides et l'autisme. La Fondation David-Suzuki en a d'ailleurs trouvé un assez bon nombre, disons-le. Mais même parmi elles, il s'en trouve qui ne sont pas aussi pertinentes qu'il n'y paraît. Quelques unes portent sur le DDT (et son dérivé, le DDE), un insecticide qui a été interdit d'utilisation au Canada... dans les années 70. Quelques autres examinent les effets d'un autre insecticide, le chlorpyrifos, dont le Canada s'apprête déjà à interdire la plupart des usages agricoles.

- Samsel et Seneff. Tant qu'à être dans ces études-là : sérieusement, Fondation David-Suzuki ? Samsel et Seneff ? Plusieurs «études» d'Anthony Samsel et Stephanie Seneff ?!? Eux qui ne sont vraiment pas des experts en toxicologie, le premier étant consultant pro bono en environnement et la seconde, chercheuse en informatique ? Eux qui ont lié le glyphosate (l'herbicide le plus vendu dans le monde) à littéralement toutes les maladies modernes, allant de l'autisme à l'obésité en passant par le cancer et quoi d'autre encore ? Eux dont les articles ont été totalement anéantis par à peu près tous les vrais experts qui ont perdu leur temps à les lire ? À quoi on joue là, au juste ?

Écoutez, même de proches collaborateurs de Gilles-Éric Séralini ont descendu les «études» de Samsel et Seneff en flamme. Pour mémoire, M. Séralini est l'auteur principal de la tristement célèbre étude de 2012 qui prétendait «prouver» que les OGM étaient cancérigènes, mais dont les faiblesses méthodologiques étaient immenses et dont les résultats ont ensuite été intégralement contredits par d'autres études mieux faites. Il a la réputation (amplement méritée) d'être extrêmement et inutilement alarmiste. Eh bien deux de ses collaborateurs ont conclu en 2017 que «les mécanismes et le vaste éventail de conditions médicales que Samsel et Seneff font remonter au glyphosate dans leurs commentaires sont au mieux des théories sans substance, des spéculations, ou simplement incorrectes».

Si même des chercheurs à la réputation un brin sulfureuse comme eux s'en distancient, ça en dit long sur la valeur de ces travaux. Or le rapport de la Fondation David-Suzuki cite plusieurs articles de Samsel et Seneff et consacre quelques paragraphes à défendre (en suivant une logique douteuse) leur crédibilité. Pincez-moi quelqu'un, je dois être en train de faire un cauchemar.

- Angles morts. Au-delà des références pas directement pertinentes et des sources douteuses — j'imagine que l'Alternative Medicine Review (réf. 132) a l'air pas si mal quand on cite Samsel et Seneff, joual-vert j'en reviens toujours pas de celle-là —, je répète qu'il y a d'authentiques études faites par des chercheurs sérieux qui suggèrent un lien possible entre l'autisme et les pesticides. On ne peut pas dire que le rapport de la Fondation David-Suzuki est basé uniquement sur du vent. Mais on peut certainement en dire qu'il a un angle mort é-nor-me : la génétique.

Le document passe très rapidement (en page 4) sur les causes génétiques de l'autisme, essentiellement pour en minimiser l'importance. Or nombre d'études récentes montrent justement que l'on a affaire à un phénomène très principalement génétique, mais la pas-si-bien-nommée «revue de littérature» de la Fondation David-Suzuki n'en dit absolument rien. Pas un mot sur la plus vaste étude jamais entreprise sur la question, pourtant parue cet été, qui a conclu que l'autisme est «héritable» (lire : génétique) à 80 %. Pas un mot sur celle-ci, parue en 2017, qui place l'héritabilité à 83 % et la part de l'environnement à 17 %. Pas un mot sur cette méta-analyse qui a agrégé les données des études de jumeaux sur l'autisme et a chiffré la part des gènes entre 64 et 91 %. Et j'en passe.

Or si l'environnement joue un si faible rôle, alors l'«hypothèse» avancée et présentée comme une quasi certitude par la Fondation David-Suzuki ne tient absolument pas la route : des facteurs secondaires ne peuvent pas expliquer (en tout cas, pas plus que très partiellement) que le nombre de cas ait été multiplié par 10. Et c'est encore moins plausible quand, comme la FDS, on se concentre uniquement sur une petite partie de ces facteurs environnementaux (les pesticides, mais on soupçonne bien d'autres causes environnementales par ailleurs).

Alors il faut logiquement regarder du côté des diagnostics (critères différents, meilleur dépistage, sensibilisation des milieux médicaux et de l'éducation, remplacement de diagnostics antérieurs par l'autisme, etc.) pour expliquer la hausse des cas. Mais la «revue de littérature» passe tout aussi rapidement là-dessus que pour les gènes, encore ici pour en minimiser l'importance. Et elle passe complètement sous silence des études comme celle-ci, par exemple, qui a trouvé qu'une part appréciable de ceux qui ont reçu un diagnostic de «trouble de développement du langage» dans les années 1980 auraient très probablement été considérés comme autistes s'ils étaient nés 20 ans plus tard.

Notons que tout ceci est entièrement cohérent avec les réactions d'experts quand sort une étude liant autisme et pesticides. Ils font presque tous valoir que l'on a affaire d'abord et avant tout à une question de gène et de diagnostic (voir ici, ici et ici).

* * * * *

Il n'y a pas 56 conclusions possibles à tout ceci : la FDS est partie avec une conclusion choisie à l'avance, qui cadrait avec son idéologie et avec le message politique et alarmiste qu'elle voulait véhiculer, alors elle s'est fabriqué une «revue de littérature» taillée sur mesure. Il fallait laisser entendre le plus clairement possible que les pesticides sont derrière la hausse des cas d'autisme, alors exit les causes à quelque 80 % génétiques, exit les questions de diagnostic. Et s'il faut gratter les fonds de tiroir jusque dans leurs racoins les plus obscurs pour grossir la «revue de littérature» avec des travaux non-pertinents ou spectaculairement faibles, so be it, comme on dit.

À sa décharge, le document comporte une section «Méthodologie» où l'on peut lire que la revue a été faite en utilisant uniquement des noms de pesticides comme mots-clefs. Et où il est spécifié que «cet examen n'a pas été conçu pour être exhaustif». À la décharge de sa première auteure, la directrice scientifique de la FDS Louise Hénaut-Éthier, elle a explicitement mentionné au Journal de Montréal que «je ne peux pas répondre sans équivoque : “les pesticides causent l’autisme”. Scientifiquement, je n’ai pas le droit». Elle affirme qu'elle et son rapport ne font qu'invoquer le principe de précaution.

Mais franchement, ça me semble tenir davantage du sauf-conduit commode que de la nuance sérieuse. Après avoir passé 30 pages à présenter une version partielle et déformante de la littérature scientifique, il suffirait d'enterrer une petite phrase en fin de document pour s'en dédouaner ? Après avoir martelé le message alarmiste «les pesticides causent l'autisme» sur toutes les tribunes disponibles (et en sachant très bien qu'il serait souvent relayé tel quel dans les médias et sur les réseaux sociaux), il suffirait d'une petite phrase pour faire semblant qu'on n'a pas dit ce qu'on vient de dire ?

À cet égard, la conclusion du document est assez parlante (mes soulignements) :

Science

Découverte de deux nouvelles espèces d’anguilles électriques à haute tension

PARIS - Deux nouvelles espèces d’anguilles électriques ont été découvertes dans les eaux douces amazoniennes, dont l’une capable d’envoyer des décharges de 860 volts, les plus puissantes jamais enregistrées dans le monde animal, selon une étude publiée mardi dans la revue Nature Communications.

Connues depuis plus de 250 ans, les anguilles électriques, de gros poissons pouvant mesurer jusqu’à 2,5 mètres, étaient jusqu’ici affiliées par les scientifiques à une seule espèce. L’identification de deux nouvelles variétés souligne à quel point la richesse de la biodiversité en Amazonie reste méconnue, selon cette étude menée au Brésil, en Guyane française, au Guyana et au Suriname.

«Pouvoir encore trouver de nouveaux poissons d’une telle taille dans la forêt amazonienne, en dépit des activités humaines qu’elle subit depuis 50 ans, montre qu’il reste énormément d’espèces à découvrir, dont beaucoup pourraient servir à la recherche médicale, ou susciter des avancées technologiques» explique à l’AFP Carlos David de Santana du muséum d’histoire naturelle Smithsonian à Washington, qui a dirigé les recherches.

Cette découverte «renforce la nécessité de préserver la plus grande réserve de biodiversité de la planète», ajoute le chercheur.

Les anguilles électriques, qui sont malgré leur nom plus proches des poissons que des vraies anguilles, passionnent les scientifiques de longue date du fait de leur capacité à produire de l’électricité - comme une batterie biologique - leur permettant, par un mécanisme d’électrochocs, de paralyser leurs proies à distance.

Leur anatomie a inspiré le physicien italien Alessandro Volta, l’inventeur de la première pile électrique - la pile voltaïque - en 1799. Elle a aussi servi la recherche sur les maladies neurodégénératives et, plus récemment, sur la pile à hydrogène pour implants médicaux.

Carlos David de Santana et son équipe ont découvert ces deux nouvelles espèces en étudiant l’ADN de 107 spécimens.

La première, appelée «Electrophorus voltaï», localisée au Brésil, est capable de produire des décharges allant jusqu’à 860 volts, soit 200 volts de plus que le record enregistré par l’espèce déjà connue, «Electrophorus electricus». La seconde espèce découverte, «Electrophorus varii», peut quant à elle produire des décharges atteignant les 570 volts.

Ce phénomène pourrait s’expliquer par une adaptation de cette espèce à son milieu aquatique, situé sur les hauts plateaux, où la conductivité électrique est faible.

Environ 250 espèces de poissons électriques vivent en Amérique du Sud. Tous produisent du courant électrique pour communiquer ou s’orienter, mais les anguilles électriques sont les seules à l’utiliser aussi pour chasser ou se défendre.

Science

Six trucs pour amener votre enfant à parler de sa journée

LA SCIENCE DANS SES MOTS / «Comment s'est passée ta journée à l'école?» «Bien.» Cela vous dit quelque chose ? C'est la réponse appréhendée à une question bien intentionnée que tout parent pourrait poser. Cette réponse donnée machinalement suggère que l'enfant limite l'information qu'il partage avec ses parents, ou qu'il n'en donne plus du tout, au sujet de sa journée à l'école.

Lorsque les parents entendent «bien», ils peuvent réagir de différentes façons. Certains peuvent chercher à obtenir plus d'information en posant plus de questions. Cependant, la recherche a montré que poser trop de questions peut sembler envahissant, en particulier pour les adolescents.

D'autres parents peuvent cesser de poser des questions parce qu'ils en ont assez d'entendre la même réponse. Cependant, la recherche a montré que les enfants qui perçoivent un faible intérêt de la part de leurs parents ont davantage de problèmes de santé mentale et de comportement.

Par conséquent, les parents peuvent se sentir découragés. Comment peuvent-ils amener leurs enfants à parler de leur journée sans les irriter ou les amener à se refermer davantage ?

À chaque âge ses questions

À tous les âges, des études ont révélé que la communication parentale peut protéger contre une faible estime de soi et un mauvais rendement scolaire. Une forte participation des parents peut aussi avoir une influence positive sur la participation des enfants à l'école, leurs objectifs éducatifs et leurs résultats. Et notamment, une communication positive peut renforcer le lien d'attachement entre parents et enfants.

Mais comme tous les aspects du développement, les compétences en communication se développent avec le temps.

Du concret pour les tout-petits

De la maternelle à la 1ère année, les conversations avec les jeunes enfants à l'école tournent généralement autour de sujets reliés à l'école, aux nouvelles amitiés ou aux expériences concrètes. Par exemple, un jeune enfant pourrait vouloir partager l'information suivante : «J'ai joué sur les barres de singe à la récréation !»

Vous pouvez aller plus loin avec votre jeune enfant en lui faisant décrire ses expériences. Par exemple, «J'ai vu que Justin a pris ton jouet aujourd'hui. Qu'est-ce que ça t'a fait ?» Il peut aussi être utile de l'aider à mettre des mots sur ses émotions, en verbalisant ce que vous remarquez, par exemple :

«On dirait que tu étais en colère parce que Justin a pris ton jouet.»

Parler des amis

De la 2e à la 3e année, les amitiés deviennent de plus en plus importantes pour les enfants. Ils peuvent être plus intéressés à parler de leurs nouvelles relations avec leurs pairs qu'à parler de leurs travaux scolaires. Essayez de montrer de l'intérêt en posant des questions sur leurs amis, par exemple :

«Parle-moi de tes amis. Qu'est-ce qu'ils aiment faire à la récréation ?»

Dévier la question

De la 4e à la 5e année, les enfants pourraient commencer à considérer vos questions comme des demandes, ce qui réduirait davantage le partage d'information. Il peut être plus facile d'aborder les sujets qui vous intéressent en faisant dévier les questions sur les pairs de votre enfant pour entamer une conversation. Vous pouvez tenter la question suivante :

«Que pensent tes amis du nouveau professeur de sciences ?»

Solliciter leur opinion

De la 1ère à la 5e secondaire, l'établissement de l'identité et de l'indépendance personnelles est un élément essentiel de l'adolescence. Par conséquent, votre adolescent(e) peut rechercher plus d'intimité et partager moins d'information avec vous. Vous pouvez soutenir ces étapes du développement en démontrant votre intérêt pour leurs opinions, en leur permettant d'avoir un peu d'intimité au besoin et en leur permettant de prendre part à la prise de décision familiale.

Quel que soit l'âge de votre enfant, gardez à l'esprit que les conversations positives, courtes mais fréquentes, que vous aurez avec lui au fil du temps sont toutes aussi valables que les conversations longues et approfondies que vous pourriez avoir avec lui.

Science

La planète a d'autres «poumons» que l'Amazonie

DÉTECTEUR DE RUMEURS / L’Amazonie est beaucoup de choses, mais elle n’est pas le seul «poumon de la planète» et elle ne produit pas 20 % de l’oxygène contenu dans l’air, comme on l’a souvent entendu ces dernières semaines. Le Détecteur de rumeurs survole ce qu’est et ce que n’est pas l’Amazonie.

L’origine de l’expression «poumon de la planète»

Nos propres poumons alimentent notre corps en oxygène. Pour cette raison, on utilise depuis longtemps l’analogie du poumon lorsqu’on veut expliquer le procédé appelé photosynthèse : comme toute plante, un arbre produit de l’oxygène. Par conséquent, plus une forêt est étendue, et plus grande est la quantité d’oxygène qu’elle produit.

Le seul défaut de cette analogie est que l’Amazonie n’est pas notre seul poumon : il y a d’autres forêts tropicales et surtout, il y a les océans.

Mais l’Amazonie produit tout de même 20 % de l’oxygène de notre planète ?

Les estimations à ce sujet varient, mais le vrai pourcentage est plus près de 16 % si on ne calcule que la photosynthèse qui a lieu sur la terre ferme (selon une étude de 2010). Si l’on calcule aussi l’oxygène produit dans les océans, par le phytoplancton, les estimations varient plutôt entre 9 % (selon un écologiste britannique) et 6 % (selon un climatologue américain).

Il est possible que l’erreur du 20 % ait son origine dans un calcul qui ne portait à l’époque que sur la terre ferme : sachant que les forêts tropicales sont responsables à elles seules de 34 % de la photosynthèse réalisée sur les continents, puisque l’Amazonie représente à peu près la moitié des forêts tropicales, on a arrondi à 20 %.

Si l’Amazonie joue un rôle mineur avec l’oxygène, en est-il de même avec le CO2 ?

Une forêt est ce qu’on appelle un « puits de carbone », c’est-à-dire que chaque plante absorbe du dioxyde de carbone ou CO2. C’est une autre partie du cycle naturel de la photosynthèse. Mais dans le contexte du réchauffement climatique, cela signifie aussi que chaque plante absorbe également une partie des surplus de CO2 que notre société moderne produit. C’est la raison pour laquelle, ces dernières années, plusieurs initiatives de réduction de notre empreinte carbone suggèrent de planter des arbres pour «absorber» en partie nos excès.

Or, brûler une forêt ne fait pas que retirer des puits de carbone. Chaque arbre brûlé envoie aussi du même coup dans l’atmosphère tout le carbone qu’il avait absorbé.

Les estimations là aussi varient, mais si on évalue à au moins 90 millions de tonnes de carbone la quantité emmagasinée dans la forêt amazonienne, cela fait de cette forêt le plus grand puits de carbone sur la terre ferme (les océans en absorbent davantage).

Par ailleurs, ce chiffre signifie que de brûler la forêt dans sa totalité ferait bondir de près de 10 % la quantité de CO2 dans l’atmosphère : cette quantité est actuellement de 410 parties par million (PPM), l’Amazonie en ajouterait une quarantaine. À titre de comparaison, la quantité de CO2 dans l’atmosphère était de 280 PPM pendant la majeure partie de l’histoire de l’humanité, jusqu’à la révolution industrielle, et elle croît à présent de 2 ou 3 PPM par année.

Risque-t-on de voir bientôt disparaître toute la forêt amazonienne ?

À l’heure actuelle, la moitié de la forêt est toujours protégée par le gouvernement brésilien contre la déforestation, malgré les politiques plus permissives du président Jair Bolsonaro.

Une étude parue dans Science en 2014 note également que seulement 3 % de la surface de l’Amazonie est propice à la culture de soja, qui est l’une des deux principales raisons — l’autre étant l’élevage de bovin — pour laquelle les fermiers cherchent à gagner des terres sur la forêt.

Toutefois, il n’est pas nécessaire de détruire toute la forêt pour que se produise le scénario du pire.

Pourrait-il y avoir un point de non-retour ?

Des scientifiques évoquent en effet la possibilité d’un «point de bascule» (tipping point), c’est-à-dire un seuil de déforestation au-delà duquel une large portion du reste de la forêt se dégraderait à cause de la diminution des pluies, pour se transformer en savane. Un processus qui, là aussi, relâcherait dans l’air d’énormes quantités de CO2. Aucun consensus n’existe sur ce que serait ce point de basculement.

Selon le Fonds mondial pour la nature, 17 % de la forêt amazonienne a disparu dans les 50 dernières années.

Le réchauffement climatique pourrait aussi y contribuer : une augmentation du nombre de périodes de canicule signifie plus d’eau qui s’évapore, donc un climat plus sec, donc des risques accrus de feux de forêt.

Les surfaces brûlées n’augmentent-t-elles pas à cause de Bolsonaro ?

Oui, la déforestation a repris, mais pas seulement à cause de Bolsonaro.v Le rythme de déforestation de l’Amazonie avait décliné de pas moins de 70 % entre 2004 et 2012, selon l’étude de 2014 parue dans Science. Mais il avait recommencé à augmenter sous la présidence de Dilma Rousseff, en 2012.

Sous Bolsonaro, le premier semestre de 2019 montre effectivement une accélération de cette hausse (39 % de plus que pendant le premier semestre 2018), selon l’Institut brésilien de recherches spatiales. Mais ce taux de déforestation demeure inférieur à ce qu’il était avant 2004.

L’Amazonie est-elle tout de même un trésor de biodiversité ?

On y compte au moins 16 000 espèces différentes d’arbres, 40 000 espèces de plantes, 2,5 millions d’espèces d’insectes, 2 200 de poissons, 1 300 d’oiseaux, 427 de mammifères et 380 de reptiles. Et ce n’est que ce qui a été recensé jusqu’ici. L’Amazonie pourrait abriter jusqu’à 10 % des espèces vivant sur la terre ferme de notre planète, bien qu’elle n’en représente que 1 % de la superficie.

L’Amazonie n’est-elle pas aussi habitée par des nations autochtones ?

On compte quelque 400 «tribus» autochtones dans l’Amazonie selon l’organisme Survival International. La plupart possèdent une langue et une culture qui leur sont uniques. Elles représentent plus d’un million d’habitants. Au Brésil, au moins une cinquantaine sont qualifiées par la Fondation nationale des Indiens comme «non contactées» ou «isolées», c’est-à-dire qu’elles évitent ou refusent tout contact avec le reste du monde.

Science

Ce sondage est-il fiable?

SCIENCE AU QUOTIDIEN / «La campagne électorale fédérale approche à grands pas et nous serons bientôt submergés de résultats de sondages. Pour m’attarder souvent aux détails de leur méthodologie, j’ai remarqué que si certains les expliquent clairement (méthode, marge d’erreur, etc.), d’autres se contentent de nous informer que l’échantillonnage était «non probabiliste». Alors comment faire pour savoir si un sondage est vraiment fiable?», demande Serge Rivard, de Québec.

De manière générale, oui, les sondages sont fiables. La revue savante Nature – Human Behaviour a publié récemment une étude basée sur quelque 30 000 sondages électoraux dans 45 pays entre 1942 et  2017. Elle a trouvé une erreur moyenne de 2 points de pourcentage pour les sondages réalisés à une semaine ou moins du scrutin, et conclu que «de temps à autre les sondeurs se trompent, ce qui les place sous les projecteurs [...mais en bout de ligne] nous n’avons trouvé aucun signe supportant l’idée d’une crise de fiabilité des sondages».

Cela dit, il en va de ces coups de sonde comme du reste des réalisations humaines : ils sont imparfaits. Un sondage, d’abord, consiste à interviewer un groupe relativement peu nombreux de gens (généralement autour de 1000) afin d’estimer l’opinion de toute une société (des millions, voire des dizaines ou des centaines de millions). En soi, c’est toujours un brin périlleux, puisque les chances pour que ces quelque 1000 personnes représentent de manière parfaitement exacte la société entière sont minces. Mais d’un autre côté, on sait aussi qu’il y a peu de chances pour qu’elles s’en écartent beaucoup. D’où l’idée de la «marge d’erreur», rendue par la célèbre formule «précis à plus ou moins 3 % 19 fois sur 20». Cela signifie que si le parti X obtient 38 % des intentions de vote dans l’échantillon, alors il y a 19 chances sur 20 pour que ses «vrais» appuis dans la population tombent dans une fourchette de ± 3 %, soit quelque part entre 35 et 41 %.

Cela implique, évidemment, qu’il reste toujours 1 chance sur 20 pour que le sondage s’écarte de la «vérité» par plus de 3 %. Ce peut être 4 %, ou 6 %, ou même en principe plus de 10 %, même si c’est extrêmement improbable. Mais cela nous donne déjà un premier indice de fiabilité : est-ce que les résultats sont en ligne avec ce que d’autres sondages récents ont montré ? Si oui, c’est bon signe. Mais si les chiffres sont très différents, cela peut vouloir dire de deux choses l’une. Ou bien l’opinion publique vient de subir un changement rapide (c’est rare, mais ça arrive). Ou bien on a affaire à «la 20fois sur 20», pour ainsi dire. Il vaut mieux alors attendre que d’autres sondages viennent confirmer (ou infirmer) la nouvelle tendance.

Ce qui nous mène un autre indice de fiabilité : les dates d’échantillonnage. Un sondage, c’est comme une photo, ça montre ce qui était là à un moment donné, puis ça ne bouge plus. Alors plus l’échantillonnage remonte à loin dans le passé, plus fort est le risque que l’opinion publique ait changé et que ses résultats ne soient plus valides.

Il y a par ailleurs moyen de réduire la marge d’erreur, remarquez : par la taille de l’échantillon (qui est un troisième indice de fiabilité). Plus il est grand, et plus la marge d’erreur diminue — mais cela finit par coûter cher. Autour de 1000 personnes, elle est d’environ 3 % ; pour l’abaisser à 2 %, il faut interviewer près de 2500 personnes; et pour atteindre 1 %, l’échantillon doit dépasser les 9500. Inversement, à 500 personnes, elle est d’environ 4,4% et de 7% à 200. C’est pourquoi il faut toujours se méfier des «sous-échantillons» — comme les intentions de vote au Québec dans un sondage pan-canadien.

Maintenant, plusieurs firmes ont commencé à faire leurs sondages au moyens de «panels web». Elles se constituent des groupes de quelques dizaines (voire centaines) de milliers de gens afin d’avoir un bassin de répondants plus faciles et économiques à joindre et interviewer que les sondages «classiques». Ces sondeurs s’arrangent pour que leurs panels ressemblent autant que possible à la population en général (même distribution des sexes, des groupes d’âge, des revenus, etc.), mais il reste que procéder de cette manière ne donne pas un échantillon aléatoire (ou «probabiliste») au sens strict parce que les répondants ne sont pas «pigés» parmi la population en général comme dans un sondage téléphonique. Ils viennent d’un sous-groupe relativement restreint.

Or les équations qui servent à calculer les marges d’erreur présument que l’échantillon est probabiliste — elles ne s’appliquent pas autrement. C’est la raison pour laquelle certains sondages sont publiés sans marge d’erreur. D’un point de vue purement mathématique, c’est la bonne chose à faire, mais je crois que cela prive le public d’un élément d’information important : il y a forcément une marge dans les résultats des panels web. Si un de ces panels accorde, disons, 37 % des intentions de vote au parti X, cela ne signifie pas que celui-ci a exactement 37 % d’appuis dans la population en général, mais bien autour de 37 %.

À cet égard, j’aime bien la formule employée par Léger Marketing, qui calcule une marge malgré tout : «un échantillon de cette taille aurait eu une marge d’erreur de x si l'échantillon avait été probabiliste». Des statisticiens à qui j’en ai parlé dans le passé voient ça comme un pis aller, puisque l’idéal serait de travailler avec des échantillons véritablement aléatoires, mais bon, ça reste quand même «moins pire», plus informatif que de ne rien dire.

Maintenant, tant qu’à être dedans, disons un mot sur les méthodes d’échantillonnage. Hormis les panels web et le bon vieux téléphone, les sondeurs procèdent aussi souvent par appels automatisés (l’entrevue se fait au téléphone mais le questionnaire est administré par un robot). Il n’est pas clair que l’une ou l’autre de ces méthodes est vraiment meilleure que les autres — après tout, il y a bien des façons de faire un mauvais sondage, comme des questions biaisées, une mauvaise pondération, une répartition erronée des indécis, etc. À cet égard, il est assez parlant de voir que le célèbre site d’agrégation de sondage et de prédictions électorales FiveThirtyEight, du statisticien américain Nate Silver, a donné la même note de F et cessés d’utiliser les sondages des maisons TCJ Research, qui ne fait que des appels robotisés, et Strategic Vision LLC, qui ne procède que par appels avec téléphonistes.

Mais quand même, comme il n’y a rien de parfait, toute méthode peut introduire des biais. Lors de la présidentielle de 2016, les appels automatisés ont un peu mieux fait que les autres méthodes, se trompant en moyenne par 2,8 points contre 3,2 à 3,9 pour les autres, a montré un «post-mortem» rédigé par des experts (p. 15 / 39). Cependant, FiveThirtyEight a trouvé qu’à plus long terme, les appels «en personne» semblent faire légèrement mieux que les autres, dans la mesure où ils incluent des numéros de cellulaires. Mais la différence est mince et dans ses modèles, M. Silver ne leur accorde qu’un «bonus modeste».

Science

Les «gènes gais» vs la sélection naturelle: qui gagne?

BLOGUE / La semaine dernière, la fameuse étude sur les bases génétiques de l'homosexualité a soulevé une question qui taraude la science depuis longtemps : s'il existe des variantes de gènes qui augmentent les chances d'être homosexuel, et donc qui écartent certains de leurs porteurs de la reproduction, comment se fait-il qu'ils aient «survécu» à la sélection naturelle? Mais avec la rentrée, qui tient toujours les chercheurs très occupés, je n'avais trouvé personne pour m'aider à y répondre...

Or j'ai fini par parler ce matin à Dany Garant, chercheur en écologie évolutive et en génétique des populations à l'Université de Sherbrooke, et je crois qu'il vaut la peine de revenir brièvement sur le sujet.

L'étude en question, rappelons-le, conclut qu'il n'existe pas «un» gène gai, mais que les comportements homosexuels sont influencés par des centaines d'endroits sur le génome. Au total, l'héritabilité génétique expliquerait environ 32 % du phénomène, et l'étude a aussi trouvé que plus un individu a des relations avec des gens du même sexe, moins il a d'enfants : 1,7 enfant en moyenne pour ceux qui ont des relations sexuelles uniquement avec le sexe opposé, contre autour de 0,5 enfant pour ceux dont 75 à 100 % des partenaires sont du même sexe. D'où la question : comment est-ce que ces 32 % d'héritabilité ont-ils pu se transmettre d'une génération à l'autre à travers les âges?

Voici, en résumé, les principaux points de mon entrevue avec M. Garant :

- D'abord, de manière générale, les traits complexes régis par des centaines gènes donnent moins d'emprise à la sélection naturelle. Cela vaut pour les relations avec des gens de même sexe comme pour bien d'autres caractéristiques. De ce que je comprends, ultimement la sélection doit agir sur chaque variante. Or si chacune ne joue qu'un rôle infinitésimal, ladite sélection n'aura que très peu d'effet sur le trait final — et il peut alors difficilement, par définition, y avoir une sélection.

- Il peut aussi y avoir «des régions du génome qui sont liées entre elles, dit M. Garant, par exemple parce qu'elles agissent ensemble». Cela peut contribuer à maintenir des variantes qui, dans certains cas, sont moins «adaptatives» (lire : mènent à une descendance moins nombreuse).

- Si on ajoute à cela le fait qu'une partie des gènes impliqués n'ont rien à voir avec l'attirance sexuelle (des traits de personnalité comme l'ouverture aux expériences nouvelles et l'aversion au risque peuvent entrer en ligne de compte dans la décision d'avoir une relation homosexuelle), cela diminue encore plus la «pogne» qu'il reste pour la sélection.

- Le fait que les comportements homosexuels soient «génétiquement héritables» à 32 % implique en outre que l'environnement (au sens large) joue un rôle prépondérant. Or pour que la sélection agisse, il faut que des variantes de gènes avantagent (ou défavorisent) leurs porteurs pour la peine. Dans le cas qui nous intéresse, si l'environnement compte pour 68 % des comportements homosexuels, alors les variantes génétiques favorisant l'homosexualité ne représentent pas un gros désavantage (toujours en termes de descendance).

- Et puisque il est question d'environnement, ajoutons que pendant très longtemps, l'homosexualité a été violemment réprouvée. C'est parfois encore le cas, d'ailleurs, malheureusement. Mais quoi qu'il en soit, cela implique qu'historiquement (et encore aujourd'hui, bien que dans une moindre mesure) beaucoup d'homosexuels ont dû cacher leurs préférences naturelles, rentrer dans le moule et avoir des enfants comme tout le monde, faute de quoi ils étaient rejetés — ou pire. Alors s'il restait encore une pression de sélection malgré tout ce qui précède, cette répression sociale a pu en réduire les effets encore davantage.

P.S. Je profite de ce «retour» sur l'article de Science pour vous conseiller la lecture de cette critique assez dure, mais aussi éclairante, de la fameuse étude.

Science

Le ciel de septembre 2019: un voyage en quatre dimensions

Peut-être ne l’avez vous jamais réalisé, mais lorsque vous observez le ciel la nuit, vous faites un vertigineux voyage dans l’espace et le temps. Le mois de septembre est très propice pour vivre cette expérience cosmique !

À l’échelle humaine, avec nos seuls sens, il nous est impossible de mesurer la distance des étoiles : le ciel nous apparaît en deux dimensions. Mais vous vous en doutez, le ciel n’est pas une voûte fixe au-dessus de nos têtes, c’est un espace tridimensionnel.

Intuitivement, on pourrait penser que les étoiles les plus brillantes sont les plus proches. C’est généralement vrai, mais on ne peut pas toujours s’y fier.

Prenons par exemple le fameux Triangle d’été, bien visible ce mois-ci au-dessus de nos têtes à la tombée de la nuit (référez-vous à la carte).

Véga, en haut et à droite du triangle, est située à 25 années-lumière de nous; Altaïr, en bas, se trouve à 17 années-lumière. Ces deux étoiles sont relativement proches, astronomiquement parlant. Maintenant, repérons Déneb, en haut et à gauche : elle est située à la distance étonnante de 1550 années-lumière, près de dix fois plus loin !

Cela signifie que le Triangle d’été est en réalité très déformé dans l’espace : son sommet supérieur gauche est beaucoup plus loin que les deux autres.

Autre exemple : l’étoile hypergéante Mu de la constellation de Céphée, connue aussi sous le nom de l’étoile Grenat à cause de sa teinte rouge remarquable. Avec un diamètre de 1300 fois celui du Soleil, elle est intrinsèquement cent mille fois plus lumineuse que le Soleil ! À l’œil, cependant, elle ne semble pas si brillante (magnitude +3,6), car elle est possiblement située à 5300 années-lumière ! Sa distance exacte reste difficile à déterminer, mais c’est l’une des étoiles visibles à l’œil nu les plus distantes.

À la campagne ou dans un parc le soir, imaginez la portée de votre regard dirigé vers le ciel. Imaginez des rayons de différentes longueurs, des « courts » et des « longs », qui partent de votre être et qui atteignent les étoiles, une à une, sur des distances qui s’étalent sur des milliers de milliards de kilomètres. Vous verrez, l’exercice donne le vertige !

Le vertige ne s’arrête pas là... La lumière voyage à 300 000 kilomètres par seconde. En un an, elle parcourt la distance d’une année-lumière soit environ dix mille milliards de kilomètres ! La lumière prend donc un certain temps à nous arriver des étoiles : exactement une année pour chaque année-lumière. Lorsqu’on dit que Véga est située à 25 années-lumière, cela veut également dire que sa lumière prend 25 ans à nous parvenir. On la voit donc 25 ans dans le passé. En regardant le Triangle d’été, d’un coup on remonte le temps de 25 ans, 17 ans et 1550 ans ! On remonte à 5300 ans si on regarde vers Mu de Céphée. Wow !

Aussi visible en septembre, l’un des astres les plus lointains que l’on puisse distinguer à l’œil nu est la galaxie d’Andromède. En l’observant à l’œil ou avec des jumelles, notre rétine capte une lumière vieille de plus de 2,5 millions d’années !

Grâce à la puissance de l’astronomie et de l’imagination, en observant le ciel vous voyagez dans l’espace et dans le temps !

Le système solaire

Plus près de nous, peu de phénomènes remarquables sont observables cette année en septembre. La pleine lune aura lieu le 14 à 0 h 33, heure avancée de l’Est, et la nouvelle lune le 28 à 14 h 26. L’équinoxe, qui marque le début de l’automne astronomique, surviendra le 23 septembre à 3 h 50 du matin.

Côté planètes, seules Jupiter et Saturne sont visibles, relativement basses à l’horizon à la tombée de la nuit. Jupiter, très brillante, est le premier astre à s’allumer au crépuscule, en direction sud-sud-ouest. Lorsque le ciel s’assombrit davantage, on aperçoit Saturne qui culmine au sud, 22 degrés au-dessus de l’horizon. Le soir du 5 septembre, au crépuscule, le premier quartier de Lune repose quelques degrés à droite de Jupiter. Le lendemain soir, la Lune gibbeuse se retrouve à la gauche de Jupiter. Le 7 septembre, la Lune se trouve maintenant à droite de Saturne. Enfin, le soir du 8 septembre, on retrouve la Lune 5 ½ degrés à gauche de Saturne au crépuscule.

Bonnes observations !

Sébastien Gauthier est astronome au Planétarium Rio Tinto Alcan

Au Planétarium de Montréal : Un seul billet pour voir tous les films présentés le jour de votre visite au Planétarium Rio Tinto Alcan. Consultez l’horaire sur notre portail Web à espacepourlavie.ca.

Science

La «générosité» de l'érable

LA SCIENCE DANS SES MOTS / Chaque cellule vivante n’est essentiellement qu’un petit sac d’eau. Vu sous cet angle, la vie ne consiste guère plus qu’en la construction et la reconstruction de milliards de sacs d’eau. Mais ce qui rend cette tâche particulièrement ardue est qu’il n’y a pas assez d’eau à disposition. Il n’y aura jamais suffisamment d’eau pour toutes les cellules qui pourraient voir le jour. Chaque être vivant à la surface de la Terre est ainsi engagé dans une guerre sans fin pour s’approprier une quantité d’eau totale équivalant à moins d’un millième du pourcent des ressources hydriques de la planète.

Les arbres sont les plus désavantagés parce qu’ils ne peuvent se déplacer à la recherche de l’eau dont ils ont besoin et, parce qu’ils sont grands, ils en demandent bien davantage que les animaux. Si vous traversez les États-Unis de Miami à Los Angeles sur la I-10, en passant par la Louisiane, le Texas et l’Arizona, cela vous prendra trois longues journées, mais surtout, vous apprendrez l’une des bases de la biologie végétale : le volume de végétation présent en un endroit donné est directement proportionnel au volume de précipitations annuel qui s’y déverse.

Si l’on imagine que toute l’eau de la planète est équivalente à celle d’une piscine olympique, la quantité dans le sol à disposition des plantes remplirait à peine une bouteille de soda. Les arbres ont besoin de tellement d’eau – près de quatre litres pour l’élaboration d’une poignée de feuilles – qu’il est tentant d’imaginer que leurs racines pompent activement le sol. Mais la réalité est tout autre : les racines d’un arbre sont totalement passives. L’eau pénètre passivement dans les racines le jour et en ressort tout aussi passivement la nuit, comme les marées obéissant à la lune. Les tissus racinaires fonctionnent comme une éponge : si on les place, lorsqu’ils sont secs, sur une flaque de lait renversé, ils se dilatent automatiquement pour aspirer le liquide. Si on place ensuite cette éponge gorgée de lait sur du béton sec, le lait sera aspiré par le trottoir, où se formera peu à peu une tache humide. Où que l’on creuse, on constate que le sol est plus humide à mesure que l’on progresse vers la roche-mère.

Un arbre mature reçoit la majeure partie de son eau par le biais de sa racine pivot, qui est celle qui s’enfonce à la verticale. Les racines des arbres situées près de la surface poussent latéralement pour former une structure de support en réseau, afin d’empêcher l’arbre de tomber. Ces racines peu profondes humidifient également les sols arides, en particulier quand le soleil est couché et que les feuilles ne transpirent plus activement. Les érables matures redistribuent ainsi toute la nuit, par le biais de leurs racines superficielles, l’eau prélevée en profondeur. Il a été montré que les petites plantes qui vivent à proximité de ces grands arbres dépendent, pour plus de la moitié de leurs besoins, de cette eau recyclée.

La vie d’un jeune arbre est extrêmement difficile : 95% de ceux qui atteignent l’âge d’un an ne subsistent pas jusqu’à leur deuxième année. En général, la graine d’un arbre ne voyage pas très loin ; la plupart des graines d’érable prennent ainsi racine à moins de trois mètres du tronc qui supporte les branches dont elles sont tombées. Les jeunes érables doivent alors lutter pour l’accès à la lumière, alors qu’ils se trouvent à l’ombre d’un érable adulte qui capture à son profit tous les éléments nutritifs de ce coin de sol depuis des années.

Il existe, cependant, un acte de générosité parental fort de l’érable envers sa progéniture. Chaque nuit, sous terre, la ressource la plus précieuse de toutes — l’eau — s’écoule du plus fort vers le plus faible, de sorte que l’arbrisseau puisse continuer à vivre pour se battre un jour de plus. Cette eau ne constitue pas tout ce dont le jeune arbre a besoin, mais elle y contribue et aucune aide ne sera de trop pour que, dans cent ans, un érable existe toujours à cet endroit. Aucun parent ne peut rendre la vie parfaite à ses enfants, mais nous essayons tous de les aider à grandir du mieux que nous pouvons.

Science

Cholestérol à la hausse chez les... corbeaux?

Une étude révèle que les résidents des villes sont plus nombreux que ceux des campagnes à présenter un taux élevé de cholestérol, résultat probable d’une trop grande consommation de fast food. Méfiez-vous toutefois, cette étude ne parle pas des humains, mais des… corbeaux.

L’équipe d’ornithologues du Collège Hamilton, dans le Nord de l'État de New York, a d’abord mesuré le taux de cholestérol et de masse de gras chez 140 corbeaux dans des régions rurales et urbaines de Californie, et a constaté cette différence entre les deux groupes. L’échantillon n’est pas énorme, conviennent-ils, mais pour contrer la critique à l’effet que d’autres facteurs pourraient expliquer cette différence, ils ont déposé des cheeseburgers à proximité de nids dans des régions rurales de l’État de New York… ce qui, à raison de trois burgers par jour par nid, représentait une centaine de commandes chez McDonald chaque fois !

Résultat : le taux de cholestérol de ces corbeaux ruraux s’est révélé similaire à celui des corbeaux urbains.

À ceux qui seraient choqués par l’idée de nourrir des oiseaux de cheeseburgers au nom de la science, il faut noter qu’au contraire des humains, les espèces de corbeaux ne sont pas toutes affectées négativement par des taux élevés de cholestérol et qu’en fait, se défend la chercheure principale, Andrea Townsend, des recherches ont même suggéré que le cholestérol pouvait contribuer à la survie de certains oiseaux. La réalité est que, si on a assez bien étudié les effets d’une consommation excessive de gras chez les humains, les recherches à ce sujet sur les oiseaux restent encore maigres.

Science

Six mythes sur l’immigration

DÉTECTEUR DE RUMEURS / L'immigration fait régulièrement la Une de l'actualité, au Québec et ailleurs. Les opinions divergent, la méfiance s’exprime et les jugements se multiplient quant à la capacité des immigrants à s’intégrer, à participer au marché du travail et même quant à leur nombre. Mais qu’en est-il réellement ? Le Détecteur de rumeurs déboulonne certains mythes.

La majorité des immigrants sont des réfugiés : faux

Dans un premier temps, il faut savoir que l’immigration a plusieurs visages. Au Québec, environ 60 % des immigrants proviennent de la catégorie économique, c’est-à-dire qu’ils sont sélectionnés par la province en raison de leurs compétences professionnelles et de leur capacité à contribuer à l’économie. De l’autre côté, il y a les immigrants admis par le gouvernement fédéral par le programme de regroupement des familles, qui représentent près de 25 %, ou comme réfugiés (incluant les demandeurs d’asile). Ces derniers sont souvent obligés d’entrer au Canada sans les documents de voyage nécessaires et sans autorisation. On parle alors d’entrée irrégulière. Bien qu’ils représentent environ 17 % des nouveaux arrivants, ce sont souvent eux qui attirent l’attention et la grogne, comme lors des arrivées du printemps 2017 au chemin Roxham, à la frontière du Québec et des États-Unis.

Source : ministère de l’Immigration, de la Diversité et de l’Inclusion. *Cette catégorie regroupe surtout des cas humanitaires, quelques dossiers de demandeurs non reconnus du statut de réfugié, de titulaires de permis ministériel et des cas d’intérêt public.

«Les immigrants nous envahissent» : faux

Pour toute l’année 2018, 51 118 immigrants ont donc été admis au Québec. C’est légèrement moins que l’année précédente. De ce nombre, seulement 8832 (17,3 %) étaient des réfugiés, souvent ciblés par ceux qui craignent «l’envahissement». Malgré ces arrivées, l’ensemble des personnes nées dans un autre pays ne représente que 13,7 % de la population du Québec, selon le plus récent recensement de Statistique Canada (2016).

Et une étude de l’Institut du Québec, publiée en septembre 2018, montre que le Québec n'accueille que 14,5 % des immigrants admis au Canada, alors qu’il représente 23,1 % de la population. Le document précise que sans l'apport de l'immigration, la population du Québec serait en décroissance dès 2034 en raison du vieillissement accéléré de la population et de son faible taux de fécondité.

Selon des projections effectuées pour Statistique Canada, la proportion d’immigrants continuera d’augmenter au cours des 25 prochaines années pour atteindre entre 24,5 % et 30 % de la population du Canada en 2036.

Mais la méfiance perdure. En juin 2019, 63 % des répondants à un sondage web mené par la firme Léger pour la Presse canadienne estimaient que le gouvernement devrait «prioriser de réduire le nombre d'immigrants qui entrent au Canada». Seulement 37 % croyaient au contraire que le gouvernement devrait l'augmenter, alors que les entreprises, pendant ce temps, disent avoir désespérément besoin de travailleurs. Selon Emploi-Québec, près du tiers des travailleurs devront être remplacés d'ici 2024.

«Les immigrants volent nos jobs» : faux

En 2017, le taux de chômage des immigrants âgés de 25 à 54 ans et arrivés au Québec depuis cinq ans et moins était de 15,8 %, comparativement à 4,5 % pour les Québécois nés ici. Leur principal obstacle à l’emploi : la reconnaissance des diplômes et de l’expérience de travail acquis à l’étranger.

Les immigrants qui sont au Québec depuis cinq ans ou plus s’en tirent mieux, avec un taux de chômage de 8,7 % en 2017, alors qu’il oscillait entre 10,6 % et 13,8 % de 2007 à 2015. Cela demeure toutefois supérieur à celui des gens nés au Québec. Plus révélateur, le taux d’emploi des 25 à 54 ans, c’est-à-dire la proportion des immigrants qui travaillent, a augmenté de plus de 7 % en dix ans pour atteindre 62,8 % en 2018, au Québec.

La pénurie de main-d’œuvre qui frappe le Québec et le Canada explique en grande partie que plus d’immigrants intègrent le marché du travail. Ils viennent occuper les postes que les employeurs peinent à combler. Huit organismes économiques québécois, dont le Conseil du patronat et la Chambre de commerce du Montréal métropolitain, ont même demandé au gouvernement de François Legault de ne pas diminuer le nombre d’immigrants économiques admis, afin de répondre au «besoin urgent de main-d’œuvre».

Les immigrants sont aussi plus nombreux à créer leur propre emploi. En 2010, Statistique Canada indiquait que 5,3 % des immigrants possédaient une entreprise privée neuf ans après leur arrivée en sol canadien, contre 4,8 % des personnes nées au Canada.

Les «illégaux» court-circuitent le processus d’immigration : faux

Au printemps 2017, le nombre de demandeurs d’asile entrant au Canada de manière irrégulière en provenance des États-Unis a explosé, suscitant de vives critiques. Toutefois, pendant l’année 2017, 59 % des demandeurs d’asile sont entrés au Canada de manière régulière. Parmi ceux qui sont entrés de manière irrégulière, 53 % finissent par être reconnus comme des réfugiés, et moins de 1 % ont des antécédents criminels.

Contrairement à la croyance populaire, ce n’est pas un crime de passer la frontière sans autorisation quand il s’agit de demander asile, note le bureau canadien du Haut Commissariat des Nations Unies pour les réfugiés (HCR). Autre détail important : les demandes d’asile politique et les demandes d’immigration ne sont pas soumises au même processus. Les premières sont traitées d’abord par l’Agence des services frontaliers, puis par la Commission de l’immigration et du statut de réfugié, les secondes passent par le ministère de l’Immigration — il s’agit de deux voies étanches et séparées. Et il est à noter qu’une augmentation du nombre de réfugiés ne se traduit pas par une baisse du niveau d’immigration économique l’année suivante.

Le Québec se dirige vers l’islamisation : faux

Le ministère de l’Immigration du Québec ne compile pas les statistiques sur la religion des immigrants. En examinant les pays d’origine de ceux qui sont arrivés au Québec entre 2013 et 2017, on observe que les deux premiers pays de naissance des immigrants économiques — qui composent, rappelons-le, 60 % des immigrants au Québec — sont la France et la Chine. Parmi les réfugiés, seule la Syrie, qui compte une population majoritairement musulmane, se dégageait du lot (33 % des réfugiés) suivie loin derrière par Haïti (6,7 %).

Les rangs des communautés musulmanes grossissent donc… lentement. Lors du recensement de 2011, à peine plus d’un million de Canadiens se disaient musulmans, ce qui représente 3,2 % de la population du pays. Au Québec, ils représentent 3,1 % de la population. Certes, c’est près de deux fois plus qu’en 2001, alors qu’ils représentaient 2 % de la population canadienne et 1,5 % de celle du Québec. Mais à ce rythme, il faudrait des décennies avant que les musulmans forment une proportion significative de la population.

La majorité des immigrants ne parlent pas français : vrai et faux

La connaissance du français est effectivement en baisse chez les nouveaux arrivants. En 2017, 58 % des nouveaux arrivants ne parlaient pas le français, comparativement à 53 % en 2016. De 2006 à 2015, c’est une minorité variant entre 35 et 44 % qui ne parlait pas français.

Les immigrants économiques choisis par le Québec sont les plus nombreux à connaître le français puisqu’il s’agit d’un critère de sélection. Malgré tout, seulement 61,5 % d’entre eux maîtrisaient le français en 2017, contre 72,9 % l’année précédente.

Les statistiques de recensement démontrent toutefois que 10 ans après leur arrivée, 90,5 % des immigrants économiques, 77,1 % de ceux qui ont bénéficié du programme de réunification familiale et 84,3 % des réfugiés, parlent le français. Et le gouvernement de la Coalition Avenir Québec songe à imposer un test de français aux futurs candidats à l’immigration.

Science

L’auto, le piéton et le «tunnel»

SCIENCE AU QUOTIDIEN / «Depuis environ un an, les limites de vitesse de mon quartier ont été abaissées à 30 ou 40 km/h dans beaucoup de rues. J’ai conduit des ambulances pendant 32 ans à des vitesses parfois très élevés. Or il me semble que j’ai moins de concentration quand je roule à 30 qu’à 90. Je constate que mes yeux se promènent ici et là pour s’attarder à des choses inutiles pour un conducteur (un chien qui urine, par exemple) plutôt que devant moi. Est-ce normal ?» demande Yolande Poisson, de Rosemont.


Oui, il semble que c’est tout-à-fait normal. Et pour tout dire, le fait que le regard s’attarde à des détails périphériques à la conduite quand on roule plus lentement n’est pas un signe que notre capacité de concentration diminue : c’est simplement comme ça que l’attention fonctionne. Il y a une sorte d’«effet tunnel», bien documenté, qui vient avec la vitesse. Plus la voiture se déplace vite, plus le champ de vision effectif du conducteur se réduit et focalise sur la route, au détriment de ce qui l’entoure [http://bit.ly/2MKom1u]. Il y a d’autres choses que la vélocité qui entre en ligne de compte, remarquez — à vitesse égale, un environnement plus complexe, avec des courbes, bâtiments et activités autour va amener le conducteur à décrocher le regard de la route plus souvent que, par exemple, un chemin de campagne en ligne droite —, mais ça reste quand même une tendance assez claire.

Tenez : en 2004, une étude française [http://bit.ly/2HByqWB]| a soumis une vingtaine de conducteurs à une simulation où ils devaient conduire sur une autoroute où le trafic roulait soit à 90 km/h, soit à 130 km/h. Tout au long de la simulation qui durait 2 heures, un point de couleur se trouvait droit devant eux, dans la fenêtre arrière du véhicule qui les précédait ; ce point changeait parfois de couleur et les participants devaient appuyer sur un bouton aussitôt qu’ils le percevaient. Et ils devaient faire de même quand ils voyaient un petit signal périphérique, qui apparaissait périodiquement dans le clignotant d’une voiture roulant dans la voie d’à côté.

Résultats : à 90 km/h, les conducteurs ont détecté 57 % des signaux périphériques, ce qui était un peu mieux qu’à 130 km/h (54 %). Mais pour le signal «central», droit devant eux, ce fut l’inverse : ceux qui filaient à 130 km/h ont mieux performé (60 %) que ceux qui roulaient plus lentement (52 %). D’autres études [http://bit.ly/2Zsv7f4] ont aussi montré, par exemple, que la pupille se dilate à mesure que la vitesse diminue et que l’œil se fixe sur plus d’endroits différents quand on roule lentement.

Bref, plus on va vite, plus le regard doit se concentrer sur ce qu’il y a droit devant, et plus on roule lentement, plus l’attention peut se porter sur le contexte. Et du point de la sécurité, ce n’est pas du tout une mauvaise chose : en milieu urbain, si l’on veut éviter les collisions, il vaut nettement mieux ne pas fixer toujours la route, afin de voir les piétons, cyclistes ou objets avant qu’ils n’arrivent sur la chaussée. Ce n’est pas le signe d’un manque d’attention, c’est simplement que l’attention s’adapte à l’environnement et à la vitesse du véhicule.

D’ailleurs,  dit François Gagnon, conseiller scientifique à l’Institut national de santé publique qui travaille notamment sur l’effet des aménagements urbains sur la sécurité, «le principe même des mesures d’apaisement de la vitesse, c’est d’attirer l’attention des conducteurs vers autre chose que la vitesse. Avec un dos d’âne allongé, par exemple, on concentre l’attention sur le dos d’âne et les personnes qui peuvent traverser à cet endroit-là. C’est la même chose avec le rétrécissement des intersections : là où il n’y avait rien, on remplit avec du béton ou de la verdure. On peuple l’espace et on attire l’attention du conducteur vers autre chose que la vitesse, et ça incite à rouler plus lentement.»

Pour ralentir la circulation, ces obstacles sont nettement plus efficaces que de simplement changer la limite de vitesse, poursuit-il. Ce qui est une bonne chose, puisqu’il est abondamment démontré que c’est un facteur majeur pour la sécurité de tout le monde.

«Les véhicules motorisés sont les principaux facteurs de blessure, dit M. Gagnon. C’est la masse la plus importante, c’est l’énergie la plus importante dans la rue, alors c’est eux qui blessent les autres. (…) Et ce qui se passe en termes de sécurité quand on réduit les vitesses est assez bien documenté pour les piétons et les cyclistes.»
Une étude «classique», dit-il, a été menée à Londres où pas moins de 399 zones à vitesse réduite (20 miles à l’heure, ou 32 km/h) ont été mises en place au cours des années 1990 et 2000. Parue dans le British Medical Journal [http://bit.ly/2ZsKoMW], l’étude a conclu à un réduction de 32 à 35 % des collisions avec des piétons et de 17 à 38 % pour les cyclistes — et ces chiffres étaient encore plus élevés quand on ne retenait que les enfants de 0 à 15 ans.

D’une part, explique M. Gagnon, des vitesses réduites diminuent la distance de freinage, ce qui aide l’automobiliste à éviter un accident. Et d’autre part, quand la collision survient malgré tout, elle est moins grave. D’après des chiffres que l’on trouve sur le site de l’Institut des ingénieurs en transport, environ 90 % des piétons qui se font renverser à 30 km/h survivent au choc, et 10 % en meurent. À 50 km/h, cette proportion passe à 60-40. Et à 65 km/h, elle tombe à 20-80...

Science

Découverte d'une seconde mutation génétique résistante au virus du sida

WASHINGTON — Une mutation génétique extrêmement rare, responsable d’une maladie musculaire touchant une centaine de personnes, crée une immunité naturelle contre le virus du sida, ont rapporté jeudi des chercheurs espagnols qui espèrent que ce sera une piste pour de nouveaux médicaments anti-VIH.

Une première mutation était bien connue jusqu’à présent : celle découverte chez le fameux «patient de Berlin», Timothy Brown, guéri du VIH grâce à une greffe de cellules-souches contenant une mutation rare du gène CCR5, qui confère une immunité naturelle contre ce virus.

La nouvelle mutation concerne un autre gène (Transportine-3 ou TNPO3) et est beaucoup plus rare : elle a été découverte il y a des années chez une même famille en Espagne, atteinte d’une maladie musculaire ultra-rare, appelée dystrophie musculaire des ceintures de type 1F.

Les médecins se sont aperçus que des chercheurs sur le VIH s’intéressaient séparément au même gène, car il joue un rôle dans le transport du virus à l’intérieur des cellules.

Ils ont donc contacté des généticiens de Madrid, qui ont eu l’idée de tenter d’infecter, en laboratoire, du sang des membres de cette famille espagnole avec le virus du sida.

L’expérience livra une surprise: les lymphocytes de ceux qui avaient cette maladie musculaire ultra-rare étaient naturellement résistants au VIH. Le virus n’arrivait pas à rentrer dedans.

«Cela nous aide à comprendre beaucoup mieux le transport du virus dans la cellule», explique en français à l’AFP José Alcamí, le virologue de l’Institut de santé Carlos III à Madrid qui a mené ces recherches publiées dans la revue américaine PLOS Pathogens.

Le VIH est certes le mieux connu de tous les virus, dit-il, «mais il y a encore beaucoup de choses qu’on connaît mal. Par exemple, on ne sait pas pourquoi 5 % des patients qui sont infectés ne développent pas de sida. Il y a des mécanismes de résistance à l’infection qu’on comprend très mal».

Le chemin est encore long pour exploiter cette faille afin de produire un nouveau médicament. Mais la découverte de cette résistance naturelle confirme que le gène TNPO3 est une autre cible intéressante pour barrer la route au virus.

Science

Le «gène gai» : suite et fin ?

On le cherche depuis des décennies. Des études sur l’orientation sexuelle de jumeaux suggèrent continuellement son existence. On avait bien cru le trouver récemment, quelque part sur le chromosome X. Mais tout indique maintenant que le «gène gai» n’existe tout simplement pas : il y a des centaines de gènes qui influencent le fait d’avoir eu ou non une relation avec le même sexe et, même tous ensemble, ils n’expliquent qu’une partie relativement mineure de l’homosexualité, selon une étude parue jeudi dans Science, la plus vaste jamais entreprise sur le sujet.

«Il n’y a pas de jauge pour déterminer si quelqu’un a un partenaire du même sexe, a dit Andrea Ganna, premier auteur de l’étude et chercheur en génétique à l’Université Harvard, lors d’une conférence téléphonique tenue plus tôt cette semaine. Par exemple, nous n’avons pas trouvé de signal fort sur le chromosome X, contrairement à ce qui avait été rapporté précédemment dans la littérature scientifique. Les comportements sexuels, en fait, sont très polygéniques [NDLR : influencés par de nombreux gènes], ce qui est similaire à ce qu’on voit pour bien d’autres traits comportementaux.»

L’étude en question a consisté à scanner tout le génome de près de 500 000 personnes, provenant des banques de données de la compagnie 23andMe, qui vend des tests génétiques au grand public, et d’une banque de données britannique. En mettant ces données en relation avec les comportements sexuels (homo ou hétéro) autodéclarés des participants, les chercheurs ont trouvé cinq principaux sites sur le génome associés au fait d’avoir déjà eu une relation sexuelle avec quelqu’un du même sexe. Mais même tous ensemble, ces cinq sites expliquent moins de 1 % du phénomène.

En ajoutant par-dessus ces cinq «gènes» toutes les autres différences génétiques de moindre importance, au nombre de centaines, sinon de milliers, M. Ganna conclut que le génome explique au total «entre 8 et 25 % de la variance dans les comportements homosexuels autorapportés». Le reste viendrait de l’«environnement», à comprendre ici au sens large : éducation, culture, tout ce qui se passe in utero, stress divers, etc.

Fait à noter, les gènes impliqués ne sont pas tous forcément liés à l’attraction pour les gens du même sexe. Certains traits de personnalité, comme l’ouverture aux nouvelles expériences ou le degré d’aversion (ou d’insensibilité) au risque, peuvent avoir une incidence sur la décision d’un individu d’avoir ou non une relation avec une personne du même sexe, indépendamment de l’attirance.

«Je pense que tout ceci montre que [les comportements homosexuels] font partie d’une variabilité normale et naturelle de notre espèce», a pour sa part indiqué Benjamin Neale, lui aussi de Harvard et un des auteurs «séniors» de l’article de Science.

«Enfin»

Ces conclusions sonnent comme de la musique aux oreilles de Michel Dorais, chercheur en travail social à l’Université Laval qui, sans être généticien lui-même, mène des recherches sur l’homosexualité depuis une quarantaine d’années.

«Je suis content parce que ce type de recherche-là [sur les origines biologiques de l’homosexualité], habituellement, c’est du temps perdu. Mais pour une fois, ce n’est pas du temps perdu tant que ça parce que les auteurs disent : regardez, ça ne donne plus rien de faire ça, ça ne mène nulle part. Mais ça fait des décennies qu’on sait ça, parce que la conduite sexuelle, et même les désirs, c’est tellement complexe qu’à l’évidence, ça ne peut pas être un comportement automatique comme manger. Quand vous avez des désirs sexuels [qui sont différents des comportements à proprement parler, NDLR], d’abord il faut que vous décidiez si vous les réalisez ou non, il faut décider avec qui, comment approcher cette personne-là, etc. Alors les comportements sexuels sont des comportements extrêmement complexes qui ne peuvent tout simplement pas être régis par des réflexes automatiques et génétiques», dit M. Dorais.

Pour tout dire, les résultats de Science montrent une telle complexité que certains appellent à abandonner ou modifier certaines «échelles» d’attraction sexuelle utilisées en recherche, comme la classique «échelle de Kinsey» qui montre une gradation allant de l’hétérosexualité exclusive à l’homosexualité exclusive, car elles seraient trop simplistes.

«C’est un de nos résultats les plus intéressants, mais les plus provocants aussi, a commenté M. Ganna : d’un point de vue génétique, il n’y a pas de continuum unique qui irait des comportements hétérosexuels jusqu’aux comportements homosexuels. En d’autres termes, les variantes de gènes qui sont associées au fait d’avoir déjà eu un partenaire de même sexe une fois dans sa vie ne sont pas les mêmes variantes qui sont associées au fait d’avoir eu plus de partenaires du même sexe que de partenaires du sexe opposé. Alors il n’y a pas d’échelle unique qui ferait que plus une personne est attirée par l’autre sexe, moins elle l’est par le même sexe.»

Actualités

Six idées reçues sur l’aide financière aux médias

DÉTECTEUR DE RUMEURS / Le fait d’apprendre ce mois-ci que six journaux régionaux québécois - Le Soleil, Le Droit, La Tribune, Le Nouvelliste, Le Quotidien et La Voix de l'Est - se retrouvaient sous la protection de la loi sur les faillites a ramené à l’avant-scène des arguments maintes fois répétés, entre lesquels il est difficile pour certains de dégager le vrai du faux. Le Détecteur de rumeurs a retenu six idées reçues.

Avertissement : l’Agence Science-Presse est elle-même un média qui reçoit une aide financière du gouvernement du Québec, en l’occurrence une « aide directe », telle que définie au point 3. Le projet du Détecteur de rumeurs bénéficie quant à lui d'une aide financière du bureau du scientifique en chef du Québec.

1) « Les médias qui ne peuvent pas s’adapter au numérique devraient fermer leurs portes ? » Douteux.

Pour vérifier cela, il faudrait d’abord définir ce que veut dire « s’adapter au numérique » : un très grand nombre de médias d’ici et d’ailleurs ont expérimenté depuis 20 ans des formules inédites, souvent innovantes, et aucun ou presque n’a réussi à en dégager des profits.

Il faut par ailleurs se rappeler que pour « s’adapter au numérique », encore faut-il en avoir les moyens. Selon une compilation faite en 2016 par le Centre d’études sur les médias (CEM) de l’Université Laval, la part des investissements publicitaires consacrée aux journaux était en rapide déclin depuis le début des années 2000, essentiellement au profit d’Internet. Sauf que ça ne se traduit pas en revenus publicitaires pour les « journaux sur Internet », mais pour Facebook et Google : rien qu’à eux deux, à travers le monde, ils accaparaient en 2017 le quart de ces revenus.

Et si on ne calcule que les nouveaux revenus publicitaires, c’est-à-dire ceux qui n’existaient pas avant l’an 2000, c’est pire : selon le CEM, en 2016 au Canada, 95 % des sommes supplémentaires dépensées en publicité étaient allées aux Google, Facebook, YouTube et autres plateformes d’Internet, plutôt qu’aux médias.

2) « Les gens ne sont pas prêts à payer pour de l’information ? » Incertain.

Il est difficile d’affirmer combien de gens paieraient si davantage de médias devenaient payants sur Internet. Mais pour l’instant, les données préliminaires dont on dispose ne sont pas encourageantes.

Selon le rapport 2015 de l’Institut Reuters pour l’étude du journalisme, dans 12 pays étudiés, ceux qui payaient pour des nouvelles en ligne représentaient 10 % des lecteurs.

D’autres enquêtes publiées depuis 2015 ont apporté des nuances : le pourcentage semble plus élevé dans plusieurs pays d’Europe (20 % en Suède et en Pologne), mais pas tous (11 % en France); aux États-Unis, l’information locale semble avoir plus de chances de récolter des gens désireux de payer; et le fait d’être déjà abonné à de l’information papier semble être un facteur qui influence positivement la volonté de payer pour de l’information en ligne.

Au Québec, on constate par ailleurs que le seul quotidien à disposer d’un accès payant sur le web, réservé à ses abonnés, soit Le Devoir, a dégagé un léger bénéfice à quelques reprises au cours des dernières années.

3) Si l’État aide financièrement un média, ça signifie qu’il lui signe un chèque ? Pas nécessairement.

Une aide directe consiste effectivement en un chèque : il peut s’agir soit d’une somme d’argent renouvelée chaque année, soit d’un montant alloué à la pièce, pour un an, sur présentation d’un projet. Exceptionnellement, il peut s’agir d’un prêt, comme celui alloué à Capitales Médias ce mois-ci. Une aide indirecte en revanche, peut prendre la forme de crédits d’impôt, comme ceux annoncés par le gouvernement Trudeau en 2018 (mais qui n’ont pas encore été créés) ou d’exemptions fiscales aux journaux imprimés comme en France. On retrouve tantôt des exemptions fiscales, tantôt des incitatifs fiscaux, dans de multiples secteurs de l’économie, les plus connus ces dernières années ayant été l’énergie et le multimédia, par exemple pour inciter une compagnie à s’installer dans une ville ou à créer de l’emploi. Financer des entreprises ou les accompagner est le rôle même de la société d’État Investissement Québec.

Il faut par ailleurs savoir qu'au sujet des revenus et de l'éventuelle profitabilité, il existe un débat parmi les défenseurs de l’information journalistique : les médias doivent-ils être considérés comme des entreprises commerciales comme les autres, ou comme une forme de « service public » ? Le débat se poursuit.

4) L’aide directe de l’État aux médias est une idée née avec la crise des quotidiens ? Faux.

Au Québec, la majorité des grands magazines et la majorité des émissions d’affaires publiques de la télévision, dont la totalité de celles diffusées sur les chaînes spécialisées, sont subventionnées. Les magazines qui satisfont aux critères reçoivent une aide directe, renouvelée chaque année, du Fonds canadien pour les périodiques (qui représentait une enveloppe de 75 millions de dollars en 2018). Les médias communautaires sont subventionnés par le ministère québécois de la Culture. Les émissions de télé peuvent être financées par Téléfilm au fédéral ou par la SODEC au provincial sur présentation d’un projet et d’un engagement de diffusion par une chaîne de télé.

5) L’idée d’une aide indirecte aux médias est apparue en 2018, avec les crédits d’impôt du gouvernement Trudeau ? Faux.

Historiquement, la première aide indirecte aux médias canadiens a été l’aide à l’envoi postal, qui remonte au 19e siècle : avoir le statut de journal donnait droit à une réduction sur les envois aux abonnés par la poste.

Chez nous, la plus visible des aides indirectes a longtemps pris la forme des « avis publics ». Puisque la loi oblige un gouvernement à annoncer, par exemple, ses audiences publiques en vue d’une modification à une loi, le seul canal à sa disposition a longtemps été le journal local. Cette aide a considérablement diminué dans les années 2010, les gouvernements et les municipalités affichant sur leur propre site web.

Plusieurs pays, dont la France, offrent des exemptions fiscales aux journaux imprimés : le journal en ligne Médiapart s’est battu pendant plusieurs années (et a eu en partie gain de cause) pour que ces exemptions soient élargies aux médias numériques.

6) Les Québécois donnent déjà beaucoup aux médias ? Faux.

Au Québec, l’aide aux médias serait, par citoyen, inférieure à celle qu’on retrouve dans nombre de pays européens selon une analyse produite en 2016 pour la Fédération nationale des communications par la firme MCE Conseils. La presse écrite québécoise recevrait en moyenne 3 $ par habitant, contre 5,83 $ aux États-Unis. À l’autre extrémité du spectre, le pays qui soutient le mieux la presse écrite était la Finlande (92,23 $ par habitant), suivie de la Norvège (57,65 $ par habitant) et de la Suède (35,67 $ par habitant).

Qu’en est-il de la radio et de la télévision ? Même portrait. Le Canada serait l’un des pays occidentaux qui soutient le moins son diffuseur public, avec 33 $ per capita par an. Seule la Nouvelle-Zélande (25 $) ferait moins, ainsi que les États-Unis. Par contre, la Norvège verserait 163 $ par habitant, l’Allemagne 107 $ et l’Irlande 54 $. La BBC recevrait l’équivalent de 118 $.

+

DE L"ÉDUCATION AUX MÉDIAS

Quelle que soit la solution financière qui sera proposée pour assurer la pérennité des médias, il faudra aussi de plus en plus penser à faire ce qu'on appelle de l'éducation aux médias et à l'information : identifier des sources crédibles, c'est bien, mais faire comprendre ce qui caractérise un travail journalistique crédible, c'est tout aussi important. C'est dans ce contexte que le Détecteur de rumeurs a vu dans ce malheureux événement qui frappe ses collègues journalistes du Québec l'occasion de faire, avec ce texte, un peu d'éducation aux médias : les idées reçues qui ont été retenues ici ne sont qu'un échantillon de celles auxquelles il serait possible de s'attaquer.

Science

Un pas de plus pour sauver le rhinocéros blanc au Kenya

OL PEJETA — Des vétérinaires ont prélevé avec succès les ovocytes des deux dernières femelles rhinocéros blanc du Nord, un pas de plus dans les efforts acharnés pour sauver cette espèce de l’extinction, ont annoncé les scientifiques en charge du projet vendredi au Kenya.

La science représente le dernier espoir pour le rhinocéros blanc du Nord - l’une des deux sous-espèces de rhinocéros blanc - après le décès l’année dernière à l’âge de 45 ans du dernier mâle, appelé Sudan, dans la réserve kényane d’Ol Pejeta (centre).

Les deux femelles, Najin, 30 ans, et sa fille Fatu, 19 ans, sont les derniers individus de leur espèce et vivent sous bonne garde à Ol Pejeta, où le prélèvement de leurs ovocytes a été pratiqué jeudi.

Aucune d’elles n’est en mesure de mener une grossesse à son terme: Fatu souffre de lésions dégénératives au niveau de l’utérus et Najin d’une fragilité de son train arrière incompatible avec une portée.

Jeudi, une équipe de vétérinaires a réussi à prélever cinq ovocytes sur chaque femelle (placées sous anesthésie pendant deux heures) en ayant recours à des techniques novatrices en matière de procréation assistée.

«C’est un très grand succès: hier, 10 ovocytes ont été prélevés, ce qui correspond plus ou moins à ce que nous espérions», s’est félicité Jan Stejskal, du zoo tchèque de Dvur Kralove, où Najin et Fatu sont nées avant d’être transférées au Kenya.

M. Stejskal a expliqué comment à partir de 2014, lorsque l’infertilité des deux femelles a été établie, plus de 15 zoos européens ont travaillé de concert pour développer et perfectionner une technique d’extraction d’ovocytes sur les rhinocéros.

«La méthode (de prélèvement) et l’équipement ont tous deux été conçus de zéro», a souligné vendredi ajouté le professeur Thomas Hildebrandt, de l’Institut Leibniz de recherche zoologique et animale, à Berlin.

En 2018, cette même équipe était parvenue à créer des embryons hybrides, résultat de la fécondation d’ovocytes de femelles de rhinocéros blancs du Sud avec des spermatozoïdes de rhinocéros blancs du Nord. Ces embryons avaient été congelés. Les prélèvements de jeudi permettent aux scientifiques d’escompter la création à court terme d’embryons à 100% rhinocéros blanc du Nord.

Implacable braconnage 

Les ovocytes prélevés jeudi ont ainsi été immédiatement envoyés dans un laboratoire spécialisé en Italie pour y être fécondés d’ici la fin de la semaine, avec des spermatozoïdes qui avaient été prélevés sur quatre mâles de l’espèce avant leur décès.

Les scientifiques doivent à présent développer une technique pour implanter ces embryons dans des mères porteuses, en l’occurrence des femelles rhinocéros blancs du Sud.

«Nous sommes très contents que ce partenariat nous fasse avancer d’un pas dans la prévention de l’extinction du rhinocéros blanc du Nord. C’est particulièrement émouvant quand on pense à la disparition déchirante de Sudan (...)» a pour sa part commenté John Waweru, le directeur général du service kényan de la faune (KWS).

On compte actuellement cinq espèces de rhinocéros sur terre, parmi lesquelles les rhinocéros noirs et les rhinocéros blancs se trouvent en Afrique. Le rhinocéros blanc du Nord est généralement considéré comme une sous-espèce du rhinocéros blanc, mais des scientifiques ont émis l’hypothèse qu’il pouvait s’agir d’une espèce à part entière.

Dans leur milieu naturel, les rhinocéros n’ont que peu de prédateurs, en raison de leur taille et de leur peau épaisse.

Mais de prétendues vertus médicinales attribuées en Asie à leur corne ont alimenté dans les années 1970 et 80 un braconnage implacable qui a largement décimé le rhinocéros blanc du Nord en Ouganda, Centrafrique, Tchad, République démocratique du Congo (RDC), et dans l’actuel Soudan du Sud.

Ces territoires traditionnels du rhinocéros blanc du Nord ont longtemps été en proie aux conflits et donc propices aux activités criminelles, dont le braconnage. En 2008, le rhinocéros blanc du Nord était déjà considéré comme éteint à l’état sauvage.

Les rhinocéros modernes sillonnent notre planète depuis 26 millions d’années. Au milieu du 19e siècle, on estimait leur population à plus d’un million d’individus pour le seul continent africain.

Diversité génétique? 

Les scientifiques impliqués dans le projet espèrent que leurs efforts aboutiront in fine à la naissance de plusieurs bébés rhinocéros blanc du Nord, mais, de leur propre aveux, leur approche a ses limites.

Les ovocytes ne peuvent être collectés sur les femelles que trois fois par an et la question du manque de diversité génétique des futurs petits pèse sur les efforts en cours.

Pour tenter de remédier à cette difficulté, le consortium scientifique BioRescue tente également de produire artificiellement des gamètes (cellules reproductrices) de rhinocéros blancs du Nord grâce à des cellules provenant de tissus congelés prélevés sur d’autres spécimens de l’espèce sans lien de parenté.

Selon les membres de BioRescue, l’objectif est final est de réintroduire le rhinocéros blanc du Nord dans des zones protégées de son habitat naturel, ce qui pourrait prendre pas moins de 70 ans.

Au-delà de cet objectif, Richard Vigne, le directeur général d’Ol Pejeta, souligne que ces efforts ont le mérite de mettre en évidence «la crise actuelle de l’extinction (de nombreuses espèces) dont nous, les humains, sommes responsables».

Science

Ralentir certains spermatozoïdes pour choisir le sexe du bébé?

En lice pour le prix de «ils sont rendus là?» : des chercheurs spéculent sur la possibilité d’identifier, dans le spermatozoïde, un nombre restreint de gènes qui sont responsables du chromosome X, ouvrant la porte à des substances chimiques qui pourraient un jour être utilisées pour ralentir certains spermatozoïdes, et du coup, réduire les chances que le futur bébé soit une fille.

On n’en est pas encore là. Mais plusieurs chercheurs s’inquiètent déjà de la porte que vient d’ouvrir l’équipe de Masayuki Shimada, de l’Université d’Hiroshima, au Japon : ils ont d’abord identifié 500 gènes qui sont actifs dans les spermatozoïdes transportant le chromosome X, et qui ne le sont pas chez ceux qui transportent le chromosome Y. Ils en ont ensuite identifié 18 qui encodent les protéines ressortant à la surface du spermatozoïde. En théorie, un gel utilisé au moment des relations sexuelles qui ciblerait précisément ces protéines pourrait ralentir la progression de ces spermatozoïdes spécifiques.

C’est hautement théorique, mais ces spéculations surgissent du fait que jusqu’ici, on avait toujours présumé que les spermatozoïdes des mammifères étaient identiques, mis à part les gènes qu’ils transportent. Le fait qu’il existe une « empreinte », quand bien même ne s’agit-il que d’une poignée de protéines, peut donner des idées à certains. La recherche, qui a porté sur des souris, aurait permis d’avoir 90 % de rejetons mâles lorsqu’on ralentissait certains spermatozoïdes de cette façon.

Interrogés par le New Scientist, des experts évaluent que si cela se confirmait, il faudrait compter une dizaine d’années avant qu’un produit conséquent ne puisse être sur le marché. «Personne ne serait capable de vous en empêcher» dans votre chambre à coucher.

La sélection du sexe avant la naissance, pour des raisons autres que médicales, est interdite au Canada, en Chine et en Inde, entre autres, mais est légale dans la plupart des autres pays, incluant les États-Unis, où il existerait un petit marché pour ce que certains appellent le « l’équilibre des familles » (family balancing).

Science

Non, les crèmes solaires ne sont pas cancérigènes

LE DÉTECTEUR DE RUMEURS / La crème solaire serait plus nuisible pour la santé que les effets du soleil sur la peau, selon ce qu’on peut lire sur plusieurs sites. Les produits chimiques contenus dans les écrans protecteurs représentent-ils vraiment un danger? Le Détecteur de rumeurs a enquêté.

Le cancer de la peau est le plus fréquent au Canada : il représente au moins 40 % des nouveaux cancers diagnostiqués chaque année. La plupart sont causés par un contact prolongé avec les rayons UV, qui sont aussi à l’origine des coups de soleil, du vieillissement prématuré de la peau et des cataractes. Pour s’en protéger, la Société canadienne du cancer recommande d’appliquer un écran protecteur — par exemple, une crème ou un vaporisateur.

Or, la sécurité et la composition de ces écrans protecteurs suscitent de l’inquiétude, notamment sur Internet. Les crèmes solaires sont accusées, entre autres, de contenir :

• des substances toxiques;
• des nanoparticules qui peuvent provoquer des cancers;
• de favoriser le développement de mélanomes;
• d’entraîner une carence en vitamine D, laquelle est liée par la communauté médicale à des maladies métaboliques dont l’ostéoporose et le rachitisme chez les enfants, et à des cancers de la peau.

Si la majorité de ces allégations découlent de mauvaises interprétations d’études scientifiques, certaines méritent qu’on s’y attarde pour démystifier la dangerosité des crèmes solaires.

Les substances toxiques

Les agents actifs des crèmes solaires sont de deux types : les filtres chimiques, composés de molécules organiques qui pénètrent dans la peau, et les filtres minéraux, qui agissent comme une barrière à la surface de l’épiderme. Certains produits à large spectre, qui protègent à la fois contre les rayons UVA et UVB, combinent les deux types de filtres.

La plupart des crèmes qu’on trouve en magasin contiennent un ou plusieurs des 17 filtres chimiques autorisés au Canada, parmi lesquels l’avobenzone, le Mexoryl SX, l’octinoxate et l’oxybenzone. Les écrans solaires minéraux quant à eux, utilisent de l’oxyde de zinc et/ou du dioxyde de titane.

Ces ingrédients sont-ils dangereux ?

Selon l’Environmental Working Group (EWG), un organisme américain de défense de l’environnement, l’oxybenzone, appelée aussi benzophénone 3, peut imiter le comportement des hormones. Du moins chez les poissons qui ont été exposés à des doses élevées ou chez les rats qui en ont mangé pendant 21 jours. Ce potentiel a aussi été identifié dans des études sur des cellules.

Chez les humains, le seul problème de santé identifié est la photodermatite, une réaction cutanée déclenchée chez certaines personnes par l’exposition au soleil.

L’octinoxate et l’enzacamène présentent, pour leur part, un potentiel d’agir — de faible à moyen — comme une hormone et ainsi, la possibilité de perturber le système reproducteur des rats qui en mangent. Ce qui ne correspond pas à l’utilisation normale d’un écran solaire et empêche toute extrapolation des résultats à l’humain. Des cas d’allergie ont aussi été signalés pour l’octinoxate.

Au-delà des filtres, il y a un autre ingrédient montré du doigt : le palmitate de rétinyle, aussi connu sous le nom de rétinol. Ce dérivé de la vitamine A est ajouté aux écrans solaires pour réduire le vieillissement de la peau. Une étude menée en 2012 par le Programme américain de toxicologie a montré que le rétinol accélérait le développement de tumeurs et de lésions cutanées chez des souris exposées à des lumières UV. Mais il est difficile d’extrapoler ce constat aux risques de cancer de la peau chez l’homme.

Bref, on peut choisir d’éviter ces ingrédients par prudence, mais pour le moment, il n’est pas démontré qu’ils sont nocifs pour l’humain. En supposant qu’on s’enduise de crème solaire, et qu’on ne la mange pas!

Les nanoparticules 

L’oxyde de zinc et le dioxyde de titane ont quant à eux le défaut de laisser un résidu blanc sur la peau. Pour remédier à cet inconvénient et rendre leur produit translucide, les fabricants de crèmes solaires les utilisent sous forme de nanoparticules. Quelques études ont suggéré que ces particules de petite taille pourraient amener la formation de radicaux libres — on appelle ainsi un fragment libéré d’une molécule, plus instable, capable de réagir davantage avec les molécules de son entourage — qui pourraient pénétrer la peau et endommager les cellules.

Des études parrainées par la Food and Drug Administration des États-Unis et l’Union européenne ont toutefois conclu que les nanoparticules d’oxyde de zinc et de dioxyde de titane ne pénétraient pas au-delà de l’épiderme. Et ce, même si la peau est endommagée, par exemple par une éraflure. L’Association canadienne de dermatologie a même officiellement déclaré qu’il n’existe aucun indice que l’application de produits contenant de l’oxyde de zinc et du dioxyde de titane micronisés puisse engendrer de la toxicité.

Les nanoparticules peuvent toutefois provoquer des lésions pulmonaires lorsqu’elles sont inhalées, ce qui est le cas lorsqu’on choisit une protection solaire en vaporisateur.

Bref, les nanoparticules contenues dans les écrans solaires minéraux ne sont pas non plus nocives pour la santé, à moins qu’elles soient inhalées, par exemple en utilisant une protection solaire en vaporisateur. Dans ce cas, elles peuvent causer des lésions pulmonaires.

Favoriser le développement de mélanomes

Un certain nombre d’études ont révélé que les utilisateurs fréquents de crème solaire présentaient plus de mélanomes, un type de cancer de la peau. Mais quand on y regarde de plus près, on constate que généralement, ceux qui s’enduisent d’écran protecteur sont aussi ceux qui passent plus de temps au soleil, un important facteur de risque du mélanome, avec les coups de soleil à répétition. D’autres études n’ont pas abouti à des conclusions aussi claires. La recherche devra se poursuivre sur le sujet.

Les écrans solaires ne suffisent pas à protéger des cancers de peau, mais lorsqu’ils sont utilisés correctement, ils aident à prévenir les coups de soleil, ce qui diminue le risque de mélanome.

La carence en vitamine D

Un bon écran solaire bloque les rayons UV et protège contre le cancer de la peau. Mais ce faisant, il empêche la production naturelle de vitamine D. Or, plusieurs études montrent que des niveaux plus élevés de vitamine D chez les personnes exposées au soleil peuvent jouer un rôle dans la réduction du risque de mélanome.

Heureusement, l’humain n’a pas besoin de s’exposer au soleil pour produire de la vitamine D. Et en cas de carence, on la trouve en supplément et dans certains aliments enrichis, comme le lait de vache et les boissons de soya.

De plus, une étude publiée en mai dans le British Journal of Dermatology, a comparé les niveaux de vitamine D après une semaine de vacances chez une centaine de personnes — dont un groupe témoin qui n’était pas allé au soleil — qui avaient ou non utilisé un écran solaire. Les chercheurs ont conclu que les écrans solaires, même utilisés de manière optimale pour prévenir les coups de soleil, permettraient une bonne synthèse de la vitamine D issue du soleil.

Verdict

À moins d’en manger, d’en inhaler ou de s’exposer de longues heures au soleil, les crèmes solaires n’entraînent pas de graves dangers de santé. Tandis que les risques de développer un cancer de la peau sans protection sont, eux, mieux documentés.

+++

LARGE SPECTRE

Au Canada, la recommandation générale est d’utiliser un produit avec un facteur de protection FPS 30 à «large spectre», qui protège à la fois contre les rayons UVB et UVA. Depuis 2007, l’Environmental Working Group (EWG) établit chaque année un guide d’achat des écrans solaires en passant en revue les ingrédients contenus dans les produits affichant un FPS et vendus aux États-Unis. La version 2019 a étudié quelque 1 300 produits. Le groupe dispose aussi d’une banque de données, Skin Deep, qui répertorie et évalue le niveau de sécurité, pour la santé et l’environnement, de plus de 70 000 produits de soins et de leurs ingrédients.

Science

Commotion cérébrale chez les jeunes: le sommeil est essentiel

LA SCIENCE DANS SES MOTS / Qui dit enfants actifs, dit souvent blessures. Chaque année, plus de 100 000 enfants et adolescents canadiens subissent une commotion cérébrale en jouant ou en faisant du sport.

La plupart des enfants retournent à l'école et à leurs activités régulières environ un mois après la blessure. Mais ils ont parfois besoin d'un traitement spécialisé pour les commotions cérébrales et d'exercices de réadaptation.

Notre étude récente, publiée dans le Journal of Head Trauma Rehabilitation, a révélé que la psychothérapie peut améliorer l'insomnie, qui est fréquente chez les adolescents après une commotion cérébrale, et qu'elle améliore également le rétablissement en général.

Le syndrome post-commotionnel

Bien que la majorité des jeunes victimes d'une commotion cérébrale se rétablissent dans un délai d'environ un mois, 20 à 30 pour cent d'entre eux auront encore des symptômes au-delà de cette période.

Les commotions cérébrales chez les enfants et dont les symptômes perdurent dans le temps ont des impacts importants. Ils entraînent plus de consultations de divers professionnels de la santé, plus d'absences à l'école et, par conséquent, des journées de travail manquées pour les parents. Trouver des moyens d'améliorer le rétablissement est devenu une priorité.

La recherche montre que l'insomnie est l'un des symptômes persistants les plus courants chez les adolescents victimes d'une commotion cérébrale. L'insomnie est définie comme la difficulté à s'endormir ou à rester endormi, la réduction du nombre d'heures de sommeil ou le sentiment que le sommeil n'est pas réparateur.

Dans une étude récente, nous avons constaté qu'un certain niveau d'insomnie était présent chez les deux tiers des adolescents qui tardaient à se rétablir d'une commotion cérébrale. Le tiers d'entre eux souffraient d'insomnie modérée à grave.

Pire encore, l'insomnie était également liée à une aggravation des symptômes liés au syndrome post-commotionnel (maux de tête, problèmes d'équilibre et étourdissements), à une aggravation de l'anxiété et de la dépression, ainsi qu'à une augmentation des problèmes d'attention et de mémoire.

Psychothérapie pour l'insomnie

Malheureusement, il existe très peu de traitements fondés sur des données probantes pour aider à traiter l'insomnie après une commotion cérébrale, de sorte que les cliniciens font souvent des suggestions qui peuvent ou non fonctionner.

Notre essai clinique a montré qu'un type de psychothérapie - appelée thérapie cognitivo-comportementale pour l'insomnie (ou TCC-I) - permet la rémission de l'insomnie chez 80 à 90 pour cent des adolescents qui mettaient plusieurs mois à se remettre de leur lésion cérébrale. En comparaison, le taux de rémission n'est que de 9 pour cent pour ceux qui n'ont pas reçu le traitement.

Et les bienfaits de cette thérapie ne se limitaient pas à l'amélioration du sommeil. Elle permettait également d'améliorer globalement la récupération après la commotion. C'est-à-dire que le niveau de symptômes des participants à l'étude a également diminué avec le temps.

L'importance d'un horaire régulier

En général, après une commotion cérébrale, les habitudes de sommeil sont temporairement perturbées. Les enfants qui développent des problèmes de sommeil à long terme ne reprennent souvent pas une routine de sommeil normale. Au lieu d'aller au lit et de se lever à une heure régulière, ils vont au lit et se réveillent plus tard. Ils peuvent aussi dormir moins la nuit et commencer à compenser en faisant plus de siestes.

Cet horaire perturbé nuit à l'école et aux activités régulières. Au fur et à mesure que les activités commencent à diminuer, la motivation d'aller au lit et de se réveiller à des heures régulières diminue également.

L'un des conseils les plus importants que nous donnons est de reprendre un horaire de sommeil régulier. Il s'agit en particulier de régler et de respecter une heure de réveil régulière. Même si le fait de se lever à la même heure tous les jours peut sembler difficile au début, cela permet aux enfants de reprendre leurs activités normales (comme d'arriver à l'école à l'heure) et de s'assurer que lorsqu'ils se couchent, ils sont vraiment fatigués.

La somnolence (l'impression que vous pourriez vous endormir) augmente à mesure que vous restez éveillé. Donc, si vous sortez du lit à 7 h, il y a de bonnes chances que vous vous endormiez avant 22 h ou 23 h. Mais si vous sortez du lit à midi, le besoin de dormir à nouveau ne se fera sentir que beaucoup plus tard, disons 2 h ou 3 h du matin.

L'établissement d'une heure de réveil régulière permet de s'assurer que lorsque les enfants se couchent leur esprit ne continue pas à vagabonder.

Améliorer le sommeil

L'un des principes les plus importants dans le traitement de l'insomnie est qu'un lit est fait pour dormir ! Cela signifie que si un enfant ne dort pas, il ne devrait pas être couché dans son lit. S'il a besoin de se reposer, mais qu'il n'a pas sommeil, il peut s'étendre sur le canapé.

Enfin, il ne devrait pas y avoir d'appareils électroniques dans les chambres à coucher, car ils sont reconnus pour perturber le sommeil, même lorsqu'ils sont éteints ! L'American Academy of Pediatrics recommande que les chambres à coucher soient entièrement exemptes de médias électroniques.

Il y a beaucoup de bons livres et d'autres ressources disponibles pour les adolescents et les parents qui veulent en savoir plus sur le traitement de l'insomnie.

Le message principal à retenir est que l'insomnie liée aux commotions cérébrales est un problème traitable. Et qu'en améliorant le sommeil, les symptômes de commotion cérébrale peuvent aussi disparaître.


*  *  *  *  *

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Ce texte est d'abord paru sur le site du Science Media Centre britannique. Reproduit avec permission.

Science

Des matières fécales pour sauver des koalas affamés

WASHINGTON — Comment sauver des koalas affamés, menacés par la disparition de leur habitat naturel et de leur nourriture favorite ? Des scientifiques australiens ont trouvé la solution, en leur faisant ingérer... des matières fécales.

Les chercheurs ont fait ingérer aux marsupiaux ces matières, conditionnées sous formes de capsules, afin de modifier la flore microbienne présente dans leurs intestins. Une altération qui leur permet ainsi de pouvoir manger davantage de variétés d’eucalyptus.

Dans cette étude publiée mardi dans le journal Animal Microbiome, Michaela Blyton, de l’Ecole de chimie et des sciences moléculaires à l’Université du Queensland, explique avoir été poussée à agir après avoir constaté une chute importante des populations de koalas à Cap Otway, le long de la fameuse Great Ocean Road, dans l’Etat de Victoria.

«En 2013 la population de koalas a atteint une densité très importante, ce qui les a conduits à manger tous les arbres de leur espèce préférée», a noté Mme Blyton, qui a dirigé cette expérience.

Cela a débouché sur un taux de mortalité effrayant de 70% des koalas, en raison de la famine engendrée chez eux par la disparition de leurs arbres préférés. Mais la plupart n’ont pas pour autant essayé de manger une autre espèce d’eucalyptus pour survivre.

«Cela nous a conduits, moi et mon collègue Ben Moore de la Western University de Sydney, à nous demander si les microbes présents dans les intestins des koalas, leur microbiome, ne limitaient pas le type d’arbres qu’ils pouvaient manger. Et s’il ne serait pas possible d’étendre leur régime alimentaire par le biais d’inoculation de matières fécales», a repris Michaela Blyton.

Les scientifiques ont donc donné à manger à des koalas des capsules contenant des matières fécales d’autres marsupiaux habitués à manger une autre espèce d’eucalyptus. Ces capsules ont permis de modifier avec succès les microbiomes des koalas, qui ont pu de ce fait commencer à manger la seconde sorte d’arbres que la plupart d’entre eux boudaient auparavant.

«Les koalas peuvent avoir des problèmes pour s’adapter à de nouveaux régimes alimentaires quand les arbres qu’ils mangent normalement disparaissent, ou quand ils sont déplacés. Cette étude prouve que le concept de capsules de matières fécales permet d’introduire avec succès de nouveaux microbes dans les intestins des koalas», a souligné Mme Blyton.

science

L'incroyable capacité du cerveau de bébé pour apprendre les langues

LA SCIENCE DANS SES MOTS / Les gens disent souvent que les bébés sont comme de petites éponges en raison de leur capacité à apprendre différentes langues rapidement et facilement.

Pourtant, une grande partie des premières recherches sur l’acquisition du langage se sont concentrées sur les jeunes enfants qui n’apprennent qu’une seule langue. Ce choix était guidé par l’hypothèse implicite que l’apprentissage d’une langue est la façon habituelle et optimale d’apprendre à parler.

Cette idée était si forte que plusieurs se sont demandés si le fait d’exposer les bébés à plus d’une langue pouvait être trop par rapport à ce qu’ils sont en mesure d’absorber. Certains se sont même inquiétés du fait que l’exposition à plusieurs langues puisse amener de la confusion et entraver le développement de la parole et du langage chez les enfants.

Les recherches des dernières années brossent un tableau différent. Les chercheurs en acquisition du langage reconnaissent maintenant que de plus en plus de bébés grandissent dans des familles parlant deux langues ou plus. Selon Statistique Canada, en 2016, 19,4 pour cent des Canadiens ont déclaré parler plus d’une langue à la maison, comparativement à 17,5 pour cent en 2011.

La recherche remet clairement en question l’hypothèse selon laquelle l’exposition à une seule langue est nécessaire pour optimiser l’acquisition précoce du langage.

Au Laboratoire de perception de la parole chez les nourrissons, à l’Université McGill, nous étudions comment les bébés font leur premiers pas dans l’acquisition de leur langue maternelle ou d’une autre langue.

L’acquisition du langage

Bien avant que les bébés puissent prononcer leurs premiers mots, leur cerveau fait déjà beaucoup d’efforts pour apprendre le language. Notre recherche s’est attardée à l’une des premières étapes d’acquisition du langage : savoir reconnaître le début et la fin des mots pour être en mesure de les isoler dans une phrase.

Reconnaître le découpage des mots est difficile, car les gens font rarement une pause entre chaque mot lorsqu’ils parlent. En tant qu’adultes, nous pouvons sans effort isoler les mots dans notre langue maternelle. Cependant, nous perdons souvent cette capacité lorsque nous entendons une langue étrangère.

Les bébés doivent acquérir cette même compétence pour leur langue maternelle. Apprendre à isoler les mots est une compétence essentielle pour élargir son vocabulaire. Plus on acquiert cette capacité tôt dans la vie, plus riche sera notre vocabulaire ultérieurement.

Alors, comment font les bébés ? Heureusement qu’il y a une cohérence entre les règles de constitution des mots dans les différentes langues. En y étant exposés suffisamment, les bébés finissent par trouver et utiliser ces règles pour reconnaître les formes ou unités de mots dans leur langue maternelle.

Les mots dans différentes langues

Les mots sont formés différemment selon les langues. Prenons l’anglais et le français, les deux langues officielles du Canada.

En anglais, chaque syllabe d’un mot est prononcée avec un accent ou un ton différent. Par exemple, si vous dites un mot de deux syllabes en anglais, vous allez probablement prononcer la première syllabe plus longtemps, plus fort et avec une voix plus aiguë. La plupart des mots à deux syllabes en anglais suivent ce modèle (par exemple, BA-by, HAP-py, BOT-tle).

Les bébés qui ne sont exposés qu’à l’anglais peuvent détecter cette règle  - les syllabes accentuées signifient probablement le début d’un mot - et ils peuvent utiliser cette règle pour isoler des mots dans une conversation. Cependant, les bébés qui ne sont exposés qu’au français ne le font pas.

C’est parce que le français est une langue rythmée par les syllabes, où chaque syllabe d’un mot a une longueur presque égal. Les syllabes ne sont accentuées que lorsqu’elles tombent à la fin d’un mot ou d’une phrase (par exemple, donne-moi un ca-DEAU).

Néanmoins, comme l’accent tonique ne constitue pas une règle uniforme pour distinguer les mots dans la langue française, les francophones doivent se fier à d’autres règles pour trouver les mots dans la conversation.

Des recherches ont montré que les adultes francophones et les bébés suivent la cooccurrence des syllabes dans les mots. Par exemple, ils pourraient noter que la syllabe « ca » est souvent suivie de «deau», donc «cadeau» serait probablement un mot.

Bébés bilingues

Les règles ci-dessus sont utiles pour les bébés qui n’apprennent qu’une seule langue, car ils peuvent se concentrer sur l’apprentissage d’un seul ensemble de règles. Par exemple, nous savons que les bébés qui n’apprennent que le français ou l’anglais peuvent utiliser les règles ci-dessus pour isoler les mots dans leur langue maternelle avant leur premier anniversaire.

Mais il semble que les bébés qui apprennent le français et l’anglais en même temps doivent composer avec des règles contradictoires. S’ils devaient se concentrer sur les accents toniques, une syllabe accentuée marquerait-elle le début du mot, comme c’est souvent le cas en anglais ? Ou est-ce qu’elle signifierait la fin de l’expression ou de la phrase, comme dans la plupart des cas en français ?

Pour relever ce défi, les bébés nés dans un environnement bilingue doivent savoir s’ils entendent le français ou l’anglais. Mais est-ce trop difficile ou déroutant pour eux ?

L’exemple montréalais

En gardant ces questions à l’esprit, nous avons récemment mené une expérience à Montréal, où plus de la moitié de la population parle à la fois le français et l’anglais.

Nous avons observé des bébés exposés aux deux langues dans le cadre d’une tâche visant à reconnaître des mots, et nous les avons comparés à leurs pairs exposés à une seule langue. L’expérience a porté sur 84 bébés âgés de huit à dix mois. Nous avons choisi des bébés apprenant uniquement le français, des bébés apprenant uniquement l’anglais et des bébés apprenant les deux langues en même temps.

Comme nous nous y attendions, les bébés unilingues français et anglais pouvaient reconnaître les mots dans leur langue maternelle, mais pas dans l’autre langue. De façon impressionnante, les bébés bilingues étaient sur un pied d’égalité avec leurs pairs monolingues en ce qui concerne le découpage des mots en anglais et en français au même âge, même si les langues diffèrent considérablement. De plus, les bébés bilingues qui entendaient les deux langues parlées par le même parent semblaient mieux réussir dans cette tâche.

C’est un exploit impressionnant étant donné que les bébés élevés dans les deux langues doivent apprendre deux systèmes de langage différents dans le même délai que les bébés apprenant une seule langue. C’est certainement une progression d’apprentissage, mais même les jeunes enfants peuvent dire quand ils entendent deux langues.

Ces études fournissent une preuve supplémentaire que, s’ils sont suffisamment exposés, les bébés nés dans un environnement bilingue, en tant qu’éponges, peuvent évoluer également dans les deux langues. Des études récentes suggèrent que cette exposition à plus d’une langue modifie même la structure du cerveau de manière à rendre le traitement cognitif plus efficace.

Cela pourrait même être favorable aux enfants atteints de troubles du spectre de l’autisme . Nos recherches se poursuivront sur la façon dont nous parlons aux bébés bilingues afin de mieux soutenir le processus d’apprentissage des langues.


* * * * *

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Ce texte est d'abord paru sur le site du Science Media Centre britannique. Reproduit avec permission.

Science

La menace d'«extinction silencieuse» de la girafe

LOISABA - Pendant des décennies, Lesaiton Lengoloni se posait peu de questions lorsque son chemin croisait celui du plus grand animal terrestre. «Avec une girafe, on pouvait nourrir le village pendant plus d’une semaine», se souvient ce berger samburu vivant sur le haut plateau de Laikipia, dans le centre du Kenya.

«Il n’y avait pas de fierté particulière à tuer une girafe, pas comme un lion», raconte cet homme au visage buriné par le temps, appuyé sur un bâton.

Et qu’importe si la chasse de cet animal charismatique est considérée comme du braconnage, «c’était un moyen de subsistance, on mangeait la viande, on se servait de la peau pour le cuir et pour fabriquer des remèdes, et les queues était symboliquement offertes aux aînés», explique-t-il.

Mais au fil des ans, dit-il, les girafes réticulées, la sous-espèce vivant dans cette région, se sont faites de plus en plus rares.

Sur fond de croissance démographique, leur habitat a été de plus en plus fragmenté et réduit, alors que certains continuent de tuer les girafes uniquement pour leurs os et cervelle, considérés comme des remèdes contre le sida, ou leurs queues.

À l’échelle du continent, le nombre de girafes a diminué de quelque 40% entre 1985 et 2015, pour atteindre environ 98 000 individus, selon des chiffres rassemblés par l’Union internationale pour la protection de la nature (IUCN), qui identifie toutefois des dynamiques régionales distinctes.

En Somalie, au Soudan du Sud, en République démocratique du Congo ou en Centrafrique, notamment, les conflits favorisent le braconnage et rendent quasi impossible toute tentative d’étudier et protéger les girafes.

Des hausses remarquables ont été enregistrées en Afrique australe, mais en Afrique de l’Est, la girafe réticulée a perdu quelque 60% de ses individus tandis que la girafe nubienne a connu une baisse tragique de 97%. En Afrique centrale, la girafe du Kordofan a vu sa population diminuer de 85%.

Surprise 

L’annonce par l’IUCN du classement de la girafe dans la catégorie des espèces «vulnérables» a été accueillie avec une relative surprise fin 2016. Lors de la précédente évaluation, en 2010, elle était encore classée comme «préoccupation mineure».

«La girafe est un grand animal que l’on voit assez facilement dans les parcs et réserves, ce qui a pu donner la fausse impression que tout allait bien», analyse Julian Fennessy, co-président du groupe de spécialistes de l’IUCN pour les girafes et okapis. «D’autant que le problème se situe principalement en dehors des espaces protégés».

De nombreux observateurs évoquent pour ces raisons la menace d’une «extinction silencieuse», d’autant qu’historiquement, la girafe a rarement suscité beaucoup d’intérêt pour les chercheurs.

«Si on les compare à d’autres espèces charismatiques comme les lions, éléphants et rhinocéros, on sait très peu de choses sur les girafes», relève Symon Masiaine, coordinateur du programme d’étude et de protection des girafes «Twiga Walinzi» (Gardiens des girafes en swahili), au Kenya, débuté en 2016. «On reste en retard, mais les choses évoluent».

Arthur Muneza, de la Fondation pour la préservation de la girafe, rappelle que la première recherche de longue durée sur les girafes ne date que de 2004, en Namibie, et que nombre de données sur les girafes ont été récoltées dans le cadre d’études sur d’autres animaux.

Il note également que l’IUCN, en l’absence de données fiables, a dû attendre 2018 pour être en mesure d’établir le niveau de menace pour certaines sous-espèces. La réticulée et la massaï sont désormais classées «en danger», la nubienne et la Kordofan «en danger critique d’extinction».

«Sans données fiables, c’est difficile d’établir des mesures de protection adéquates», dit-il.

Trophées

La dernière proposition en date vise à réguler le commerce international des girafes dans le cadre de la Convention sur le commerce international des espèces menacées (Cites), qui se réunit du 17 au 28 août à Genève. Mais là aussi, un manque cruel de données occupe le devant de la scène.

Six pays africains, dont le Tchad et le Kenya, proposent de classer la girafe dans la «liste des espèces qui, bien que n’étant pas nécessairement menacées actuellement d’extinction, pourraient le devenir si le commerce de leurs spécimens n’était pas étroitement contrôlé». Des «permis d’exportation ou de réexportation» seraient dès lors obligatoires.

Sauf qu’il n’y a «pas suffisamment de données fiables» sur le commerce international des girafes, qu’il s’agisse des trophées, des parties de corps ou d’artefacts, souligne Arthur Muneza. «Il faudrait d’abord une étude pour connaître l’ampleur du phénomène et son éventuelle influence sur les populations de girafes».

Les soutiens de la proposition invoquent le principe de «précaution» et soulignent qu’une classification obligerait les pays membres à récolter des données sur les exportations.

Les critiques dénoncent une proposition guidée par «l’émotion» plutôt que les «faits scientifiques», et soulignent que le peu d’informations disponibles - les Etats-unis sont le seul pays répertoriant ces importations - indiquent que l’essentiel des trophées de girafes proviennent de pays où les populations de girafes augmentent (Afrique du Sud et Namibie).

Sur le plateau de Laikipia, Symon Masiaine estime que quelle que soit la décision prise à Genève, «cela veut dire qu’on parle de la girafe, et elle a bien besoin de cela».


++++

Voici quelques faits étranges ou cocasses concernant la girafe, plus grand animal terrestre au monde.

Cou

La girafe peut mesurer jusqu’à 5,5 mètres de haut, et impressionne particulièrement par la taille de son cou.

Comme chez l’homme, le cou de la girafe ne compte que sept vertèbres, mais chacune d’entre elles mesure quelque 25 cm de long.

Ce cou est particulièrement utile pour atteindre les feuilles des arbres dont les girafes se nourrissent. Il est toutefois trop court pour permettre à la girafe d’atteindre le sol avec son museau pour boire de l’eau sans qu’elle plie ou écarte les pattes, une entreprise difficile pour cet animal longiligne.

Heureusement pour elle, la girafe n’a pas besoin de boire tous les jours, car elle s’hydrate avec les plantes qu’elle ingère.

Le cou est aussi utilisé pour un rituel très élaboré dans lequel les girafes s’affrontent en balançant leur cou pour établir leur domination.

Taches Avec son pelage tacheté, ses longues pattes et son cou, la girafe - animal charismatique qui ne fait toutefois pas partie du célèbre «Big Five» (lion, éléphant, rhinocéros, buffle et léopard) - a reçu le nom latin de «camelopardalis», qui veut dire chameau-léopard.

Ces taches ne servent pas qu’à se camoufler. Selon la Fondation pour la préservation de la girafe, chaque tache est entourée d’un système très élaboré de vaisseaux sanguins qui fonctionne comme une fenêtre thermique, permettant de réguler la température du corps.

Comme une empreinte digitale pour l’homme, chaque girafe a un pelage au motif unique.

Grosse langue, gros coeur

Chez cet animal hors de proportion, la langue peut mesurer jusqu’à 50 cm et lui permet de brouter avec plus de facilité les étages supérieurs de son arbre favori, l’acacia.

Les scientifiques pensent que la couleur bleue-noire de la langue la protège d’une exposition prolongée au soleil. Il est également largement accepté que la salive de la girafe a des propriétés antiseptiques pour protéger sa langue des épines de l’acacia.

Le coeur d’une girafe pèse 11 kilos et est assez puissant pour relever le défi d’envoyer le sang jusqu’au cerveau, situé à environ deux mètres de lui.

Afin de protéger le cerveau de changements subits de pression sanguine lorsqu’elle se penche en avant pour boire, le système coronaire de la girafe comporte des valves qui régulent le flux sanguin. Il possède également des vaisseaux sanguins élastiques qui se dilatent et se contractent pour réguler ce flux.

Les vaisseaux sanguins des pattes de la girafe ont été étudié par la Nasa pour la conception des combinaisons spatiales.

Reproduction

Parmi les mammifères, les girafes ont une des plus longues périodes de gestation: 15 mois. Elles accouchent debout, ce qui signifie que leur progéniture tombe de près de deux mètres de haut en naissant.

Cette étonnante introduction à la vie met les nouveaux-nés sur leurs pattes et prêts à courir en moins d’une heure. Un bébé girafe est plus grand que la moyenne des humains adultes.

Dans la nature, les girafes peuvent vivre jusqu’à 25 ans, contre 35 ans en captivité.

Génétique 

L’ancêtre de la girafe est un animal ressemblant à une antilope de près de 3 m de haut, qui sillonnait les forêts d’Asie et d’Europe il y a entre 30 et 50 millions d’années. L’animal vivant qui lui est le plus proche est l’okapi.

En septembre 2016, une étude scientifique a montré qu’il y avait en fait quatre espèces distinctes de girafes et non une seule séparée en neuf sous-espèces, comme on le pensait jusque-là. Des discussions sont en cours pour faire reconnaître cette taxonomie par l’IUCN, ce qui favoriserait la mise en place de mesures de protection spécifiques.

Science

L’homme de Neandertal avait développé «l’oreille du surfeur» pour pêcher

WASHINGTON — Quel est le point commun entre un surfeur, un kayakiste et l’homme de Neandertal? Une excroissance osseuse dans le conduit auditif connue du grand public sous le nom d’«oreille du surfeur», selon les résultats d’une étude publiée cette semaine.

Connu médicalement sous le nom d’exostose, ce développement touche les personnes qui pratiquent des sports aquatiques dans des zones froides.

Et comme nos anciens cousins disparus il y a maintenant 40 000 ans n’étaient probablement pas à la recherche d’une bonne vague, les chercheurs ont conclu dans la revue scientifique PLOS ONE qu’ils s’adonnaient beaucoup plus à la pêche que ce que l’on estimait jusqu’ici.

Cette découverte «conforte un certain nombre d’arguments selon lesquels l’homme de Neandertal faisait preuve de flexibilité et d’adaptation», a expliqué l’auteur principal de l’étude, Erik Trinkaus, à l’AFP.

Pour les hommes préhistoriques, être capable de pécher signifiait un minimum d’évolution. «Avoir une certaine technologie, savoir quand les poissons vont remonter la rivière ou passer près de la rive... C’est un procédé plutôt élaboré», appuie ce chercheur de l’Université Washington à St Louis (Missouri).

Erik Trinkaus et ses collègues de l’Université de Bordeaux, en France, Sebastien Villotte et Mathilde Samsel, ont étudié les conduits auditifs, bien conservés, de 77 restes d’hommes de Neandertal et des premiers Homo sapiens retrouvés en Europe et Asie occidentale.

La moitié des 23 restes de Neandertal, vieux de 40 000 à 100 000 ans, présentent ces «oreilles de surfeurs», un taux bien supérieur à celui des Hommes modernes.

En 1911, le paléontologue français Marcellin Boule avait déjà fait des observations similaires. «L’orifice gauche est rétréci vers son milieu par des productions osseuses qui lui donnent une forme en sablier», avait-il alors écrit.

Mais, selon Erik Trinkaus, le plus dur reste à convaincre la communauté paléontologiste, qui avait fait déjà preuve de scepticisme en 2018 quand il avait été découvert que les plus anciennes formes d’art découvertes dans une grotte en Espagne étaient l’oeuvre de Neandertal et non d’humains plus récents.

«Comment peut-on dire que ça a été fait par Neandertal? Ils étaient trop bêtes pour faire ça!», était alors la critique souvent émise, regrette Erik Trinkaus.

«Ce sont les mêmes qui vont dire ”Comment peut-on passer d’une excroissance osseuse dans l’oreille à la capacité de se nourrir?„», regrette-t-il.

Le but final, pour lui, est pourtant de compléter le puzzle, encore inachevé, de l’histoire de Neandertal.

«Il faut essayer de les comprendre en tant que peuple», plaide-t-il.

Science

Harvard et les universités américaines toujours les meilleures du monde

SHANGHAI — Harvard, en tête pour la 17e année consécutive, et les universités américaines continuent de dominer le classement de Shanghai publié jeudi, avec huit places dans le top 10, tandis que la première française pointe à la 37e place.

Ce classement, réalisé par le cabinet indépendant Shanghai Ranking Consultancy, distingue depuis 2003 les 500 meilleurs établissements d’enseignement supérieur du monde. Pour cette édition 2019, elle publie le classement de 1 000 universités.

Le top 10 est identique à l’an dernier, avec huit universités américaines et deux britanniques occupant le haut du classement.

Harvard est en tête pour la dix-septième année consécutive, devançant sa compatriote Stanford. L’université britannique Cambridge conserve la troisième place du podium. On trouve ensuite les Américaines MIT (4e), Berkeley (5e) et Princeton (6e).

Comme en 2018, seules quatre universités non-américaines atteignent le top 20: les Britanniques Cambridge, Oxford (7e place) et University College de Londres (15e, +2 places), tandis que l’Institut fédéral de technologie de Zurich pointe à la 19e place (inchangé).

Le classement de Shanghai prend en compte six critères, dont le nombre de Nobel et médailles Fields parmi les étudiants diplômés et professeurs, le nombre de chercheurs les plus cités dans leur discipline, ou encore le nombre de publications dans les revues Science et Nature.

Si le cabinet présente ce classement comme «le plus fiable», ces critères sont dénoncés par de nombreux responsables européens comme un biais dommageable pour leurs établissements.

Tout en saluant la 6e place mondiale de la France - avec 21 établissements classés parmi les 500 premiers-, la ministre de l’Enseignement supérieur Frédérique Vidal a regretté que «certains» des choix du classement «desservent particulièrement les universités françaises».

La première université française, Paris-Sud, gagne cinq places et pointe en 37e position du classement. La Sorbonne (44e) perd huit places et l’Ecole normale supérieure (79e) en perd quinze.