Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Science

Lecture obligatoire: la «matière noire» de la nutrition

BLOGUE / Si la grande abondance des études en nutrition qui paraissent chaque semaine vous donne le tournis, alors tenez-vous loin du dernier numéro de la revue savante «Nature – Food», sous peine de vous évanouir...

On y trouve en effet cet article qui, en plus d'être absolument captivant, conclut que la science de l'alimentation a grossièrement simplifié son propre objet d'étude en concentrant ses efforts de recherche sur quelques dizaines de nutriments alors qu'il en existe des milliers.

Il y a de bonnes raisons d'avoir consacré autant d'études à ces nutriments, écrit le trio d'auteurs de la région de Boston, parce qu'on sait qu'ils sont importants pour la santé (graisses, sucres, protéines, vitamines, etc.). Mais il n'empêche : pour un aliment comme l'ail, par exemple, les bases de données en nutrition comme celle du ministère américain de l'agriculture ne donnent des concentrations chiffrées que pour 67 composés chimiques, alors qu'on sait que l'ail en contient plus de 2300 ! Dans l'ensemble, la recherche en nutrition est centrée autour d'environ 150 nutriments, mais on en dénombre un total de plus de 26 000 — et même ça, c'est un portrait très incomplet.

Il est évident, plaident les auteurs, qu'un angle mort de cet ordre nous fait passer à côté de beaucoup de choses importantes. Par exemple, des résultats récents ont trouvé qu'on composé nommé oxyde de triméthylamine (TMAO) était associé à une mortalité plus élevée chez la patients atteints du cœur. Le TMAO provient de composés présents dans le lait, les poissons et les viandes ; ces substances sont transformées par la flore intestinale en un précurseur du TMAO, lequel est ensuite converti en TMAO dans le foie. On connaît 6 de ces composés qui finissent en TMAO, mais un seul (la choline, qu'on trouve surtout dans les produits animaux) est suivi et mesuré dans les bases de données nutritionnelles, déplorent les auteurs.

Bref, il semble que la nutrition soit un peu dans la même situation que l'astronomie, qui n'a étudié jusqu'à présent que la «matière ordinaire» même si elle ne compose que 5 % de l'Univers — le reste, soit la matière sombre (27 %) et l'énergie sombre (68 %), est pour l'instant impossible à observer directement. Les quelque 150 nutriments sur lesquels les chercheurs ont concentré leurs efforts jusqu'à maintenant ne représentent qu'environ 5 % de la diversité chimique de la nourriture, et il reste donc encore toute la «matière sombre» à étudier, illustre le trio d'auteurs — dont deux sont d'ailleurs physiciens...

Science

Pas de consanguins chez les épinettes

SCIENCE AU QUOTIDIEN / «Lorsque qu’on parle de planter 2 milliards d’arbres comme l’a promis Justin Trudeau pendant la dernière campagne fédérale, ou même plus simplement de reboiser un grand territoire comme l’industrie forestière le fait, est-ce que cela soulève des enjeux particuliers de génétique ? Est-ce qu’on peut ou doit s’assurer que ces arbres ne soient pas tous «cousins» ?», demande Joël-Étienne Myre, de Saint-Ambroise.

Vues par des mammifères comme nous, les plantes peuvent sembler un peu (pas mal) bizarres, sinon carrément dévoyées, du point de vue de la reproduction. Imaginez un peu, non seulement elles sont capables de fertiliser de proches parents, mais plusieurs espèces ont la faculté de s’auto-féconder : puisque chaque plante possède à la fois des gamètes mâles et des gamètes femelles, chez certaines espèces les individus n’ont théoriquement pas besoin d’être deux pour se reproduire. Les parties mâles et femelles d’un même spécimen peuvent s’assembler et produire alors, littéralement, des clones.

Cette faculté a ses avantages, disons-le. Dans ce grand jeu de massacre qu’on appelle la sélection naturelle, le but ultime est toujours de transmettre autant de ses gènes que possible aux générations futures. Or ceux qui s’accouplent à deux ont une progéniture qui ne partage que 50 % des gènes de chaque parent, alors que c’est 100 % pour les individus qui s’autofécondent. En outre, cela «libère» ces derniers des pollinisateurs, ce qui peut être utile quand les insectes se font rares. Sur le plan de l’évolution, ce n’est pas rien !

Mais il n’empêche : «se débrouiller tout seul», pour ainsi dire, vient aussi avec des inconvénients, et des gros. À long terme, dans la nature, c’est toujours la diversité qui l’emporte, parce que plus il y a de différences au sein d’une population, plus il y a de traits qui peuvent conférer un avantage, une protection contre une maladie, etc. — et c’est comme ça qu’une espèce finit par s’adapter et se perpétuer.

Pour cette raison, beaucoup de plantes ont fini par produire des gamètes mâles et femelles qui, chez un même individu, sont complètement ou partiellement incompatibles entre elles : les individus qui s’auto-fécondent produisent des graines stériles et/ou des rejetons faiblards ayant peu de chance de survivre et de se reproduire à leur tour. «Pour la consanguinité, c’est le même principe pour les humains et pour les arbres : au bout de deux ou trois générations, on a des problèmes de vigueur», dit le chercheur en génomique forestière de l’Université Laval Jean Bousquet.

Le Service canadien des forêts (SCF) l’a d’ailleurs testé concrètement au début des années 1960, en «forçant» une vingtaine d’épinettes blanches à s’auto-féconder. Résultats : plus de 90 % des graines produites étaient «vides», soit un taux entre 5 et 22 fois plus élevé que pour la pollinisation «croisée» (à deux individus). De plus, les rares graines viables germaient moins bien et celles qui y parvenaient malgré tout avaient des taux de survie moindres que les semis croisés — même si tous avaient été cultivés dans les mêmes conditions. En bout de ligne, le SCF a tout de même obtenu des épinettes blanches matures, mais les effets de l’auto-pollinisation ne sont jamais disparus : au bout de 17 ans, les spécimens avaient en moyenne une taille 45 % plus courte et des troncs d’un diamètre 64 % plus étroit que les individus «normaux», provenant du croisement d’arbres non-apparentés.

Alors oui, souligne M. Bousquet, il y a bel et bien des «enjeux génétiques» dont il faut tenir compte quand on plante de grandes quantités d’arbres. D’une part pour assurer la diversité génétique de la population, mais aussi pour que les semis soient aussi bien adaptés que possible à la région où ils seront plantés. C’est la raison pour laquelle les choix de graines pour le reboisement sont très encadrés.

«Bon an mal an, indique le chercheur, il se plante au-delà de 600 millions d’arbres au Canada, alors c’est déjà pas mal plus que les 2 milliards sur 10 ans qu’a promis Justin Trudeau. (…) Au Québec, on en plante autour de 125 à 130 millions par année. Ça ne remplace pas toutes les coupes, mais quand même une assez bonne partie, et on espère que le reste va repousser tout seul.»

Ces semis proviennent de pépinières industrielles, dit-il, et «il y a un très fort contrôle qui est exercé sur la production pour qu’ils soient exempts de maladie, d’abord, mais aussi pour avoir un bon mélange d’espèces, une bonne diversité génétique et des arbres bien adaptés au climat où ils seront plantés. Il y a même un système de certification pour ça (…) et ils ont même des marqueurs génétiques pour vérifier que la diversité génétique est suffisante. Dans ces semis-là, la consanguinité est à peu près au même niveau que dans les forêts naturelles, donc de l’ordre de 1%».

On trouve de ces pépinières dans à peu près toutes les régions du Québec et elles cultivent des graines d’arbres de leurs environs, ce qui permet de s’assurer que non seulement les espèces sont les mêmes, mais que l’on a affaire à des souches qui sont adaptées au climat local. Le contraste avec la situation qui prévaut en horticulture ornementale montre d’ailleurs très bien pourquoi il est important de ne pas planter n’importe quoi, souligne M. Bousquet.

«En horticulture, il n’y a pas vraiment de certification ni de contrôle sur ce que vous plantez, déplore-t-il. On va vous vendre un cultivar avec un nom souvent évocateur, mais même les gens qui vous le vendent ne peuvent pas vraiment vous dire d’où il vient. Souvent, ces graines et semis-là viennent des États-Unis ou de la région de Niagara et sont mal adaptés à notre climat. On voit beaucoup de ces petites épinettes qui viennent de l’Oregon et qui vont sécher tout d’un coup, parce qu’il a fait trop froid ou parce que l’hiver est arrivé trop tôt. (…) C’est un peu comme du McDo : on plante, ça dure 5-10 ans, puis on replante après.»

Science

Le plomb plombe le développement de nos enfants

LA SCIENCE DANS SES MOTS / Le plomb est le contaminant environnemental le plus étudié à ce jour. Il existe un consensus quant aux effets de l’exposition durant l’enfance sur les capacités intellectuelles, la qualité des apprentissages à l’école et le comportement. Des données suggèrent également des effets négatifs d’une exposition prénatale sur le les capacités intellectuelles des enfants canadiens à des niveaux extrêmement faibles. Nos gouvernements doivent s’appuyer sur ces connaissances et redoubler d’efforts pour éliminer les sources de plomb de notre environnement.

L’exposition au plomb peut commencer avant la naissance, puisque cette substance traverse la barrière placentaire. L’exposition durant l’enfance peut se produire par ingestion, inhalation et absorption cutanée. Semblable à d’autres substances bénéfiques pour le fonctionnement du corps, le plomb peut traverser la barrière hématoencéphalique. Une fois dans le système nerveux, il pénètre dans les neurones et interfère avec leur développement et l’activité des neurotransmetteurs. Les méthodes d’imagerie cérébrale et de résonance magnétique ont montré divers effets du plomb sur la structure, l’organisation et le fonctionnement du cerveau.

Effets sur le développement de l’enfant

Une faible exposition au plomb ne cause pas de problèmes de santé exigeant une intervention d’un professionnel de la santé. Toutefois, au cours des 20 dernières années, un grand nombre d’études ont démontré les effets pernicieux d’une faible exposition pendant l’enfance. Les évidences scientifiques indiquent qu’il n’y a pas de niveau d’exposition au plomb chez les enfants qui soit sans effet indésirable.

Des effets négatifs sont clairement démontrés sur le fonctionnement intellectuel, y compris le QI (quotient intellectuel), l’attention, la mémoire et la capacité de résolution de problèmes. Cela se répercute sur les résultats et la réussite scolaires et a été très bien documenté auprès de plusieurs milliers d’enfants américains de la 4e à la 8e année. Les comportements problématiques, en particulier les symptômes du TDAH (trouble d’hyperactivité avec déficit de l’attention), ont fait l’objet de deux revues systématiques publiées en 2019. Basées sur un total de 32 études, ces deux revues confirment un lien entre une faible exposition au plomb dans l’enfance et les symptômes du TDAH. Quant aux effets à l’âge adulte, une étude impliquant le suivi d’un groupe de 565 enfants jusqu’à l’âge de 38 ans a révélé que l’exposition faible à modérée au plomb durant l’enfance est associée à un QI et à un statut socio-économique inférieur à l’âge adulte.

Notre équipe a suivi deux cohortes d’enfants depuis la naissance, l’une provenant du Nunavik jusqu’à l’âge de 19 ans, l’autre regroupant des enfants canadiens de plusieurs provinces jusqu’à 3 ans. Nous avons mis en évidence des effets délétères d’une exposition survenant durant la grossesse sur le QI, la capacité de traitement de l’information, la mémoire, l’impulsivité et l’inattention. Il faut donc se soucier également de l’exposition qui survient durant la grossesse.

On pourrait invoquer que quelques points de QI ne sont pas susceptibles d’affecter les capacités d’un enfant en particulier et sa capacité à contribuer à l’âge adulte à notre société. Cette vision individualiste doit être mise de côté au profit d’une perspective populationnelle. À petite échelle, les conséquences dans chaque école peuvent ressembler à un ou deux enfants additionnels dans chaque classe présentant les symptômes du TDAH et quelques autres enfants devant bénéficier d’un plan d’intervention pour soutenir leur apprentissage. À l’échelle d’une population, compte tenu du décalage de la répartition des QI vers les scores les plus faibles, une réduction de cinq points du QI attribuable à l’exposition au plomb entraîne une augmentation de 50 % du nombre d’enfants ayant un QI inférieur à 70 (seuil déficience intellectuelle). Les coûts pour le système scolaire, le système de santé, le système de justice et la main-d’œuvre qualifiée se situent certainement dans les milliards de dollars.

Prévenir toute exposition

Les sources les plus courantes d’exposition au plomb chez les jeunes enfants québécois sont l’eau potable et les poussières domestiques. Le plomb peut pénétrer dans l’eau de consommation en plusieurs endroits entre les stations de traitement d’eau et le domicile, la garderie et l’école. L’eau du robinet peut être contaminée par des tuyaux en plomb installés avant 1960 ou réparés à l’aide de soudure au plomb jusqu’aux années 1990. Les habitations construites avant 1960 étaient souvent peintes avec de la peinture à base de plomb qui, en se dégradant, contamine les poussières intérieures. Habiter une résidence et fréquenter une garderie à proximité d’une source ponctuelle, tel qu’une raffinerie où un incinérateur, où le plomb est rejeté dans l’air par les émissions industrielles, influence également le niveau d’exposition. Les quartiers plus âgés et localisés près de ces sources regroupent souvent des familles pauvres, mais aussi des familles plus aisées, et ce, en particulier dans des villes de plus petites tailles. Enfin, la consommation régulière de gibier sauvage tué avec des munitions contenant du plomb constitue une autre source d’exposition chez les enfants autochtones et les familles qui pratiquent la chasse.

En s’appuyant sur les évidences scientifiques, le Centre de contrôle et de prévention des maladies des États-Unis et l’Organisation mondiale de la santé considèrent depuis plusieurs années qu’aucun niveau de plomb dans le sang des jeunes enfants n’est sans danger. Ceci signifie deux choses : tous les enfants du Québec sont concernés et on doit viser une élimination de l’exposition au plomb des jeunes enfants. La prévention primaire de l’exposition est le meilleur moyen d’atténuer l’impact de ce produit chimique.

Science

Le vaccin contre la grippe est inefficace? Plutôt faux

DÉTECTEUR DE RUMEURS / Chaque année en novembre, le ministère québécois de la Santé et des Services sociaux lance sa campagne de vaccination contre la grippe saisonnière. Même si l’efficacité du vaccin a déçu il y a quelques années, la vaccination demeure un moyen important pour diminuer les complications et les hospitalisations liées à la grippe, en particulier chez les personnes à risque.

Pourquoi l’efficacité du vaccin contre la grippe varie-t-elle ?

En 2014-2015, l'efficacité du vaccin contre la grippe avait été particulièrement faible. De nombreux sites Internet en avaient profité pour semer la confusion entre l’inefficacité de ce vaccin cette année-là et l’inefficacité des vaccins en général. Or, il faut se rappeler que la grippe est un cas particulier. Trois caractéristiques du virus de la grippe expliquent qu’il est difficile d’élaborer un seul vaccin qui aurait la même efficacité, année après année.

1) Il n’y a pas seulement «une» grippe

Selon l’Organisation mondiale de la santé (OMS), il existe trois types de virus de la grippe, appelés A, B et (moins fréquent) C. Le type A est lui-même divisé en sous-types, en fonction de la protéine présente à la surface du virus. Ces protéines jouent un rôle dans la propagation du virus et sont désignées par les lettres H (hémagglutinine) et N (neuraminidase).

Mais d’une année à l’autre, les souches de grippe en circulation ne sont pas nécessairement les mêmes et elles peuvent même coexister, ce qui oblige à développer un nouveau vaccin chaque année. Par exemple, en 2015-2016, la souche A (H1N1) a causé 54 % des cas; le virus B était quant à lui responsable de 37% des cas. Par contre, en 2018-2019, la souche A (H1N1) a été responsable de 89 % des cas, la souche A (H3N2) de 6 % et la souche B de seulement 1 %.

2) Taux élevé de mutations

Le virus de la grippe a aussi la fâcheuse habitude de se modifier, de subir des mutations, ce qui le rend plus difficile à détecter par le système immunitaire.
Il faut se rappeler que si notre système immunitaire est capable de combattre efficacement un agresseur — comme un virus — c’est parce qu’il l’a déjà rencontré.

Autrement dit, il le reconnaît. C’est le principe de base de toute vaccination, qui consiste à injecter une version inoffensive du virus, afin que le système immunitaire le reconnaisse plus tard. Or, les mutations du virus de la grippe modifient ses protéines de surface. Celles-ci sont alors plus difficilement reconnues, ou pas reconnues du tout, par le système immunitaire.

3) Souches difficiles à prédire

Enfin, il est difficile de prévoir quelle sera la souche de la grippe qui sera en circulation pendant la saison suivante. Depuis 1973, l’OMS émet des recommandations formelles à ce sujet. «Des centres de surveillance sentinelle à travers le monde séquencent le génome des virus qui circulent», explique Martin Richter, du Centre de recherche du CHUS, qui s’intéresse à l’immunologie et à la pharmacologie des infections virales respiratoires. «Selon les résultats sur une partie de la planète, l’OMS fait des statistiques et prédit quelles souches devraient se propager en Amérique du Nord, ce qui permet d’élaborer les vaccins. » Au Canada, le Groupe de travail sur l’influenza développe ensuite ses propres recommandations qu’il soumet au Comité consultatif national de l’immunisation.

Mais «les scientifiques peuvent se tromper dans le choix de la souche», souligne le Dr Karl Weiss, médecin microbiologiste et infectiologue à l’Hôpital général juif de Montréal. «Beaucoup d’erreurs peuvent survenir. » C’est d’ailleurs ce qui explique l’inefficacité observée en 2014-2015. La souche servant à confectionner le vaccin différait d’un point de vue génétique de celle en circulation.

Quelle est l’efficacité moyenne ?

Selon le site du gouvernement du Québec, le vaccin contre la grippe prévient la maladie chez 40 à 60 % des personnes en bonne santé, à condition que les souches qu'il contient correspondent à celles en circulation. Pour la saison 2018-2019 en particulier, des scientifiques canadiens ont évalué que le vaccin avait offert une protection de 72 % contre le virus A (H1N1), alors en circulation. Cependant, la recherche semble indiquer que cette efficacité pourrait être moindre chez les personnes âgées.

«L’efficacité varie également d’un individu à l’autre, explique Martin Richter. De plus, pour avoir une bonne efficacité, on vise un taux de vaccination dans la population d'au moins 80 %. Si trop peu de gens sont vaccinés, la communauté ne sera pas très bien protégée.» Dans la population québécoise, bien que la couverture vaccinale soit élevée chez les personnes avec une maladie chronique ou chez les personnes âgées, elle n'atteint toutefois pas la proportion visée, sauf chez les résidents des CHSLD.

Qui devrait être vacciné contre la grippe ?

Selon un rapport publié en 2018 par le Comité sur l'immunisation du Québec (CIQ), en moyenne, 6194 Québécois ont été hospitalisés annuellement en raison de la grippe entre 2011-2012 et 2015-2016. De ce nombre, 80% souffraient déjà d'une maladie chronique. Par ailleurs, plus de la moitié des décès associés à l'influenza surviennent parmi les résidents de CHSLD.

Bien que les personnes en bonne santé soient, pour la plupart, rarement hospitalisées pour une grippe, le CIQ s'est tout de même penché sur la pertinence d'inclure les gens en bonne santé dans le programme d'immunisation contre l'influenza. Après avoir effectué une analyse économique, le CIQ en est venu à la conclusion qu'il n'était pas souhaitable d'étendre la vaccination contre l'influenza à l'ensemble de la population. Il a même suggéré de retirer de la liste des groupes à risque les enfants de 6 à 23 mois, de même que les adultes de 60 à 74 ans en santé. En les retirant, il deviendrait plus facile d'atteindre la cible de 80 % de couverture vaccinale dans les groupes réellement à risque, comme les personnes souffrant d'une maladie chronique et celles âgées de plus de 75 ans. «Même si ce n’est pas un très bon vaccin, en réduisant le risque d’aller à l’hôpital, on évite des conséquences sévères», souligne le Dr Weiss.

Enfin, il faut rappeler que le vaccin annuel contre la grippe fonctionne seulement contre le virus de la grippe. Le problème ici est que les Centres pour le contrôle et la prévention des maladies (CDC) aux États-Unis, signalent que plusieurs autres virus peuvent causer des symptômes similaires qui peuvent être confondus avec la grippe, même par un médecin. C’est ainsi que l’efficacité du vaccin est plus élevée si on la calcule uniquement en fonction des cas de grippes confirmés en laboratoire, plutôt qu’en fonction de tous les cas diagnostiqués par un médecin, selon le Comité consultatif national de l’immunisation.

Ce texte est une remise à jour d’un article initialement paru en novembre 2016

Science

L'«ancêtre» des... oreilles!

WASHINGTON — Les mammifères modernes, dont les humains, doivent leur ouïe fine à trois osselets de l'oreille moyenne que leurs ancêtres reptiles n'avaient pas, mais jusqu'à présent, on ignorait à quel point dans le temps la transformation avait commencé.

Des scientifiques rapportent dans une étude publiée jeudi dans la revue Science avoir trouvé de facto le chaînon manquant: une espèce qui vivait il y a 125 millions d'années dans ce qui est aujourd'hui le nord-est de la Chine, et dont ils ont analysé en détails des fossiles découverts depuis le milieu des années 2000. «Ce sont des preuves fantastiques», a tranché un biologiste spécialiste de l'évolution, Guillermo Rougier, de l'université de Louisville, qui n'a pas participé à l'étude. Les fossiles analysés par l'équipe de recherche sont «à couper le souffle», dit-il à l'AFP.

Les fossiles analysés par l'équipe, principalement chinoise et qui inclut Jin Meng du Muséum d'histoire naturelle à New York, sont au nombre de six et sont des proto-mammifères du Crétacé inférieur. Ils ont baptisé l'espèce Origolestes lii. Ces animaux ont côtoyé les dinosaures et avaient la taille et l'apparence de rongeurs comme des souris.

Les reptiles utilisent leurs mâchoires pour mâcher et transmettre des sons externes par vibrations jusqu'à leur cerveau, ce qui diffère du système auditif des mammifères qui implique les trois osselets marteau, enclume et étrier et permet aux humains d'écouter une symphonie et aux dauphins de localiser des objets par écholocalisation. Selon l'hypothèse scientifique prédominante, la séparation progressive des deux fonctions — mâcher et entendre — aurait permis d'alléger les contraintes mutuelles pesant sur les mâchoires, et les mammifères auraient ainsi pu à la fois diversifier leur régime alimentaire et améliorer leur ouïe.

L'équipe de recherche a eu recours à des techniques d'imagerie de haute résolution pour décrire en détails la structure des osselets et cartilages auditifs des animaux fossilisés. «Nous avons fourni la preuve fossile dans l'histoire de l'évolution qui illustre cette hypothèse», explique Jin Meng.

Les fossiles sont un véritable trésor paléontologique, selon Guillermo Rougier. «C'est presque trop», dit-il.

L'étude suggère de nouvelles questions, ajoute-t-il, telles que: cette évolution s'est-elle produite chez tous ou quelques mammifères seulement ? «Est-ce arrivé une fois ? Dans plusieurs groupes ? Nous pouvons poser plus de questions», dit le chercheur. Outre le système auditif, Jin Meng et ses collègues sont en train d'analyser d'autres parties des fossiles, notamment la cavité cérébrale, qui livrera peut-être d'autres secrets sur l'évolution des mammifères.

Science

Homéopathie: vous avez dit «liberté»?

BLOGUE / Le Dr Jean Drouin, qui avait encaissé son lot de critiques (and then some) il y a deux semaines à la suite de son appui très public à l'homéopathie, doit se sentir un peu moins seul maintenant. Le Syndicat des profs de l'Université Laval, où il donne des cours de clinique, vient de prendre sa défense au nom de la liberté académique... mais je ne pas sûr, bien honnêtement, que c'est bien de «liberté» dont on parle ici.

Retour en arrière. En novembre était lancée une «Coalition pour l'homéopathie au Québec», parrainée par nul autre que Thomas Mulcair. C'est à cette occasion que Dr Drouin s'est exprimé publiquement en faveur de l'homéopathie, attestant de son efficacité qu'il aurait constatée sur ses patients, disait-il. Et ce en dépit du fait que les études sur ces «traitements» échouent systématiquement à démontrer qu'ils sont supérieurs au placebo — pour peu que l'on s'en tienne aux études les plus solides.

L'Université Laval s'en était dissociée dans les jours suivants, laissant entendre que ses propos ne répondaient pas «aux exigences propres au milieu universitaire». Mais voilà que le Syndicat des professeur(e)s de l'UL (SPUL) vient soutenir Dr Drouin, jugeant les «remontrances» de l'université.

«Le professeur Jean Drouin, comme tous les professeur(e)s d’université, a le droit d’enseigner, d’effectuer des recherches ou de créer sans aucune contrainte, qu’elle soit institutionnelle ou externe, indique le SPUL dans un communiqué. Ce droit, nommé liberté universitaire, (...est défini par l'UNESCO) comme la capacité à faire de la recherche et à enseigner hors de toute contrainte doctrinale, de pressions institutionnelles et professionnelles. Elle inclut la liberté d’expression intra et extramuros.»

Il est bien évident que Dr Drouin a le droit à ses opinions, qui vient naturellement avec le droit de les exprimer librement. Et il va de soi qu'un syndicat défende ses membres. Je n'ai rien à dire là-dessus. (Transparence totale : je suis techniquement employé de l'UL cet automne, à titre de chargé de cours.)

Mais je vous pose (sincèrement et naïvement) la question : dans la mesure où l'inefficacité de l'homéopathie a été maintes fois démontrée et fait désormais l'objet d'un consensus scientifique bien établi, l'appui à cette croyance relève-t-il de la «liberté universitaire» ?

D'un côté, je me dis que toutes les libertés ont leurs limites, faute de quoi elles finissent toujours par mener à l'absurde. Si, par exemple, un géophysicien affirmait que la Terre est plate et qu'il refusait obstinément de constater l'évidence patente qu'elle est ronde, il me semble qu'il serait très difficile d'invoquer la «liberté universitaire» pour justifier sa conduite. On aurait plutôt affaire à un abus de cette liberté, puisque sa fonction première est d'aider à faire progresser les connaissances — pas de permettre que l'on s'enferme dans des faussetés envers et contre tous les faits et études probants. Et à cet égard, la «contrainte doctrinale» que dénonce le SPUL ne me semble pas du tout être du côté de la direction de l'université.

Mais d'un autre côté, je ne peux pas ignorer le fait qu'une telle liberté doit aussi, forcément, inclure la liberté d'avoir tort. Il peut y avoir quelque chose d'utile à ce qu'un savant remette en doute un consensus scientifique solide, ne serait-ce qu'en stimulant des recherches/répliques qui déboucheront sur de nouvelles confirmations dudit consensus. On me répondra sans doute ici que le résultat n'est pas toujours aussi utile et que l'effet final est souvent de faire faire du sur-place à la recherche et de gaspiller des fonds en réexplorant continuellement les mêmes questions, ce qui est vrai. Mais il demeure que même le GIEC, par exemple, sollicite encore l'avis de climatosceptiques notoires, justement pour «tester» davantage ses conclusions. On ne peut donc pas dire que ce genre d'exercice est toujours et systématiquement inutile.

Alors, à votre avis ? Est-ce que cela fait vraiment partie de la «liberté universitaire» que de défendre l'homéopathie (ou quoi que ce soit d'autre) en dépit des données probantes ?

Justice et faits divers

Amende record pour CFG Construction

À faute lourde, amende pesante. La Cour du Québec impose une amende record de 345 000 $ à l’entreprise CFG Construction, coupable de négligence criminelle ayant causé la mort d’un camionneur en septembre 2012.

Le 11 septembre 2012, le camionneur Albert Paradis est envoyé par son employeur chercher des rebuts d’acier dans un chemin forestier du chantier du parc éolien de la Seigneurie de Beaupré. Il a comme consigne de charger le conteneur de son camion au maximum de sa capacité.

Les freins du vieux camion Volvo fonctionnent à 53 % de leur capacité et le système de freinage n’a pas moins de défectuosités majeures. L’insouciance du mécanicien et du dirigeant du garage de CFG Construction est à blâmer, tranchera la juge Hélène Bouillon.

Le camion va se renverser dans une courbe et sera retrouvé au bas d’une pente. Albert Paradis, 50 ans, père de trois enfants, meurt seul, à côté de son poids lourd.

Les dirigeants de l’entreprise CFG Construction ont laissé Paradis conduire un camion vétuste dont ils savaient les freins déficients, conclut le tribunal.

Ils méritent aujourd’hui une peine significative pour punir un comportement «qui a porté atteinte aux valeurs de notre société et notamment celles entourant la santé et la sécurité du travail», écrit la juge Bouillon. La peine doit de plus «envoyer un message clair à toute entreprise qui serait tentée d’adopter cette même conduite», ajoute-t-elle.

Le Code criminel prévoit que l’amende est la seule peine pouvant être imposée à une organisation reconnue coupable d’une infraction criminelle.

Pour cette négligence criminelle qui s’est étalée sur plusieurs mois, la Couronne réclamait une amende de 500 000 $, du jamais-vu au Québec.

La défense soutenait qu’en raison de sa faible capacité financière, CFG Construction devrait se voir imposer une amende 10 fois moindre, soit 50 000 $.

La juge Bouillon a choisi d’imposer une amende globale de 345 000 $ qui sera payable sur quatre ans.

CFG a tiré profit de sa négligence, rappelle la juge Bouillon, car les sommes qui auraient dû être investies dans l’entretien et la réparation du camion «ont clairement constitué un avantage pour CFG Construction, soit celui de se sortir au plus vite de son impasse économique et de son insolvabilité».

Risque de récidive

Depuis 2012, CFG a été condamnée à de nombreuses reprises pour des infractions à divers règlements et au Code de la sécurité routière. Sa licence d’entrepreneur en construction a été suspendue durant un mois en 2018.

«Une entreprise avertie à répétition par les autorités compétentes et par les tribunaux, qui n’apporte pas de changements significatifs à ses comportements répréhensibles et dangereux, compromet la sécurité sociale», écrit la juge Bouillon, ajoutant que la réhabilitation de l’entreprise est loin d’être acquise et que le risque de récidive est toujours présent.

Exceptionnelle probation

Le nombre d’infractions de toutes sortes démontre que les faibles mesures mises en place par l’entreprise ne sont pas suffisantes pour assurer la sécurité des 60 travailleurs à temps plein et 250 employés occasionnels sans compter celle du public.

C’est pour cette raison que la juge Hélène Bouillon a choisi de mettre CFG Construction en probation durant trois ans, mesure inusitée dans le monde des entreprises.

CFG devra embaucher un consultant externe qui évaluera la situation et proposera des correctifs.

L’entreprise devra notamment donner une formation annuelle à ses employés sur la conduite de véhicule lourd et fournir aux autorités une copie du rapport annuel d’inspection de la SAAQ.

CFG Construction a interjeté appel de sa condamnation en Cour du Québec.

L’entreprise devra verser au total près de 200 000 $ à la CNESST pour le décès de son travailleur, dont 120 000 $ ont déjà été remis à la veuve d’Albert Paradis.

La compagnie s’expose aussi à des amendes de 83 000 $ selon l’évolution du dossier pour les accusations pénales.

Plus de sept ans après le décès de son mari, Sylvie Dionne était de nouveau de retour dans une salle de cour, pas très loin de Franky Glode, le patron d’Albert Paradis.

En parallèle à la preuve froide et technique, la juge Bouillon a retenu beaucoup de choses du témoignage de la veuve et de ses trois enfants, lors des représentations sur la peine. «La présence d’une douleur qui transperce la peau, la perte de la paix de l’âme, un vide immense, une rage indescriptible, un ouragan subi de plein fouet et la sensation de basculer dans le vide», résume la juge.

Science

La science et la rigueur au cœur des échanges avec Jean-François Cliche

La série de soirées «Conversation avec nos chroniqueurs» s’est conclue de merveilleuse façon lundi soir avec le chroniqueur scientifique Jean-François Cliche qui a partagé avec nos lecteurs les coulisses de son métier devant une salle comble, au Diamant.

Journaliste au Soleil depuis 2001, Jean-François Cliche est à la barre de la chronique Science au quotidien dans laquelle il répond aux questions des lecteurs depuis 2007. Il tient aussi la populaire rubrique «Vérification faite», qui soumet à l’épreuve des faits différentes croyances ou affirmations.

Et le public de lundi a montré à quel point il apprécie la rigueur et le sens de la nuance de notre chroniqueur. Les questions, nombreuses et pertinentes, touchaient une foule de sujets allant de l’environnement à la médecine en passant par la crédibilité des sources et la démarche journalistique en cette ère où plusieurs questions scientifiques polarisent le débat public.

Quatrième soirée

Il s’agissait de la quatrième et dernière soirée de cette série devant les fidèles lecteurs du Soleil, après Richard Therrien en septembre, François Bourque en octobre et Mylène Moisan en novembre. Surveillez Le Soleil pour les détails concernant d’autres événements publics à venir. Le Soleil n’a pas fini de vous surprendre et, surtout, de venir à votre rencontre. Merci pour votre présence et votre soutien de tous les instants.

Science

L’acte de naissance de la climatologie

SCIENCE AU QUOTIDIEN / «On ne parle plus de changements climatiques, mais d’urgence climatique déclarée par le GIEC [Groupe intergouvernemental d’experts sur le climat, ndlr]. Or leurs calculs sont basés sur des mesures remontant au début du XXe siècle et même à 1850, en pleine Révolution industrielle. Et on parle ici de mesures pour la planète entière. Mais depuis quand pouvons-nous mesurer précisément la température de la planète ? Et comment pouvons-nous être sûrs que nos comparaisons avec les époques précédentes sont fiables ?», demande Bertrand Bouchard, de Beauport.

Mesurer le temps qu’il fait à l’échelle de la Terre n’est pas une mince tâche. D’après l’Organisation météorologique mondiale, on peut compter de nos jours sur un «réseau» mondial de pas moins de 10 000 stations météo «de surface» (au sol), 1000 stations dans les airs, autant de bouées dérivantes en mer et une centaine de bouées fixes, sans compter les données recueillies par des centaines de radars météo, quelque 7000 navires et 3000 avions commerciaux, de même que 16 satellites météorologiques et une cinquantaine de satellites de recherche. Mais il n’en a évidemment pas toujours été ainsi.

L’invention du thermomètre remonte autour de l’an 1600, et il n’a pas fallu grand-temps avant qu’on s’en serve pour faire de la météo. La plus ancienne série de mesures de température prises quotidiennement (et même plusieurs fois par jour) que l’on connaisse a débuté en Angleterre en 1659 — et elle est toujours active à ce jour ! On y voit d’ailleurs assez clairement une tendance au réchauffement, mais elle souffre de deux problèmes majeurs. Le premier, c’est que comme toutes les autres mesures météorologiques, elle ne vaut que pour une région particulière, le centre de l’Angleterre dans ce cas-ci. Pas moyen de déduire une température moyenne pour le globe au complet à partir de ça (j’y reviens).

Le second problème, c’est que ces mesures n’ont pas toutes été prises au même endroit et de la même manière, mais sont plutôt une collection de séries maintenues par des amateurs (il n’y avait pas de «pros», à l’époque), indépendamment les uns des autres. Le pionnier britannique de la climatologie Gordon Manley (1902-1980) les a toutes mises ensemble et a tant bien que mal comblé des «trous» là où les séries ne se chevauchaient pas. Et même quand elles se chevauchaient, on les considère comme peu fiables jusque autour de 1770 — avant cela, la norme était de placer les thermomètres non pas dehors, mais à l’intérieur, dans des pièces non chauffées, ce qui les rendait moins sensibles aux changements de la «vraie» température extérieure.

Les problèmes de ce genre étaient d’ailleurs répandus à l’époque. Dans un fascinant article sur les débuts de la météorologie au Québec, la chercheuse de McGill Victoria Slonosky note elle aussi que jusqu’à la fondation du Service météorologique du Canada en 1871, les seules séries de mesures dont on dispose étaient surtout des initiatives individuelles de qualité variable. Leurs séries ne se chevauchent pas toutes (entre les mesures du naturaliste Jean-François Gauthier, au milieu du XVIIIe siècle, et celles du Britannique Alexander Spark, il y a un trou de près de 50 ans !), les mesures ne furent pas toutes prises de la même manière ni aux mêmes heures, etc. En outre, ce n’est pas avant le milieu du XIXe siècle que l’usage d’abris à thermomètre (pour les protéger de l’influence des vents et de l’exposition directe au soleil) ne s’est vraiment généralisé, note Mme Slonosky.

Mais quand même : avec le temps, non seulement les techniques se sont améliorées et standardisées, mais le nombre de stations météorologiques a également explosé, un peu partout dans le monde. Si bien que quelque part entre le milieu et la fin du XIXe siècle, la température a commencé à être mesurée de manière suffisamment fiable et sur une superficie suffisamment grande pour que, aux yeux des climatologues, l’on puisse en tirer une moyenne planétaire satisfaisante.

Certains disent que les incertitudes demeurent trop grandes avant 1880, d’autres «osent» se rendre jusqu’aux années 1850. Dans tous les cas, ce n’est ni parfait, ni aussi précis et complet que les mesures que l’on prend maintenant. Comme le montre la carte ci-dessous, il restait encore de vastes zones d’ombre où l’on n’avait très peu, sinon pas du tout de mesures — notamment les pôles, le bassin versant de l’Amazone et de grands pans d’Afrique. Mais dans l’ensemble, les climatologues considèrent qu’à partir de la fin du XIXe siècle, on a assez de données prises dans assez d’endroits pour donner une idée raisonnablement précise de la température mondiale.

Science

Le ciel de décembre 2019: Mira la merveilleuse

La fin de l’année nous permet d’observer et de suivre l’une des plus fascinantes étoiles variables : Mira. Située dans la constellation de la Baleine, elle est bien positionnée dans le ciel du Québec à la fin de l’automne et pendant l’hiver.

La variabilité d’Omicron de la Baleine a été officiellement découverte par l’astronome hollandais David Fabricius en 1596, bien que cette étoile ait été observée par Hipparque de Nicée au deuxième siècle avant notre ère et remarquée par bien d’autres observateurs au cours des siècles. Fabricius a d’abord cru qu’il s’agissait d’une nova qui disparaissait après avoir brillé pendant quelques semaines. À sa grande surprise, il l’observa à nouveau en 1609. C’est Johannes Hevelius qui, en 1642, lui donna le nom de Mira, « la merveilleuse » en latin.

Rapidement, les astronomes vont s’apercevoir que Mira réapparaît dans le ciel de façon régulière, la luminosité de l’étoile variant selon un cycle de 332 jours. Au maximum de sa brillance, Mira est facilement visible à l’œil nu, tandis qu’elle n’est perceptible qu’à l’aide de télescopes lorsqu’elle se trouve près de son minimum.

Au cours du cycle actuel, on prévoit que Mira aura atteint son éclat maximum vers le 15 novembre, et qu’elle demeurera observable à l’œil nu jusqu’à la fin de janvier 2020. Notons toutefois que la variation de luminosité n’est pas constante d’un cycle à l’autre; il est donc difficile de faire des prévisions précises sur le maximum ou le minimum de luminosité que l’étoile atteindra.

Qu’est-ce qui fait varier Mira ?

Mira est une étoile géante rouge, comme le deviendra le Soleil vers la fin de vie. Après avoir épuisé l’hydrogène dans son noyau, elle est passée à un autre stade de son évolution. Son noyau est maintenant entouré par des couches d’hydrogène très dilatées, ce qui en fait une étoile très grande, émettant beaucoup de lumière, mais relativement froide en surface.

Mira est ce qu’on appelle une variable pulsante, car son diamètre varie de façon périodique. Lorsque le diamètre de l’étoile est à son minimum, la chaleur force les couches externes à se dilater; elles se refroidissent alors tout en émettant plus de lumière. Puis, arrive un point où la chaleur n’arrive plus à dilater les couches externes de l’étoile. Le processus s’inverse alors et les couches se contractent tout en se réchauffant.

Au minimum de son cycle, Mira est 664 fois plus grande que le Soleil et sa température de surface est alors de 3200 degrés Kelvin (celle du Soleil est de 5750 K). Lors du maximum, Mira est 804 fois plus grande que le Soleil, et sa température diminue à 2900 K. Mira émet surtout de la lumière infrarouge, mais en lumière visible, elle est environ 1500 fois plus brillante au maximum que lors de son minimum : c’est ce qui explique qu’elle passe ainsi de l’imperceptibilité la plus complète à une visibilité relativement aisée.

Profitez donc des prochaines semaines pour observer la merveilleuse Mira pendant qu’elle est visible à l’œil nu.

Un festin planétaire

En décembre, l’éclatante Vénus illumine nos débuts de soirée et brille de tous ses feux au-dessus de l’horizon sud-ouest au crépuscule.

Au début du mois, Jupiter et Saturne escortent Vénus dans le ciel. Le soir du 1er décembre, vers 17 heures, la Lune accompagne notre trio planétaire. Vénus sera alors à 7 degrés au-dessus de l’horizon, avec Jupiter plus bas sur sa droite et Saturne plus haut sur sa gauche. Le croissant lunaire reposera quant à lui un peu plus haut et sur la gauche de Saturne.

Chaque jour, Jupiter se rapproche du Soleil et devient plus difficile à repérer. La planète géante disparaît dans les lueurs solaires au milieu du mois. Saturne suit le même chemin que Jupiter, mais restera visible jusqu’à la fin de l’année.

Ne manquez pas le début de la soirée des 10 et 11 décembre, alors que Vénus et Saturne passeront à moins de 2 degrés l’une de l’autre. Les 27 et 28 décembre, au crépuscule, la Lune se joint aux deux planètes. Le 27, le mince croissant lunaire sera juste en haut et à gauche de Saturne, bas à l’horizon sud-ouest, 30 minutes après le coucher du Soleil. Le lendemain, la Lune reposera seulement 3 degrés sous Vénus.

Mars est visible aux premières lueurs de l’aube une quinzaine de degrés au-dessus de l’horizon sud-est. Le 22 décembre, le croissant de Lune brillera au-dessus de la planète rouge. Le lendemain matin, le mince croissant lunaire sera en bas et à gauche de Mars.

Mercure sera visible le matin en première moitié de décembre, environ 45 minutes avant le lever du Soleil. Elle sera malheureusement basse sur l’horizon sud-est, à peine 10 degrés en début de mois. Au fil des jours, la planète se rapproche du Soleil et de l’horizon et devient difficile à repérer. On la perd dans les lueurs de l’aube à la mi-décembre.

Enfin, le solstice se produira le 21 décembre à 23 h 19 HNE, marquant le début officiel de l’hiver dans l’hémisphère Nord.

Nous vous souhaitons de joyeuses Fêtes remplies de belles observations astronomiques!

André Grandchamps est astronome au Planétarium Rio Tinto Alcan.

Au Planétarium de Montréal :

Un seul billet pour voir tous les films présentés le jour de votre visite au Planétarium Rio Tinto Alcan. Consultez l’horaire sur notre portail Web à espacepourlavie.ca.

Science

INRS : 50 ans qui ont façonné le Québec

LA SCIENCE DANS SES MOTS / À l’automne 1969, le scientifique Charles E. Beaulieu reçoit un coup de fil du vice-président de l’Université du Québec, Pierre Martin, qui veut doter le Québec d’un institut national de recherche. Pour relever ce défi, Charles E. Beaulieu appuie sa réflexion sur un rapport de l’OCDE, paru la même année, qui déplore que les trois grands moteurs de la recherche scientifique en Occident – les gouvernements, les universités et l’industrie – travaillent en vase clos. Visionnaire, il propose à Pierre Martin de mettre en place un institut unique, doté de centres de recherche thématiques axés sur les problèmes de la société québécoise : l’eau, l’énergie et l’urbanisation.

Rappelons-nous qu’à l’époque, ceux que nous appelions les Canadiens français affichaient un retard important sur le plan de la scolarisation, avec un taux de fréquentation universitaire parmi les plus bas en Amérique du Nord. Les opportunités de carrière en recherche étaient rares et les chercheurs du Québec n’obtenaient qu’une très faible part des subventions de recherche fédérales. L’institut à naître devait briser cet isolement et propulser le Québec en avant.

C’est ainsi que l’Institut national de la recherche scientifique voit le jour le 3 décembre 1969. La nouvelle sera officialisée deux semaines plus tard en conférence de presse par le ministre de l’Éducation Jean-Guy Cardinal. La mission de l’INRS se résume ainsi : contribuer au développement économique, social et culturel en œuvrant dans des domaines stratégiques pour le Québec.

Un demi-siècle plus tard, en tant que scientifique, je suis particulièrement fier de diriger cette organisation avant-gardiste. Sa conception particulière, constituée de centres de recherche multidisciplinaires répartis sur l’immense territoire de la vallée du Saint-Laurent, a permis d’obtenir des résultats concrets. L’INRS, malgré sa taille modeste, a joué un rôle clé dans le développement du Québec. Les modèles mathématiques des chercheurs installés à Québec ont permis la construction de barrages hydroélectriques à la Baie-James. Les avancées scientifiques sur la reconnaissance de la parole, achevées en collaboration avec l’industrie, ont contribué à transformer Montréal en chef de file dans le domaine de l’intelligence artificielle. En partenariat avec le milieu communautaire, nos chercheuses ont collaboré de manière significative à l’élaboration de la politique familiale du Québec, à l’origine des CPE, où grandissent aujourd’hui nos enfants. Nous hébergeons également l’un des plus importants laboratoires de contrôle du dopage au monde qui effectue des tests pour plusieurs fédérations sportives internationales. Et c’est sans compter nos expertises reconnues dans les domaines de la physique des lasers et de la lutte aux maladies infectieuses. Ces réalisations illustrent bien le rôle de la recherche scientifique dans nos vies.

Nous sommes maintenant à l’œuvre pour développer le Québec de demain, dans des domaines névralgiques : les énergies renouvelables, l’eau, la jeunesse, le transport actif, la valorisation des déchets industriels ou agricoles. Permettez-moi de rêver à l’impact que pourrait avoir l’INRS si on lui donnait les moyens de se saisir de nouveaux enjeux stratégiques pour la société québécoise, que ce soit dans les domaines de l’environnement ou de l’alimentation, entre autres. Puissent les cinquante prochaines années être marquées par la reconnaissance de notre capacité à contribuer au développement de la société. En terminant, je salue les visionnaires qui ont eu l’audace de créer cette institution, notamment le ministre de l’Éducation de l’époque, M. Jean-Guy Cardinal, le premier président de l’INRS, M. Louis Berlinguet, le premier directeur général, M. Charles E. Beaulieu. Vous avez doté le Québec d’un puissant véhicule de recherche et de formation.

Science

Sel sur les routes : vers un épandage de précision

Le climat nordique nous pousse à saler les routes en hiver afin de les rendre sécuritaires. Un déversement qui se poursuit souvent l’été pour limiter la poussière des voies les plus fréquentées. Or, depuis de nombreuses années, les chercheurs ciblent ces sels d’épandage comme étant nocifs, non seulement pour les écosystèmes des bords des routes, mais aussi pour les milieux humides.

Car ils se retrouvent dans les lacs et les rivières. «Le chlorure de sodium, le plus utilisé, affecte les populations aquatiques, explique Claudie Ratté-Fortin. Il est toxique pour les poissons et les mollusques — à forte dose, c’est létal pour eux — et modifie l’équilibre du phytoplancton et la croissance des algues», poursuit celle qui est candidate au doctorat en sciences de l’eau au Centre Eau Terre Environnement de l’INRS.

Avec deux autres jeunes collègues, Anne Carabin et Patricia Gomez, l’étudiante a développé un outil de gestion, le GuIA. Cette plateforme interactive soutenue par l’intelligence artificielle vise à optimiser l’épandage en recommandant le meilleur mélange de fondant et la quantité à appliquer sur un tronçon de route précis, en fonction de la météo ambiante.

Les premières simulations, menées dans le quartier Limoilou de Québec, ont permis une réduction de 10 à 40 % de la quantité de fondants à déverser. «La bonne dose au bon moment au bon endroit, explique Karim Chokmani, est un principe connu en agriculture mais moins appliqué en sécurité routière, où l’on a tendance à en mettre trop pour garantir la sécurité. Pourtant, il faut réduire l’application des sels de déglaçage car ils perturbent notre environnement et sont difficiles à enlever», souligne ce spécialiste de télédétection et d’hydrologie qui encadre les travaux de recherche de Mme Ratté-Fortin.

La géolocalisation des camions optimisera par exemple les trajets tout en prenant en compte les zones identifiées comme vulnérables —milieux sensibles et eaux souterraines. Un épandage de précision sera également susceptible d'entraîner des gains économiques. «La capacité d’auto-apprentissage de l’IA automatisera la gestion de l’épandage de manière fine en fonction des variations locales (température de surface, niveau de service du tronçon, etc.)», explique encore Mme Ratté-Fortin.

Cet outil a récemment remporté un prix au concours d’Aqua Hacking 2019, qui devrait permettre à l’équipe de Clean Nature de réaliser un réel projet pilote dès cet hiver.

La dose qui fait le poison

Le code de pratique canadien pour la gestion environnementale des sels de voirie recommande que les organismes concernés élaborent des plans pour améliorer leurs pratiques d’entreposage des sels, d’épandage sur les routes et d’élimination de la neige. Pourtant, plus de 15 ans après la mise en œuvre de ce code, la gestion des sels laisse encore à désirer.

Une trop grande quantité utilisée chaque année s’accumule sur les bas-côtés des autoroutes. «Cela change la végétation des premiers mètres. Nous pouvons avoir un bon signal lorsqu’il y a recrudescence d’herbe à poux, la seule plante capable de résister à cette agression», relève le chercheur au Centre de transfert technologique en écologie industrielle (CTTÉI) du Cégep de Sorel-Tracy, Marc Olivier.

Son équipe de recherche a mis au point une solution verte, un acétate mixte de calcium et de magnésium biodégradable. D’autres solutions vertes font l’objet d’expérimentations et de projets pilotes. Par exemple, le jus de betteraves, une solution écolo testée depuis peu à Sherbrooke et à Winnipeg. «C’est un résidu peu dispendieux, avec un petit désavantage qu’est sa couleur, mais qui joue son rôle d’adhésif lorsqu’il ne fait pas trop froid», soutient le chimiste spécialisé en environnement.

La solution serait de varier les solvants, de les utiliser avec parcimonie aux endroits et aux moments nécessaires, pour limiter les dommages à la nature. Ainsi qu’aux infrastructures, comme le tablier de béton du Pont Champlain attaqué par les sels. Ce que prône la jeune équipe de Clean Nature : utiliser l’IA pour épandre juste ce qu’il faut, là où il le faut.

Science

20 ans plus tard : le riz doré sur le point d’être approuvé ?

Après 20 ans de controverses, le riz doré est peut-être sur le point d’être approuvé dans le premier des pays à en avoir le plus besoin: le Bangladesh, après un processus d’examen de deux ans, s’apprêterait à donner le feu vert pour des cultures de ce riz sur son territoire.

Ce qu’on appelle le riz doré est un riz génétiquement modifié pour lutter contre les carences en vitamine A. Ces carences peuvent conduire à la cécité et affaiblissent le système immunitaire. Selon une étude parue il y a déjà 10 ans dans la revue médicale The Lancet, elles seraient responsables d’un demi-million de morts par année, en grande majorité des enfants, dans les pays en voie de développement. En théorie, les campagnes en cours depuis les années 1980 pour fournir aux enfants de ces pays des suppléments de vitamine A pourraient combattre le problème, mais ces campagnes n’atteignent toujours pas le tiers des enfants les plus à risque, selon l’UNICEF.

Dans les pays occidentaux, la vitamine A s’obtient par une alimentation normale: on l’identifie souvent aux carottes, qui doivent en partie leur coloration à cette vitamine —tout comme la teinte jaunâtre du riz doré doit la sienne aux surplus de vitamine A que la plante produit.  

Lancée en 1999 après 15 années de recherches visant à mettre au point un aliment capable de produire davantage de cette vitamine A, le riz doré a surtout été marqué, depuis, par une histoire tumultueuse. Il est arrivé à une époque où certains pays européens se mobilisaient déjà contre les organismes génétiquement modifiés (OGM) et il n’a jamais cessé d’être ciblé par les opposants comme un exemple de «cheval de Troie» par lequel l’industrie des OGM s’infiltrerait dans les pays qui choisiraient d’ouvrir la porte à ce riz. Une étude menée auprès d’enfants chinois en 2012, qui concluait à son efficacité, a ainsi été attaquée, pas tant sur ses résultats que sur le fait que les parents n’avaient pas été avisés adéquatement qu’il s’agissait. d’un aliment génétiquement modifié.

Depuis 1999, ce riz a aussi eu le temps de s’améliorer, passant six ans plus tard à une seconde version produisant davantage de vitamine A. Selon l’étude de 2012, il pourrait fournir 60% de la quantité de vitamine dont un enfant a besoin. Et selon des études menées aux Philippines, à Taïwan et au Bangladesh en 2015, celui qui est produit dans les champs produirait quatre à cinq fois plus de vitamine A que celui produit en serre.

Depuis deux ans, il a été approuvé pour consommation aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande. Si le Bangladesh l’approuve à son tour, ce sera toutefois le premier des pays qui en ont véritablement besoin, compte tenu des carences de sa population en vitamine A.

Pour les défenseurs de longue date du riz doré, les deux décennies d’opposition ont causé des millions de décès qui auraient pu être évités. Pour les opposants, dont Greenpeace a longtemps été un chef de file, le riz doré ne peut pas fonctionner et détourne des ressources financières qui auraient dû être employées à lutter contre la malnutrition et la pauvreté.

Science

Comment une alimentation trop riche transforme notre cerveau

LA SCIENCE DANS SES MOTS / Nous adorons les gâteries sucrées. Mais trop de sucre dans notre alimentation peut causer un gain de poids et l’obésité, le diabète de type 2 ainsi que la carie dentaire. Nous savons qu’il vaut mieux éviter les bonbons, la crème glacée, les biscuits, les gâteaux et les boissons gazeuses, mais il est parfois très difficile d’y résister.

C’est comme si notre cerveau était programmé pour avoir envie de ces aliments.

Mes recherches en neurosciences portent sur la façon dont l’alimentation moderne «obésogène» – qui entraîne l’obésité – modifie le cerveau. Je veux comprendre comment ce que nous mangeons change notre comportement et si les transformations cérébrales peuvent être atténuées par d’autres aspects du mode de vie.

Le corps fonctionne au sucre — au glucose pour être précis. Ce terme vient du grec glukos, qui signifie doux. Le glucose alimente les cellules qui nous composent, y compris celles du cerveau (les neurones).

Sucre et poussées de dopamine

Nos lointains ancêtres étaient des charognards. Comme les aliments sucrés constituent une excellente source d’énergie, l’évolution a fait en sorte que nous les trouvons particulièrement bons. Les aliments au goût désagréable, amer ou aigre peuvent être toxiques, avariés ou pas assez mûrs, et donc entraîner des maladies.

C’est ainsi que pour maximiser nos chances de survie en tant qu’espèce, nous avons un système cérébral inné qui nous porte à aimer les aliments sucrés qui nous donnent de l’énergie.

Lorsqu’on mange des aliments sucrés, le système de récompense du cerveau – appelé système dopaminergique mésolimbique – est activé. La dopamine est une substance chimique libérée par les neurones qui signale qu’un événement est positif. Quand le système de récompenses se déclenche, il renforce des comportements qu’on devient ensuite plus susceptibles de répéter.

Les poussées de dopamine provoquées par la consommation de sucre favorisent un apprentissage rapide, ce qui nous porte à préférer ces aliments.

Aujourd’hui, notre environnement regorge d’aliments sucrés et riches en énergie. Il n’est plus nécessaire de partir à leur recherche, car on en trouve partout. Malheureusement, notre cerveau est toujours semblable à celui de nos ancêtres sur le plan fonctionnel, et il aime vraiment le sucre. Mais que se passe-t-il dans le cerveau lorsqu’on en mange trop ?

Le cerveau remodèle continuellement ses connexions par un processus appelé neuroplasticité. Cette reconfiguration peut se produire dans le système de récompense. L’activation répétée de la voie de la récompense par des drogues ou une grande quantité d’aliments sucrés amène le cerveau à s’adapter à une stimulation fréquente, ce qui conduit à une forme de tolérance.

Pour ce qui est des aliments sucrés, cela signifie qu’on doit en manger plus pour obtenir le même sentiment de satisfaction – une caractéristique typique de la dépendance.

Science

La NASA a annoncé une collision cosmique pour le 20 décembre? Faux

DÉTECTEUR DE RUMEURS / La NASA aurait repéré des «roches spatiales gigantesques» dont l’une va percuter la Terre cinq jours avant Noël. La manchette a de quoi faire peur, et la NASA a vraiment annoncé quelque chose… mais pas tout à fait ça, a découvert le Détecteur de rumeurs.

Si de telles annonces de fin du monde réapparaissent régulièrement depuis des décennies, celle-ci s’appuie, aussi étonnant que cela puisse paraître, sur quelque chose de solide : il existe bel et bien un astéroïde nommé 216258 2006 WH1 et la NASA en a bel et bien parlé. Mais pas du tout dans les mêmes termes que le quotidien britannique Daily Express, dont l’article catastrophiste publié en octobre a été traduit ensuite en français la semaine dernière sur le site Nouvel Ordre mondial, et repris dans plusieurs messages inquiets sur les médias sociaux.

En réalité, ce qu’a dit la NASA est que 216258 2006 WH1 passera «à proximité» de la Terre cinq jours avant Noël. Et «à proximité» est un terme relatif en astronomie : on parle ici de 6 millions de kilomètres, ou plus de 15 fois la distance Terre-Lune.

L’information provient d’une division de la NASA appelée le Center for Near Earth Object Studies (CNEOS), dont la mission est d’étudier tous ces objets célestes dont l’orbite excentrique les amène à croiser de temps en temps celle de la Terre — appelés en français géocroiseurs ou en anglais Near Earth Objects. Le CNEOS, en date du 21 novembre, énumérait 15 autres de ces objets devant passer dans les deux prochains mois à des distances variant entre une fois et demi et 19 fois la distance Terre-Lune. Les plus petits font 10 à 20 mètres de diamètre: l’équivalent de la météorite dont l’onde de choc, en 2013, a fait voler en éclat des milliers de fenêtres dans la ville de Tcheliabinsk, en Russie. Les plus gros, comme celui dont il est question ici, font entre 250 et 600 mètres: les experts évaluent qu’une collision avec un objet de cette taille se produit quelques fois par million d’années. Quant à l’astéroïde qui a mis fin à la carrière des dinosaures il y a 65 millions d’années, il était, lui, au moins 30 fois plus gros que ces derniers.

Il faut aussi savoir que ce 216258 2006 WH1 est connu depuis 2006 (comme son nom l’indique). On ne vient donc pas de «découvrir» qu’il allait passer près de nous: son orbite a été suivie suffisamment longtemps pour que les astronomes puissent prédire avec précision cette orbite pour les 200 prochaines années. La NASA prévient par ailleurs qu’il reste certainement un grand nombre d’autres objets géocroiseurs à découvrir. Mais plus ils sont gros, et plus les chances sont élevées qu’ils soient détectés des années avant une approche dangereuse.

Science

La baie d’Hudson, cimetière des marées

«SCIENCE AU QUOTIDIEN / «L'année dernière, des collègues qui étaient au Nunavik, sur le bord de la baie d’Hudson, m’ont demandé de leur fournir l’heure de la prochaine marée haute pour planifier leurs travaux. Mais en arrivant sur le site de Pêches et Océans Canada, j’ai été un peu mystifiée. J’ai l’habitude de voir quatre marées par jour, à intervalle assez régulier. Or, dans le graphique des marées, l’oscillation n'était pas régulière et même qu’à certains moments, il semble n’y avoir que deux marées par jour. Le même phénomène semble prévaloir pour tout l’est de la baie d’Hudson. Avez-vous une explication ?», demande Christine Lambert, qui travaille en aménagement de la faune à Rimouski.

Quiconque observera les graphiques ci-contre, qui présentent les marées sur 7 jours à Québec et à Akulivik, se rendra tout de suite compte que la marée n’y fonctionnent pas du tout de la même manière. Dans la Vieille Capitale, le niveau de l’eau monte et descend avec la régularité d’une horloge, littéralement. Mais sur la côte est de la baie d’Hudson, c’est une tout autre histoire : certains jours, la marée semble «coller» à la hausse pour ensuite redescendre brièvement, d’autres jours elle semble carrément chaotique, et d’autres jours encore elle prend un rythme plus normal.

Vraiment, si le village d’Akulivik était une personne et que son graphique des marées étaient un électrocardiogramme, son médecin l’enverrait directement à l’urgence…

Cela peut paraître très étonnant puisque l’on entend souvent que les marées sont dictées par la gravitation de la lune et du soleil. Et c’est tout à fait vrai, dit Denis Lefaivre, chercheur en prévisions océaniques à Pêches et Océans Canada : «L’influence de la lune est à peu près deux fois plus forte que celle du Soleil, c’est pour ça qu’on a deux cycles de marée par jour.» Un cycle quand la lune est de «notre» côté de la Terre et qu’elle attire l’eau, et un autre quand elle est du côté opposé — ce qui, contrairement à ce qu’on penserait intuitivement, donne alors une marée haute parce que la lune attire la Terre et que les océans de l’autre côté de la planète restent à la traîne, un peu comme l’eau qui s’accumule à l’arrière d’un contenant quand on le tire vers soi.

Bref, la gravitation de la lune et du soleil sont le «moteur» qui fait monter et descendre le niveau des océans. À cet égard, d’ailleurs, la marée et les voitures sont assez comparables. Le moteur a, en effet, une grande influence sur l’expérience de conduite, mais celle-ci dépend également d’une foule d’autres facteurs très locaux, comme l’endroit où on va, la météo à cet instant précis, le fait de rouler sur de l’asphalte ou de la gravelle, etc. Et il en va de même avec les marées, qui ne se manifestent pas partout de la même façon parce qu’au-delà de leur «moteur», plusieurs facteurs locaux vont agir dessus, comme la forme des côtes, la profondeur de l’eau, la bathymétrie (soit le «relief» des fonds marins), etc.

Or dans le cas de la baie d’Hudson et en particulier de la côte du Nunavik, ces facteurs-là sont particulièrement nombreux, influents et complexes. Les marées, comme on l’a déjà vu dans cette rubrique, sont des ondes qu’on peut se représenter comme des sortes de «vagues» pas très hautes (quelques dizaines de centimètres de haut) mais qui s’étendent sur des milliers de kilomètres, et qui se déplacent d’est en ouest. Comme toutes les vagues, l’onde de marée peut être bloquée, déviée ou déformée par les obstacles qu’elle rencontre. Et quand elle arrive dans l’Arctique canadien, la marée se heurte justement à deux obstacles importants : la côte du Labrador et l’île de Baffin.

Le seul endroit où cette «vague» peut passer est le détroit d’Hudson, à la pointe nord du Québec — et encore ce passage de 70 km à 100 km n’est pas très large à l’échelle d’une marée. Cela a pour effet de «concentrer» l’onde, ce qui amplifie beaucoup les marées dans ce secteur (de même que dans la baie d’Ungava). Par exemple dans le village inuit de Kangiqsujuaq, du côté québécois du détroit d’Hudson, la différence entre la marée basse et la marée haute est considérable : pas moins de 6 à 7 mètres ces jours-ci [http://bit.ly/336qogc]. Cela provoque aussi des «courants de marée» particulièrement forts dans le détroit, pouvant atteindre de 10 à 15 km/h. L’explorateur anglais John Davis, qui est passé par là en 1587, a d’ailleurs noté dans son journal de bord qu’«à notre grande admiration, nous avons vu l’océan tomber dans [la baie d’Hudson] comme un grand déversoir, rugissant et créant des tourbillons comme le courant d’une rivière qui force son chemin entre les piliers d’un pont» [http://bit.ly/2qBK2n6].

Ce qui se passe ensuite est encore plus singulier. La marée ne monte pas partout dans la baie en même temps, mais monte d’abord dans le nord-ouest, sur les côtes du Nunavut, pour ensuite descendre vers le sud (la côte manitobaine) et éventuellement revenir vers l’est et, finalement, le nord. Bref, l’onde ne peut pas poursuivre sa route vers l’est et est redirigée par les berges.

Chemin faisant, note M. Lefaivre, elle perd beaucoup de son énergie par friction. «Comparé au Golfe du Saint-Laurent, dit-il, la baie d’Hudson est trois fois plus grande mais elle est moins profonde.» L’onde s’amenuise donc au fond et sur les berges, si bien qu’il n’en reste plus grand-chose une fois rendu à Akulivik — où son amplitude varie d’ailleurs de seulement 10 à 30 cm, selon le moment du mois. «Et je peux même vous dire qu’en hiver, quand la glace fige et que le couvert est complet, il n’y a presque plus de marée là parce que la friction se fait alors non seulement par le fond, mais par la surface aussi», ajoute M. Lefaivre.

Ce qui se passe concrètement dans chacun des villages du Nunavik hudsonien peut varier selon les conditions locales — il y a une grande île en face d’Akulivik, Puvirnituq est au fond d’une baie, Inukjuak est au fond d’une baie plus petite et «protégée» par un chapelet d’îles, etc. —, ce qui rend la chose difficile à expliquer concrètement ici. Mais comme l’explique M. Lefaivre, nous sommes devant un système où «les résonances [ndlr : des facteurs qui, selon le moment du mois, vont se conjuguent ou s’annuler] sont fortes» et complexes, ce qui donne des marées en apparence capricieuse, ou du moins très changeantes.

+

Science

Six chercheurs de l’UL parmi les plus cités au monde

Six chercheurs de l’Université Laval font partie du dernier palmarès des savants les plus cités au monde, compilé par la firme américaine Clarivate.

Il s’agit de France Légaré (santé des populations et prise de décision en santé), Vincenzo Di Marzo (spécialiste du système endocannabinoïde, qui régule le stress, la faim et l’immunité), Jean-Pierre Després (obésité, diabète), Philippe Pibarot et Josep Rodes-Cabau (tous deux en traitement des maladies cardiaques) et de Sylvain Moineau, dont les travaux ont ouvert la porte au système CRISPR, qui est en train de révolutionner l’édition génétique.

Clarivate établit cette liste en sélectionnant le 1 % des chercheurs les plus cités à l’échelle mondiale dans leur domaine au cours de la dernière année. Au Québec, les universités McGill (20 mentions) et de Montréal (6 mentions) ont elles aussi des chercheurs dans cette prestigieuse liste.

À l’échelle de la planète, ce palmarès comprend un peu plus de 2700 personnes, dont une grande partie vivent aux États-Unis (44 %). L’université Harvard (203 mentions) est l’institution qui emploie le plus de ces «chercheurs influents».

La Chine vient au second rang avec 636 chercheurs figurant dans le 1 % les plus cités par leurs pairs.

Science

Les fameuses «preuves» d'efficacité de l'homéopathie...

BLOGUE / Les défenseurs de l'homéopathie chantent toujours le même refrain, et la nouvelle «Coalition pour l'homéopathie au Québec», parrainée et lancée hier par l'ex-ministre Thomas Mulcair, n'y fait pas exception. On commence par concéder que le fonctionnement de l'homéopathie est «mal compris», mais on enchaîne tout de suite en assurant que son efficacité, elle, est scientifiquement prouvée. Or le problème est que tout, là-dedans, est faux.

C'est La Presse qui a sorti cette histoire de Coalition ce matin — et après toutes les fois où j'ai vu des journalistes répéter sans critique le discours des homéopathes sous prétexte qu'ils ont «droit de parole eux aussi», je crois qu'il faut saluer le travail de ma collègue, qui est allée chercher la version de sources crédibles et solides pour contredire ce non-sens.

Je suis toujours un peu étonné d'entendre les homéopathes et leurs partisans dire que le fonctionnement de leurs produits est encore nébuleux. Ce soi-disant «mécanisme» est pourtant clairement énoncé depuis les débuts de l'homéopathie au XVIIIe siècle : toute maladie peut être guérie par une toxine produisant les mêmes symptômes, si on la dilue à l'extrême (voire jusqu'à absence complète). Tout ce beau monde «découvre» de nouveaux «traitements» homéopathiques chaque année en mettant cela en pratique, alors le «mécanisme» semble assez bien maîtrisé en ce qui les concerne, merci.

Mais le problème n'est justement pas que le principe de fonctionnement est incompris, c'est qu'il n'a ni queue ni tête, qu'il n'a aucun fondement scientifique le moindrement plausible, qu'il ne tient tout simplement pas debout. Et conséquemment, quand on examine les «preuves» d'efficacité de l'homéopathie comme du monde, on se rend vite compte qu'elles n'existent pas.

Pour citer l'excellent blogue Science-Based Medicine, il y a un pattern qui revient très souvent dans les études sur les médecines dites alternatives en général, et il est systématique dans le cas particulier de l'homéopathie. Les premières «études» au sujet d'un traitement suggèrent qu'il est efficace, mais elles sont habituellement de très faible qualité — il s'agit souvent de quelques cas rapportés, de projets-pilote qui vise à «tester» le protocole de recherche et non à produire des résultats scientifiques, etc. Viennent ensuite des travaux plus solides (encore que de qualité variable), et l'efficacité du traitement apparaît alors pas mal plus incertaine. Et en bout de ligne, quand la recherche atteint éventuellement des niveaux de qualité vraiment élevés (les essais cliniques les mieux faits et les méta-analyses), alors l'effet du soi-disant traitement disparaît complètement.

La plus belle illustration de cette règle est sans doute cette méta-analyse (étude qui consiste à agréger les données de plusieurs études sur une même question) parue en 2017 dans Systematic Reviews. L'exercice consistait à recenser tous les essais cliniques sur l'homéopathie répondant à certains critères minimaux de qualité, peu importe ce que le traitement était supposé guérir (il y a des outils, en statistique, qui permettent de comparer la taille des effets sans égard à la maladie traitée). Les auteurs ont trouvé 75 de ces essais cliniques dont l'ensemble suggérait que l'homéopathie avait bel et bien une efficacité au-delà du placebo, mais quand ils tenaient compte de la qualité variable de ces études, alors l'effet s'estompait. Pas moins de 49 de ces travaux avaient des caractéristiques qui laissaient soupçonner un «fort risque de biais» en faveur de l'homéopathie, et 23 venaient avec un «risque de biais incertain». Seulement trois de ces essais cliniques ont produit des «données fiables», lit-on dans l'article, et ceux-là n'ont trouvé aucun signe d'efficacité.

Ce n'est pas compliqué, c'est toujours le même principe pour tous les maux sur lesquels on a testé l'homéopathie et ça fait des décennies que ça dure. Tenez, voici ce qu'a par exemple trouvé une revue de la littérature scientifique au sujet de l'effet des granules de sucre sur le trouble du déficit de l'attention :

Sciences

L'astronaute David Saint-Jacques rencontre François Legault

Le premier ministre François Legault avait une grande question à poser à l’astronaute David Saint-Jacques mardi : «Comment on fait pour convaincre plus de jeunes de choisir les sciences pures?»

Le médecin de famille, ingénieur et astrophysicien a eu cette réponse: «Parce que c’est le fun! Il n’y a rien de plus le fun que de comprendre le monde autour de nous.»

Il était reçu avec son épouse par le premier ministre à son bureau, après un hommage officiel rendu par l’Assemblée nationale. M. Legault en a donc profité pour le questionner sur une de ses grandes préoccupations, c’est-à-dire comment inciter les jeunes à se lancer en sciences.

«M. Saint-Jacques peut inspirer beaucoup de jeunes, a-t-il dit au Salon bleu. Au Québec, on n’a pas assez de jeunes qui choisissent les sciences pures. On réussit parfois à aller en sciences humaines avec mathématiques, mais ingénieurs, médecins. (...) On a besoin de plus de jeunes qui choisissent les sciences. C’est là que ça se passe, l’innovation.»

Les réponses de David Saint-Jacques étaient de la musique aux oreilles du premier ministre. «Tout devient un peu notre ami quand on comprend comment ça marche, a-t-il justifié. L’exploration scientifique, la découverte, c’est une des plus belles choses pour un être humain. C’est un trésor. Ça rend tout moins apeurant, c’est comme ça qu’on a progressé. On est sorti des cavernes parce qu’on s’est creusé la tête.»

En mission dans la Station spatiale, le Québécois a passé 204 jours dans l’espace, du 2 décembre 2018 au 24 juin 2019, la plus longue mission à ce jour pour un astronaute canadien. Et il est le seul astronaute québécois à avoir effectué une sortie spatiale, a tenu à souligner M. Legault au cours de l’hommage en Chambre, après la période de questions.

Le premier ministre lui a remis une médaille «pour sa contribution exceptionnelle à la recherche scientifique, exploration spatiale et au rayonnement international du Québec». Pour sa part, l’astronaute a donné à M. Legault, à l’attention de ses fils, des badges officiels de son expédition spatiale, soit la 58/59.

La Capitale

Conversation avec notre chroniqueur Jean-François Cliche

Notre série Conversation avec nos chroniqueurs se poursuit le 2 décembre toujours au théâtre Le Diamant, cette fois avec notre chroniqueur scientifique Jean-François Cliche.

Pour ce rendez-vous gratuit offert en priorité à nos abonnés, vous pourrez mieux connaître ce passionné qui couvre la science depuis 2007.

Chaque semaine dans les pages du Soleil, Jean-François Cliche répond à des questions des lecteurs dans sa chronique Science au quotidien.

Rigoureux, désireux de faire triompher les faits en ces temps polarisés ou tout et n’importe quoi se dit sur la science et l’environnement, notre chroniqueur s’efforce de fournir une information fiable et, souvent, de rectifier les faits.

Sa rubrique Vérification faite dans laquelle il éclaire des affirmations de tous les horizons obtient aussi un vif succès dans nos pages.

Cette rencontre sera composée d’un entretien suivi d’une période de questions du public qui sera l’occasion de mieux comprendre la réalité du métier de chroniqueur.

La soirée est offerte en priorité aux abonnés, membres et ambassadeurs du Soleil. Un moment privilégié pour partager avec vous, précieux lecteurs. Vous pourrez de plus avoir la chance de visiter Le Diamant. Les précédents entretiens avec Richard Therrien en septembre, François Bourque en octobre et Mylène Moisan la semaine dernière ont permis des échanges exceptionnels avec nos fidèles lecteurs. 

Inscrivez-vous dès maintenant au jeanfrancoiscliche.lesoleil.com. Le nombre de places est limité à 100!

Science

La résistance aux antibiotiques pourrait mettre en péril notre mode de vie

LA SCIENCE DANS SES MOTS / Les défenses de l’humanité contre les infections s’affaiblissent de jour en jour, tandis que les microbes qui en sont responsables deviennent de plus en plus forts.

Une infection sur quatre est désormais résistante aux antibiotiques et à d’autres formes connues de traitement. L’an dernier, 5400 Canadiens sont morts de maladies qui, jusqu’à récemment, étaient curables. C’est ce qu’indique un rapport exhaustif évalué par des pairs et présenté cette semaine par le Conseil des académies canadiennes.

Cela constitue environ le double du nombre conjugué d’homicides et de décès par accidents de la route chaque année au Canada.

Ces maladies incluent tant la pneumonie que des infections sanguines, cutanées ou des voies urinaires. Et leur nombre augmente partout puisque le trafic international permet le transport des microbes pathogènes aux quatre coins du monde.

Le rapport, Quand les antibiotiques échouent, a été préparé pour le gouvernement fédéral par un comité d’experts présidé par Brett Finlay, de l’Université de la Colombie-Britannique, et dont j’étais membre. Il décrit en détail les impacts de la résistance aux antimicrobiens (RAM) sur notre économie, notre qualité de vie et notre santé.

L’an dernier, la RAM a réduit le PIB du Canada de 2 milliards de dollars ; nous nous attendons à ce que ce montant se situe entre 13 et 21 milliards de dollars d’ici 2050.

J’espère que ce rapport permettra de faire prendre conscience aux décideurs et au public de l’existence d’une crise de la résistance aux antimicrobiens.

Les miracles des antibiotiques

La bonne nouvelle dans tout cela, c’est que le Canada est dans une excellente position pour prémunir le monde de la catastrophe. Nous pouvons le faire si nous concentrons immédiatement nos formidables ressources à la résolution de ce problème.

Le Symposium de la fondation Gairdner de 2019, un rassemblement scientifique international autour de cette question, a lieu ces jours-ci à l’Université McMaster.

Science

10 ans plus tard: le climategate a-t-il eu un impact?

Le climategate, ce faux scandale survenu il y a 10 ans cette semaine, n’a certainement pas affaibli la science du climat. Mais il a peut-être suffisamment détourné l’attention à l’époque pour avoir un impact politique.

Le 19 novembre 2009, un peu plus d’un millier de courriels étalés sur 13 ans, provenant d’échanges entre des climatologues de deux importants centres de recherche, un britannique et un américain, étaient dévoilés par un pirate informatique. Les mouvements climatosceptiques ont immédiatement prétendu que ces courriels révélaient l’existence d’un «complot» pour «dissimuler la vérité», une affirmation qu’ils appuyaient sur trois extraits sortis de leur contexte —et dont la véritable signification s’avèrerait rapidement n’avoir rien à voir avec un complot. Dans les deux années qui suivirent, pas moins de neuf enquêtes sur deux continents furent lancées, par les universités des chercheurs concernés, par des organismes subventionnaires et, dans deux cas, par des élus, ceux d’un comité du parlement britannique et ceux d’un comité du Congrès américain. Dans les neuf cas, les enquêtes conclurent à un « faux scandale » et à l’absence de faits pour incriminer qui que ce soit de quelque malversation que ce soit.

Mais sur le coup, ces courriels eurent un impact sur l’opinion publique, sur la couverture des négociations du climat dans certains médias — en particulier les médias campés les plus à droite — et sur les décideurs politiques. On était alors à moins d’un mois de la conférence annuelle des Nations Unies sur le climat qui, tenue à Copenhague, était censé accoucher — ou non — d’une entente pour un traité devant succéder au Protocole de Kyoto. La conférence est, depuis, souvent pointée du doigt comme ayant été un échec, et l’influence qu’a eu ce faux scandale continue d’être débattue 10 ans plus tard: pour les uns, la conférence était de toutes façons vouée à l’échec, les vents (qui semblaient favorables à une entente sur le climat au milieu des années 2000) ayant tourné dans la mauvaise direction.

Pour les autres, le climategate a donné juste assez de carburant aux opposants pour se faire entendre sur la place publique pendant ces quelques semaines cruciales. Selon le Britannique Bob Ward, directeur des politiques à l’Institut Grantham de recherche sur le climat et l’environnement, interrogé cette semaine par The Guardian : «Les politiciens de droite, alliés aux compagnies du secteur des carburants fossiles, ont utilisé leur influence pour répandre de fausses informations sur ces courriels et pour se battre contre des politiques de réduction des fossiles… Je suis sûr qu’ils feraient encore la même chose aujourd’hui.» 

Ce fut par contre, pour plusieurs, une leçon de vulgarisation 101: les climatologues, leur ont reproché des professionnels de la communication dans les mois qui ont suivi, ont été trop nombreux à regarder de haut cette histoire, à nier qu’elle puisse avoir un impact, à rejeter l’idée qu’ils puissent manquer de transparence dans leurs communications auprès du public, et donc à ne pas voir la nécessité de répondre.

Et le fait est que, 10 ans plus tard, ni les neuf enquêtes ni le déboulonnage des citations sorties de leur contexte n’empêchent des climatosceptiques de continuer de proclamer que le Britannique Phil Jones ou l’Américain Michael Mann étaient des fraudeurs. En l’absence de preuve, ils ne peuvent en parler qu’entre eux, tandis que les preuves d’un climat en train de changer continuent de s’accumuler, mais ils contribuent peut-être, à leur façon, à détourner une partie de l’attention.

Science

L’eau à haute teneur en minéraux: dangereuse pour la santé?

DÉTECTEUR DE RUMEURS / Des millions de gens boivent de l’eau à haute teneur en minéraux, aussi appelée «eau dure». Est-ce dangereux pour leur santé? L’Organisation pour la science et la société et le Détecteur de rumeurs se sont penchés sur la question.

Qu’est-ce que l’eau dure?

L'eau dure est une eau dans laquelle est dissoute une forte concentration de minéraux, comme les carbonates, chlorures et sulfates de calcium et de magnésium. La «dureté» de l'eau dépend de sa provenance. Une eau souterraine entrée en contact avec des roches poreuses qui contiennent des dépôts de minéraux, comme du calcaire ou de la dolomite, sera plus « dure », alors qu'une eau provenant d'un glacier ou qui coule à travers un amas de roches dites magmatiques sera beaucoup plus «douce».

Cette dureté est mesurée en milligrammes de carbonate de calcium (CaCO3) par litre d'eau ou, plus simplement, en parties par million (ppm). Les chiffres demeurent les mêmes puisque 1 mg/L = 1 ppm. Règle générale, une eau qui contient moins de 60 ppm est considérée comme douce. Une eau se situant entre 60 et 120 ppm est modérément dure et une eau supérieure à 120 ppm est qualifiée de dure. À titre indicatif, l'eau de Montréal est typiquement aux alentours de 116 ppm, c'est-à-dire modérément dure, alors que l'eau de mer se tient autour de 6630 ppm en raison des multiples sels qui y sont dissous.

On peut parfois reconnaître une eau dure à son odeur ou à sa couleur. Elle semblera trouble si elle contient un excès de sels qui ne peuvent plus s'y dissoudre. De plus, si la concentration de calcium dépasse les 100 ppm, l'eau va probablement « goûter drôle ». Bien que le consommateur préfère souvent une eau claire et sans goût, ces caractéristiques de l'eau dure ne présentent pas de risque pour la santé humaine.

Des impacts sur la santé ?

Des études suggèrent depuis au moins 20 ans qu’une eau riche en minéraux protégerait contre les problèmes cardiovasculaires. Le magnésium et le calcium auraient un effet protecteur contre les cancers de l'estomac, du côlon, du rectum et du pancréas, et le magnésium contribuerait à réduire les risques des cancers de l’œsophage et de l’ovaire. L’eau dure préviendrait l’athérosclérose chez les enfants et les adolescents.

À l’inverse, certaines études ont suggéré qu’une eau dure favoriserait l’eczéma chez les enfants. Toutefois, une étude de l’Université de Nottingham en 2011 menée sur 336 enfants et adolescents de 6 mois à 16 ans souffrant d’eczéma, a remis cette relation en question. Les chercheurs ont installé des unités d'adoucissement de l'eau au domicile de la moitié des participants et ont surveillé l'eczéma des enfants sur une période de trois mois. Le groupe qui a bu de l'eau adoucie a rapporté une amélioration de l'eczéma de 20 %, alors que celui qui buvait de l'eau dure a noté une amélioration de... 22 %. Il est donc peu probable que l'eau dure ait contribué à l'eczéma de ces enfants.

De même, bien que certaines études aient rapporté une corrélation entre la dureté de l'eau et la formation de calculs rénaux, la majorité des études portant sur le sujet ne démontrent aucune association.

Des avantages ?

Un adulte qui boit deux litres d’eau dure par jour ingérera environ 52 mg de magnésium, soit 12 % des 420 mg qu’il devrait consommer quotidiennement selon Santé Canada.

Par ailleurs, les personnes atteintes de diabète de type 2 peuvent bénéficier d’une eau riche en magnésium puisqu’ils souffrent souvent d’un manque de ce minéral qui permet de réguler le taux d’insuline dans l’organisme. La concentration élevée en magnésium de l'eau dure peut aussi être avantageuse contre une constipation chronique, car les sels de magnésium ont un effet laxatif sur le corps.

Il est de toutes façons très difficile à un humain dont les reins sont en santé de souffrir d’un excès de calcium (hypercalcémie), puisque tout excès est rapidement évacué. Des cas d’excès de magnésium sont très rares, et résultent tout au plus en des épisodes courts de diarrhée.

Verdict

«L’eau dure» ne semble avoir aucun impact négatif sur notre corps. Il est même possible qu’elle contribue à l’apport quotidien en calcium et en magnésium dont nous avons besoin.

Science

Non, la pilule contraceptive ne cause pas l’autisme

SCIENCE AU QUOTIDIEN / «J’aimerais savoir si des études sérieuses ont déjà été faites concernant la pilule contraceptive et le grand nombre d’enfants autistes que nous observons depuis plusieurs années. La comparaison avec les décennies antérieures est inquiétante. Alors est-ce que le fait d’avoir déréglé le cycle des femmes depuis les 50 dernières années est en partie responsable de ce phénomène ?», demande Bernard Boucher, de La Tuque.

En 2000-01, l’Institut de santé publique du Québec comptait environ 0,7 autiste pour chaque tranche de 1000 enfants de 1 à 17 ans. En 2014-15, le même INSPQ en comptait près de 5 par 1000. Aux États-Unis, les niveaux sont plus élevés parce que la méthodologie diffère, mais la tendance est la même : l’Oncle Sam est passé de 7 autistes par 1000 enfants en 2000 à presque 17 par 1000 en 2014.

Il est absolument indéniable qu’il y a beaucoup plus de diagnostics d’autisme qu’avant, tout le monde s’entend là-dessus. Mais si l’on me permet un euphémisme de calibre olympique, disons que l’idée de mettre la faute de la pilule contraceptive, elle, ne rallie pas autant de gens…

En fait, il semble n’y avoir eu qu’un seul chercheur qui ait lancé cette hypothèse à deux reprises dans la revue Medical Hypotheses, en 2014 et en 2015, constatent les spécialistes de l’autisme Isabelle Soulières, de l’UQAM, et Baudouin Forgeot d’Arc, de l’UdeM. Il s’agit, précise ce dernier, d’une revue «qui accueille volontiers des idées très spéculatives», et l’auteure en question admet elle-même qu’il n’existe pas d’étude à ce sujet.

Hormis ces deux articles, «je ne crois pas avoir jamais vu d’étude là-dessus ni entendu qui que ce soit parler de ça dans des congrès», ajoute Mme Soulières.

Et ce silence n’est pas très étonnant, quand on y pense. D’abord, au fondement même de ce lien contraception-autisme, il y a quelque chose qui ne fonctionne tout simplement pas : les dates. Les premières observations que des fortes doses de progestérone empêchaient l’ovulation remontent aux années 30 chez des animaux de laboratoire. Le contexte légal de l’époque, qui interdisait la contraception et la recherche à son sujet, a repoussé le premier essai clinique de pilule contraceptive jusqu’en 1954 — et encore, il fut réalisé à Porto Rico. L’usage de «la pilule» commença a se répandre vers 1960, mais d’abord sous couvert de «régulariser» les menstruations car le contrôle des naissances ne fut vraiment légalisé qu’à la fin des années 60 au Canada et aux États-Unis. La démocratisation de la pilule prit véritablement et définitivement son envol à partir des années 70, d’après un texte paru dans Canadian Family Physician en 2012 — et dont la lecture est absolument fascinante, je dois dire.

Si vraiment la contraception orale était une cause un tant soit peu importante d’autisme, alors la hausse des cas devrait remonter aux années 70, ou au plus tard aux années 80. Or comme on l’a vu plus haut, l’explosion des diagnostics a plutôt débuté autour de l’an 2000. Et l’incohérence est d’autant plus forte, ajoute Mme Soulières, que les doses d’hormones étaient beaucoup plus élevées dans le passé qu’elles ne le sont de nos jours. La première pilule contraceptive mise sur le marché, la poétiquement nommée Enovid 10, contenait 9,85 milligrammes (mg) de progestérone synthétique et 150 microgrammes (µg) d’œstrogène, mais il est rapidement apparu que de telles doses produisaient trop d’effets secondaires. Par comparaison, les doses d’aujourd’hui tournent plus autour 0,1 à 3 mg de progestérone et entre 20 et 50 µg d’œstrogène. Alors si la pilule était une cause d’autisme, la tendance à la hausse aurait dû être compensée au moins en bonne partie, sinon carrément inversée, par la réduction du dosage.

Et c’est sans compter le fait que pratiquement toutes les études sur les causes de l’autisme indiquent qu’il s’agit d’un phénomène très principalement génétique. Une revue des études de jumeaux, qui visent à mesurer la part que jouent les gènes et l’environnement, a constaté en 2016 qu’entre 64% et 91% de l’autisme était «hérité» des parents. D’autres études récentes sur la même question ont elles aussi conclu que l’autisme est génétique à environ 80 %. Alors il est impossible que des facteurs environnementaux n’expliquant que 20 % du phénomène multiplient par 7 la fréquence de l’autisme, comme on l’a vu au Québec depuis 2000 — et c’est encore plus invraisemblable si l’on parle d’un seul de ces facteurs environnementaux, car la contraception n'en serait qu'un parmi d'autres.

Alors, si ce n’est pas l’environnement et que les gènes de grandes populations dans plusieurs pays ne peuvent pas changer tous en même temps en seulement quelques années, comment expliquer la hausse fulgurante de l’autisme depuis 20 ans ? La recherche n’a pas trouvé toutes les réponses encore, mais les preuves s’accumulent autour de l’idée qu’il s’agit de simples changements dans les diagnostics et le dépistage. Au fil du temps, la définition de ce qu’est l’autisme a été élargie et inclut désormais beaucoup plus de gens que dans les années 80 et 90. En outre, ajoute Mme Soulières, «il y a 20 ans, les milieux de l’éducation ne savaient pas c’était quoi, l’autisme, et n’alertaient pas la famille, alors que maintenant, les éducatrices, les profs, les psychoéducatrices et même le personnel des CLSC sont beaucoup plus à l’affût. Ces gens-là pensent plus facilement à l’autisme qu’avant quand le parent arrive et dit : mon enfant ne parle pas encore, mon enfant fait des crises, etc.»

D’ailleurs, pas plus tard qu’en août dernier, une équipe internationale dont Mme Soulières faisait partie a publié un article dans le Journal of the American Medical Association – Psychiatry qui a recensé les études sur l’autisme parues entre 1966 et 2019, afin d’examiner plus particulièrement les différences (capacité à reconnaître les émotions, taille du cerveau, etc.) entre ceux que les chercheurs considéraient autistes et ceux qui étaient rangés du côté des «normaux» ou «neurotypiques». Et les résultats ont montré que plus le temps avançait, plus la différence entre «autistes» et «non-autistes» s’amenuisait — ce qui suggère fortement que les diagnostics d’autisme incluent désormais beaucoup plus de gens qu’avant.

Science

La santé des stocks de poissons au Canada continue à se détériorer

SAINT-JEAN, T.-N.-L. - Une vérification annuelle de l’état des pêches canadiennes révèle une diminution du nombre de stocks de poissons en bonne santé depuis deux ans et prévient que si le gouvernement ne fait rien de plus, la situation ne cessera d’empirer.

Le groupe écologiste Oceana Canada publie son troisième rapport annuel sur l’état des lieux, basé sur les données du ministère fédéral des Pêches et des Océans. Le rapport presse Ottawa d’adopter enfin les réglementations fixant des échéanciers et des objectifs pour la reconstitution des stocks en situation «critique». Sur les 33 stocks considérés comme en «zone critique», seuls six bénéficient de plans de reconstitution du gouvernement.

Dans son «Audit des pêches 2019», Oceana Canada conclut que 17 pour cent des stocks de poisson au pays sont dans la «zone critique», contre 13,4 pour cent en 2017.

D’autre part, plus de crustacés se retrouvent dans la zone critique en 2019, «une tendance particulièrement inquiétante, car la valeur de l’industrie canadienne des produits de la mer dépend fortement des crustacés», précise l’organisme. Selon Pêches et Océans Canada, le crabe des neiges, le homard et la crevette représentent à eux seuls 73 pour cent de tous les débarquements, et valent approximativement 3,8 milliards $, souligne le rapport.

Par ailleurs, Oceana Canada signale que l’état sanitaire de 38 pour cent des stocks n’a pas pu être évalué faute de données suffisantes.

Robert Rangeley, directeur scientifique d’Oceana Canada, estime que la série de vérifications a révélé des tendances inquiétantes, notamment un manque d’action décevant du gouvernement face à cette «crise» persistante. «Je pensais que lors de notre troisième audit, nous constaterions davantage de progrès», a-t-il déclaré par téléphone depuis Ottawa. «Il y a beaucoup de gens bons et intelligents chargés de la science et de la gestion de nos océans, mais les progrès sont trop lents. (...) L’urgence ne fait que grandir.»

Morue et crevette nordique

Le rapport fait état de quelques progrès, notamment une augmentation du nombre de publications scientifiques évaluant la santé des stocks de poisson et une plus grande transparence du suivi de la pêche. On souligne également que la Loi sur les pêches, modifiée en juin, constitue une occasion de progresser. Mais les réglementations fédérales, en cours d’élaboration, devraient prévoir par exemple des échéanciers pour les plans de reconstitution des stocks, et des systèmes de surveillance normalisés afin que la nouvelle loi puisse porter ses fruits.

Vingt-quatre des stocks de poisson gravement épuisés du pays se trouvent dans l’est du Canada, y compris la morue et la crevette nordique.

Plusieurs invertébrés sont passés d’un statut en bonne santé à une désignation «prudente», y compris la crevette nordique et la crevette à flanc rayé. Trois autres stocks de crevette du Pacifique et de crabe des neiges du plateau néo-écossais ont été classés dans la «zone critique» cette année, ce qui porte à sept le nombre total de stocks de crustacés dans cette catégorie, contre un seul en 2017.

M. Rangeley estime qu’un engagement réel d’Ottawa est nécessaire pour reconstruire les pêcheries et éviter un nouvel effondrement comme celui de la morue du Nord. Ce stock n’a pas de plan de reconstitution depuis son effondrement en 1992, qui avait jeté au chômage des milliers de travailleurs et dévasté plusieurs communautés sur l’île de Terre-Neuve.

Oceana Canada critique d’ailleurs la décision d’Ottawa d’augmenter le quota de captures de morue du Nord de 30 pour cent ce printemps, ce qui irait à l’encontre de la nouvelle Loi sur les pêches et de la politique du gouvernement visant à maintenir la pêche des stocks épuisés à des niveaux aussi bas que possible, soutient-on.

Science

Le «Pharmachien» Olivier Bernard reçoit un prix décerné par «Nature»

MONTRÉAL - Olivier Bernard, alias «Le Pharmachien», a remporté un prestigieux prix international pour sa défense de la science.

Le blogueur et vulgarisateur québécois a plus précisément reçu le prix John-Maddox à Londres pour son travail visant à déboulonner les mythes entourant l’utilisation de la vitamine C pour traiter le cancer.

En 2018, M. Bernard a appris qu’une pétition demandait au gouvernement du Québec d’approuver l’injection de doses massives de la vitamine C pour aider les patients atteints de cancer.

La pétition demandait au gouvernement de mettre sur pied un «Registre québécois de la vitamine C par perfusion», pour autoriser les médecins à la prescrire ainsi que pour documenter l’innocuité et l’efficacité de la vitamine C à haute dose dans les cas de traitements médicaux complémentaires de cancer.

Le «Pharmachien» a alors vérifié la science derrière ces affirmations; il voyait dans cette pétition une «stratégie de lobbying politique qui contourne le processus scientifique» et qui comporte des risques pour la médecine et la santé publique.

Or, quand il a publié ses découvertes sur son blogue et les a diffusées dans son émission de télévision, lui et sa femme ont été la cible de vives réactions dans les médias sociaux - voire de menaces. Il était venu à la populaire émission «Tout le monde en parle» pour expliquer sa position et annoncé qu’il ne commenterait plus ce dossier controversé. Il avait au passage déploré le silence, ou le manque de solidarité, de la communauté scientifique.

La pétition n’a finalement pas été saisie par la commission de la santé et des services sociaux de l’Assemblée nationale. Le gouvernement du Québec a par ailleurs commencé à chercher des moyens d’aider les scientifiques qui font face à ce genre de réactions virulentes.

Le prix John-Maddox est décerné par la revue «Nature» et l’organisme «Standing Up for Science» (À la défense de la science).

Rejoint à Londres, où il devait recevoir le prix en soirée, Olivier Bernard a expliqué au téléphone que «la communication scientifique en ce moment est importante, parce que les gens n’ont jamais été aussi confus».

«On est bombardés d’informations sur la science, sur la santé, et c’est extrêmement difficile de s’y retrouver, a-t-il soutenu. Le gros défi qui vient avec ça, c’est d’être capables de différencier la bonne et la mauvaise information en ligne, dans les médias. etc.»

«Le travail des communicateurs, des vulgarisateurs scientifiques, c’est ça»: une sensibilisation à l’esprit critique, a-t-il ajouté.

Science

Mercure passe devant le Soleil

Les amateurs d’astronomie du Québec ont pu assister lundi à un phénomène rare, le passage de la planète Mercure devant le Soleil. La prochaine observation au Québec aura lieu en 2049.

Espace pour la vie avait convié les intéressés au Planétarium Rio Tinto Alcan, à Montréal, de 7h36 à 13h04, alors que Mercure est passée exactement entre le Soleil et la Terre. Le phénomène a pu être observé en webdiffusion avec les animateurs du Planétarium. 

La planète Mercure est la première dans l’ordre de distance à partir du Soleil. Elle circule sur une orbite plus petite que celle de la Terre. Alors que la Terre boucle une révolution autour du Soleil en un an, Mercure ne met que 88 jours à compléter la sienne. Au cours d’une période d’un siècle, on compte seulement 13 ou 14 passages de Mercure entre le Soleil et la Terre.  

Science

Comment remplir ses épaulières

SCIENCE AU QUOTIDIEN / «Depuis plusieurs années, on entend parler de jeunes hockeyeurs professionnels de 18, 19 ou 20 ans qui augmentent leurs poids en l’espace d’un été, en prenant uniquement des produits légaux. J’ai toujours été surpris de les entendre affirmer qu’ils doivent prendre du poids pour ainsi être prêt au camp d’entrainement de septembre, puis annoncer fièrement qu’ils ont augmenté leur masse musculaire d’une dizaine de livres pendant l’été. L’entrainement physique et les suppléments alimentaires légaux suffisent-ils vraiment pour obtenir de tels résultats?», demande Bernard Plourde, de Québec.

De manière générale, non, prendre 5 à 8 kilogrammes (10-15 livres) en l’espèce de deux ou trois mois n’est pas possible, répondent Jonathan Tremblay, spécialiste de l’encadrement des athlètes de haut niveau de l’Université de Montréal, et Anthony Karelis, qui mène des recherches sur l’exercice physique et le métabolisme à l’UQAM. Tous deux s’entendent pour dire qu’un athlète sérieux, qui s’entraîne plusieurs fois par semaine et se nourrit adéquatement (lire : bien et beaucoup), peut prendre autour de 0,5 à 1 kilo par mois (1 à 2 livres), sans plus.

«Si on parle de 10 ou 15 livres en deux mois, alors là je soupçonnerais qu’il peut y avoir eu des substances interdites qui ont été prises», dit M. Tremblay. Mais attention avant de sauter aux conclusions, avertit-il, car la période sur laquelle la prise de poids d’un athlète professionnel s’étale n’est pas toujours bien connue du public, ce qui peut faire partir le «moulin à rumeurs» inutilement. Le cas du joueur de centre des Canadiens de Montréal Jesperi Kotkaniemi a été évoqué récemment parce que le jeune homme, âgé de 19 ans, s’est présenté cet automne au camp d’entraînement avec une dizaine de livres de plus que l’année précédente. De là, plusieurs internautes et commentateurs ont conclu qu’il avait dû se muscler la charpente au cours de l’été, alors que c’est plutôt sur un an qu’il a pris ce poids — et M. Tremblay en sait quelque chose puisqu’il travaille avec l’équipe.

La règle générale en cette matière, dit pour sa part M. Karelis, c’est que «c’est très difficile d’ajouter de la masse musculaire. Si on parle de quelqu’un qui s’entraîne quatre ou cinq fois par semaine, alors oui, ça devient réaliste de penser gagner une ou deux livres par mois peut être réaliste».

Et encore, ajoute son collègue de l’UdeM, «il faut que la nutrition soit adéquate, sinon l’athlète ne prend pas de poids. (…) C’est important que l’alimentation soit riche en protéines, que les repas soient pris aux bons moment, généralement autour des entraînements avec une portion avant le sommeil (souvent double), etc.» Bref, pour atteindre le rythme de 1 kg par mois, non seulement il faut s’entraîner dur, mais l’alimentation devient pratiquement un travail à elle seule. «Il faut le planifier, il faut manger tout ça, ça prend du temps», dit M. Tremblay.

Pour M. et Mme Tout-le-Monde qui n’ont pas le temps de manger ni de s’entraîner autant que des athlètes professionnels, les gains en masse musculaire tournent souvent plus autour de 1 kg par six mois, dit M. Karelis — mais il peut y avoir de grands écarts individuels, dûs notamment aux gènes et au profil hormonal de chacun.

Alors pourquoi est-ce à ce point difficile de gagner de la «masse maigre», comme disent les nutritionnistes (parce qu’on s’entend que pour la «masse grasse», c’est pas mal moins compliqué) ? On n’a pas encore de réponse complète et définitive, dit M. Karelis. Mais une hypothèse probable est que certains mécanismes d’«économie d’énergie» hérités de lointains ancêtres pourraient être à l’œuvre. «Si on regarde la chose à l’inverse, il ne semble pas y avoir de saturation pour les gras, explique-t-il. Le corps en veut, il «aime» consommer de la nourriture et les tissus adipeux peuvent stocker des graisses presque sans limite. Le muscle, lui, fait le contraire : il n’emmagasine pas d’énergie, il en dépense. Même quand on est au repos, les muscles dépensent de l’énergie, alors plus ta masse musculaire est grosse, et plus ton métabolisme de base (ndlr : la quantité d’énergie que le corps dépense lorsqu’il est au repos complet, juste pour respirer, faire battre le cœurs, faire fonctionner les organes, envoyer des signaux nerveux, etc.) va augmenter. Alors s’il est à ce point difficile de gagner de la masse musculaire, c’est peut-être une question de survie : le corps veut consommer et stocker, pas dépenser.»

Enfin, M. Tremblay indique que ce n’est habituellement pas uniquement du muscle que les athlètes prennent dans un premier temps. «Habituellement, ça va leur prendre une diète riche en calories et ça, ça fait gagner d’un peu de tout : du muscle, bien sûr, mais aussi de l’eau et des graisses. (…) Souvent, on va d’abord chercher à juste leur faire gagner du poids en premier, et ensuite on va travailler à convertir ça en muscles», dit-il.

Science

Pourquoi les étudiants internationaux viennent-ils étudier au Québec

LA SCIENCE DANS SES MOTS / La nouvelle réglementation relative à l’accès des étudiants internationaux au Programme de l’expérience québécoise (PEQ) est aujourd’hui sur toutes les lèvres. Des étudiants concernés et des représentants du milieu universitaire s’affrontent avec des responsables politiques (...). Nous voulons apporter quelques éclaircissements sur les motifs qui amènent les étudiants internationaux à venir étudier au Québec et de leurs projets d’avenir, une fois les études terminées, en faisant appel à une recherche effectuée en 2017 auprès d’une trentaine d’étudiants internationaux de maîtrise et doctorat de l’Institut national de la recherche scientifique (INRS).

Les motifs des étudiants de plusieurs pays pour partir et étudier au Québec découlent de stratégies personnelles mises en place afin de réaliser des projets professionnels souvent grâce à des situations favorables liées à l’environnement familial. Ces motifs sont soutenus par l’existence de «structures d’opportunité» qui peuvent être positives, comme les bourses d’études offertes dans le pays d’accueil, ou négatives quand il s’agit d’absence de perspective professionnelle dans le pays d’origine. Trois séries de motifs se trouvent à la source du départ vers les universités québécoises, soit : a) les motifs stratégiques, b) les motifs «expérientiels» et c) les motifs liés à un projet d’émigration au Canada.

Les motifs stratégiques

La grande majorité, soit deux tiers de nos répondants, invoque des motifs stratégiques, d’ordre instrumental pour justifier le départ pour faire des études au Québec. Ces motifs ont trait au projet de formation et à la carrière, et sont souvent en rapport avec un plan de perfectionnement et de réussite professionnelle. L’absence d’opportunités dans le pays d’origine des étudiants ou la logistique inadéquate pour faire de la recherche de même que le désir d’«apprendre différemment», se retrouvent également parmi ces motifs stratégiques.

Pour d’autres, apprendre et perfectionner l’anglais constitue une motivation stratégique importante, présente principalement parmi les étudiants d’origine française, mais également parmi certains Latino-Américains. Les expériences linguistiques font partie des motivations pour étudier à l’étranger mais elles sont toujours en connexion avec d’autres motifs liés à une expérience générale de vie à l’étranger. Sur ce plan, la langue d’enseignement joue un rôle important dans le choix des étudiants. Pour les francophones qui s’orientent vers des programmes où ils peuvent apprendre l’anglais, le Québec est une destination de choix; pour les autres, c’est la possibilité d’apprendre autant l’anglais que le français.

Découvrir une autre façon de faire de la science, approfondir son champ de spécialisation, ou vivre un autre type de relation pédagogique avec les professeurs sont d’autres motifs invoqués par les étudiants internationaux. Pour ces étudiants, le Québec, apparaît comme un lieu «entre-les-deux» où un type de « science à l’américaine » et les méthodes européennes d’apprentissage et de recherche se combinent de manière à enrichir leurs cursus pédagogiques. Le type de relation avec le directeur, moins hiérarchisé et plus direct est fortement apprécié. Le manque d’opportunités et les limites du système d’éducation dans le pays d’origine se retrouvent également parmi les motifs invoqués.

Les motifs «expérientiels»

Les motifs stratégiques présentés sont imbriqués à des motifs d’ordre «expérientiel» liés à l’idée de «vivre des expériences» significatives comme découvrir d’autres pays, appréhender la diversité culturelle à l’étranger ou se découvrir eux-mêmes en vue d’être plus autonomes dans leur vie. Derrière ces motifs, l’enjeu des études ou de la carrière, sans être mis de l’avant, est toutefois présent. Le séjour pour les études à l’étranger apparaît aussi comme un moyen d’élargir l’horizon des expériences qui, sur le plan de leur employabilité future, donnera un signal positif d’initiative et de mobilité. Ces motifs peuvent aussi se combiner  à une forme de distinction et de réussite sociale.

Enfin, certains étudiants ont mis en place leur projet d’études à l’étranger pour entamer un processus d’immigration au Canada. Ce processus a été élaboré en tenant compte d’un projet de vie plus large qui inclut les exigences de la sphère professionnelle et des contraintes sociales diverses. Les études apparaissent ainsi comme le premier pas vers l’obtention rapide de la résidence permanente canadienne principalement à travers le Programme de l’expérience québécoise. Cette série de motifs est favorisée d’une part par le système canadien de sélection des immigrants qui priorise les personnes les plus qualifiées et, d’autre part, par la demande d’étudiants des universités québécoises, qui recrutent de plus en plus à l’international.

Science

Le déclin des insectes dans la plus grande discrétion

Les rumeurs d’un déclin de la population d’insectes courent depuis une vingtaine d’années. Dans la recherche la plus fouillée à avoir été menée sur le terrain, des chercheurs allemands viennent d’évaluer que, sur la base d’un suivi de 150 sites différents dans leur pays, la perte de biomasse moyenne serait d’environ 50 % sur 10 ans. Le nombre d’espèces aurait décliné du tiers.

Ce n’est pas un hasard si la recherche vient d’Allemagne: ce sont des études à plus petite échelle qui avaient tiré la sonnette d’alarme dans ce pays depuis les années 2000. Et qui avaient poussé à la publication d’autres compilations régionales dans d’autres pays. Le printemps dernier, une méta-analyse, c’est-à-dire une synthèse de la littérature scientifique sur le sujet, avait conclu que le recul des populations d’insectes était répandu chez un très grand nombre d’espèces éloignées les unes des autres.

La nouvelle recherche, parue le 30 octobre dans Nature, précise que sur les 2700 espèces d’arthropodes (ce qui inclut notamment les araignées ou les mille-pattes) étudiées, le recul est généralisé, peu importe le degré d’utilisation du territoire (urbanisation, routes ou agriculture). Mais il semble plus élevé là où l’étendue de terres agricoles est la plus élevée. Dans les forêts, la perte de biomasse n’est «que» de 40 %. Les auteurs de l’étude soulignent à ce sujet qu’en attendant d’avoir une certitude sur les pourcentages, la gestion des terres agricoles devrait faire l’objet d’un virage majeur, ne serait-ce que pour que les agriculteurs et les autorités locales se coordonnent avec les initiatives de conservation de la nature qui sont entreprises dans leur propre voisinage.

Il faut rappeler que si la disparition d’insectes touche moins de cordes sensibles chez le public que la disparition d’oiseaux ou d’animaux «charismatiques», elle n’en est pas moins une source de préoccupation majeure: la disparition d’insectes affecte les sources d’alimentation de quantité d’animaux, ils jouent un rôle fondamental dans la reproduction des végétaux en transportant leur pollen, et dans la régulation des écosystèmes en général. Rien qu’en terme de biomasse, c’est-à-dire le «poids» total de la vie sur Terre, les insectes dominent les autres espèces. S’il devait s’avérer que le déclin est vraiment aussi élevé que ce que cette étude révèle en Allemagne, ce serait l’équivalent d’une extinction de masse, en cours dans la plus grande discrétion.