Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.
Le Québec parmi ceux qui testent le plus au monde ?

Vérification faite

Le Québec parmi ceux qui testent le plus au monde ?

L’affirmation: «Est-il possible que François Legault se trompe en disant que le Québec est un des États qui testent le plus au monde ? D’après le site Worldometer.info, il semble que le Québec n’est même pas parmi les 10 premiers pays industrialisés. Alors est-ce qu’on teste vraiment tant que cela ?», demande Grégoire Bissonnette.

LES FAITS

La méthode «classique» de mesurer l’effort de dépistage des pays, celle que l’on voit le plus souvent dans les médias, consiste à ramener le nombre total de tests effectués depuis le début de la pandémie sur la population — parce que autrement, bien sûr, les pays les plus populeux seraient toujours ceux qui testent le plus. C’est ce que fait la page web à laquelle M. Bissonnette fait référence, mais le Québec n’y fait pas si mauvaise figure qu’il n’y paraît.

Au 27 mai, la Belle Province avait réalisé près de 553 000 tests au total d’après les données de la Santé publique, soit 65 tests par 1000 habitants. Cela place le Québec au 23e rang mondial de la liste de WorldoMeter, entre l’Italie (60 tests par 1000 hab.) et l’Irlande (66 par 1000), sur un total de 215 juridictions. Et il faut aussi préciser que plusieurs des pays qui devancent le Québec sur cette liste ne sont pas vraiment comparables parce que leurs populations sont minuscules. Gibraltar, par exemple, n’a fait que 7000 tests à peine depuis le début de la pandémie, mais l’endroit ne compte que 33 000 citoyens alors il se classe au 2e rang mondial pour le nombre de tests per capita (209 par 1000 !). De ce point de vue, donc, le Québec n’est pas un champion, mais rien ne permet de dire qu’il est un cancre non plus.

Cependant, il faut prendre ces comparaisons internationales avec un certain grain de sel parce que les pays ne mesurent pas tous leurs efforts de dépistage de la même manière : certains comptent le nombre de tests effectués, d’autres le nombre de personnes testées (certains patients pouvant avoir été testés plus d’une fois). Si c’est ce dernier indicateur que l’on retient, alors le Québec a testé 409 000 personnes en date du 27 mai, ou 48 par 1000 habitants. Cela ferait reculer la province jusqu’au 35e rang, juste derrière les États-Unis (49 par 1000). Encore une fois, pas de médaille pour la province, mais pas de quoi déprimer non plus.

Cela dit, cette manière de calculer a un inconvénient de taille : elle est un peu «statique». Les pays changent leurs efforts de dépistage dans le temps, en fonction de leurs besoins du moment, mais on ne peut pas le «voir» si l’on n’examine que le nombre total de tests. Pour éclairer cet angle mort, je suis allé chercher les données sur le dépistage quotidien par pays que l’on trouve sur le site Our World in Data, de l’Université d’Oxford. Les chiffres ne sont malheureusement pas disponibles pour tous les pays (la France, par exemple, n’y figure pas), mais dans ceux qu’on y trouve et qui sont raisonnablement comparables, le Québec se classe avantageusement.

Depuis le 15 mai, seulement six pays ont réalisé quotidiennement au moins 1 test par 1000 habitant en moyenne, soit la Russie (1,7 par 1000 hab. et par jour), le Danemark (1,6), l’Australie (1,2), les États-Unis (1,1), le Royaume-Uni (1,1) et l’Italie (1,0) — avec une mention honorable à la Nouvelle-Zélande (0,9). Le Québec, lui, a effectué depuis le 15 mai un peu moins de 12 300 tests par jour ce qui, au pro rata de la population, donne 1,4 test par 1000 habitants et par jour.

J’ajouterai pour finir que cela concorde avec ce que m’avait dit en entrevue Luigi Bouchard, professeur de biochimie à l’Université de Sherbrooke et chef du service de génie moléculaire et génétique au CIUSSS du Saguenay-Lac-Saint-Jean. En avril dernier, celui-ci m’avait indiqué que du point de vue de la capacité de testage, le Québec se comparait «aux meilleurs pays du monde».

VERDICT

Plutôt vrai. Quand on regarde le nombre total de tests effectués depuis le début de la pandémie, le Québec semble plutôt moyen. Mais quand on mesure les efforts récents de dépistage, alors la Belle Province se classe bel et bien parmi les meilleurs.

Vérification faite: le lait augmente le risque de cancer du sein, vraiment?

Vérification faite

Vérification faite: le lait augmente le risque de cancer du sein, vraiment?

L'affirmation: «Il y a une étude parue récemment qui fait le régal de mes amis végétaliens, au sujet du lait qui augmenterait le risque de cancer du sein. J’ai lu le résumé qu’en a fait la chaîne télé CTV News [bit.ly/32Vnlcf], mais ça ne me semble pas très fouillé. Est-ce qu’on peut croire cette étude?», demande Alexandre Généreux, de Gatineau. 

LES FAITS

À la décharge de CTV, plusieurs autres médias en ont parlé, et d’une manière plus sensationnaliste encore. Le Huffington Post Canada a parlé d’une «augmentation dramatique» juste en buvant un verre de lait par jour [bit.ly/2TxbWuY] et le Journal de Montréal ouvrait son texte en disant que «boire ne serait-ce qu’un quart de tasse de lait par jour» accroît le risque «considérablement» [bit.ly/32PNeKt].

Maintenant, il y a effectivement eu, au départ, une étude publiée à la fin de février dans l’International Journal of Epidemiology [IJE, bit.ly/2uWh0kk], et elle concluait bel et bien à une augmentation de 50 % du risque de cancer du sein chez les femmes qui boivent le plus de lait (par rapport à celles qui en boivent le moins). Rien à redire là-dessus, c’est tout à fait vrai. Le hic, cependant, c’est qu’en science, une étude, c’est «juste une étude», comme on dit. Certains travaux peuvent être particulièrement solides et déterminants, mais la règle générale est qu’on ne peut pas conclure grand-chose sur la base d’une seule étude — il faut regarder l’ensemble de la littérature scientifique et voir si les résultats concordent.

Or dans le cas du lien entre les produits laitiers et le cancer du sein, ça ne concorde pas du tout, justement. «Pour l’instant, quand on regarde l’ensemble des études, il semble y avoir peut-être un lien, mais ce serait un effet plutôt protecteur des produits laitiers contre le cancer du sein. Mais c’est sûr que le nombre d’études est encore limité : c’est un lien qui est suggéré, mais pas encore convaincant», dit Caroline Diorio, chercheuse au Centre de recherche du CHU de Québec-Université Laval qui a fait paraître l’an dernier une étude montrant que les produits laitiers faibles en gras réduisent le risque de cancer du sein [bit.ly/2PJFULi].

Les revues de littérature et les méta-analyses (qui regroupent les données de plusieurs études afin de dégager une tendance générale) publiées récemment vont dans le même sens. En 2018, l’American Institute for Cancer Research a résumé les résultats scientifiques sur cette question [bit.ly/2Tm6ewV, p. 29 à 32], montrant que dans l’ensemble les produits laitiers semblent avoir un effet protecteur, mais qu’il est assez faible et que les preuves sont «limitées». Le même genre d’exercice publié dans la revue Medicine en 2019 [bit.ly/3alQJuG] a trouvé que sur 15 études recensées, 12 penchaient du côté d’un effet protecteur — mais au total, le lien n’était pas significatif d’un point de vue statistique.

Bref, l’article paru en février est un peu «tout seul dans son coin», pour ainsi dire : il indique une hausse du risque alors que la plupart des résultats scientifiques suggèrent au contraire que les produits laitiers protègent (un peu, mais quand même) contre le cancer du sein, ou à tout le moins ne l’empirent pas.

Il faut dire, comme le souligne Mme Diorio, que cet article a d’importantes limites. L’alimentation des participantes n’a été mesurée qu’au cours des 6 premiers mois de l’étude, mais le suivi a duré près de 8 ans en moyenne. «Mais on change entre-temps, signale-t-elle. Les habitudes alimentaires peuvent se modifier, les facteurs de risque peuvent changer, des femmes peuvent devenir ménopausées, etc. [...En outre, dans cet échantillon, celles qui consommaient plus de produits laitiers étaient aussi, en moyenne, plus obèses, prenaient plus d’alcool, etc. Alors je veux bien croire que les auteurs ont fait des ajustements statistiques pour en tenir compte, mais si ces variables-là ne sont pas bien mesurées à la base, l’ajustement ne peut pas être parfait. En bout de ligne, il est bien possible que l’association qu’ils ont trouvée n’est pas due aux produits laitiers.»

LE VERDICT

Apparemment faux, dans l’état actuel des connaissances. Il y a bien une étude récente qui suggère que le lait accroît le risque de cancer du sein, mais ce n’est qu’une seule étude et ses résultats sont contredits par le plus clair de la littérature scientifique.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: 90 % du plastique des océans issu d’une dizaine de rivières?

Vérification faite

Vérification faite: 90 % du plastique des océans issu d’une dizaine de rivières?

L’AFFIRMATION: «Est-il vrai que le plastique que l’on retrouve dans les océans provient majoritairement d’une dizaine de rivières d’Afrique et d’Asie?», demande Germain Reed, de Prévost.

LES FAITS

Voilà déjà deux ou trois ans que le bruit court sur les réseaux sociaux. Certaines versions parlent de «90 % du plastique», d’autres mentionnent simplement «une majorité du plastique», mais l’idée des 10 rivières asiatiques et africaines revient systématiquement.

L’origine de cette rumeur est manifestement une étude parue en 2017 dans la revue savante Environmental Science and Technology au sujet de l’«exportation de débris de plastique par les rivières vers l’océan». Le résumé de l’article mentionne bel et bien que «le top 10 des rivières transporte entre 88 et 95 % de la charge globale vers la mer» et une annexe disponible en ligne [http://bit.ly/37XG1sH, p. 5] énumère ces 10 rivières : huit d’entre elles sont en Asie (le Yangtze, l’Amour, l’Indus, le Gange, etc.) et les deux autres sont effectivement en Afrique (le Nil et le fleuve Niger).

La rumeur n’a donc pas été créée de toutes pièces, tant s’en faut. Mais cela ne veut pas dire qu’elle est fondée pour autant.

Il faut en effet bien comprendre ce que cet article dit — et peut-être surtout ce qu’il ne dit pas. L’étude s’est basée sur des concentrations de plastique mesurées dans 57 rivières de par le monde puis, grâce à un modèle mathématique et une banque de données plus vaste, a généralisé ces résultats à près de 1350 rivières. Sa conclusion ne dit pas que les 10 pires rivières sont la source de 90 % de «tout le plastique dans les océans», mais simplement 90 % du plastique «charrié par des rivières». C’est une grosse nuance parce que le plastique des océans a bien d’autres sources, et de plus importantes, que les rivières : le vent pousse des sacs et des débris vers l’océan, les activités humaines en mer génèrent d’importantes quantités de déchets, etc.

D’ailleurs, bien des résultats scientifiques contredisent clairement l’idée que ces 10 rivières seraient responsables de 90 % de tout le plastique dans la mer. Ainsi, une étude parue en 2015 dans Science a estimé à près de 9 millions de tonnes les quantités de plastique qui entrent dans les océans à partir des zones côtières, d’une manière ou d’une autre. L’article de 2017 a utilisé deux modèles différents, dont un arrive à un total de 2,17 millions de tonnes par année pour ces fameuses 10 rivières (ou 25 % de 9 millions) et l’autre à 142 000 tonnes (seulement 1,6 %). Cela montre les grandes incertitudes qui persistent autour des quantités de plastique qui arrivent dans les océans, mais dans tous les cas on est très, très loin de 90 % — et même loin de «la majorité».

Et encore, ces 9 millions de tonnes annuelles ne concernent que les sources côtières du plastique. Plusieurs autres travaux indiquent qu’en haute mer, le plus clair des déchets de plastique proviennent d’activités marines. Des chercheurs qui ont traîné des filets sur des centaines de kilomètres dans le «vortex de déchets du Pacifique» au milieu des années 2010 ont trouvé que près de la moitié (46 %) des plastiques qui flottent là-bas sont des filets de pêche et que plus de 80 % des déchets sont liés à des activités en mer. Ces résultats concordent avec ceux de l’Académie américaine des sciences qui, une dizaine d’années plus tôt, avait trouvé qu’en haute mer, 88 % des déchets flottants proviennent d’activités marines comme la pêche, le transport maritime, les croisières, etc.

Il peut difficilement en être autrement, remarquez, parce qu’une grande partie des plastiques coule ou s’échoue avant d’arriver en plein océan. Certains sont tout simplement plus denses que l’eau et finissent au fond des rivières. D’autres flottent, mais s’agglutinent avec des matières en suspension et coulent eux aussi. D’autres encore, comme les contenants vides, donnent plus de prise au vent et ont tendance à s’échouer sur les plages (des rivières comme des mers). Et ainsi de suite.

Cela ne veut pas dire que le plastique dans les océans n’est pas un problème ni que les rivières n’en sont pas une source significative (c’en est une), mais simplement que tout ce plastique ne peut pas provenir à 90 % des 10 mêmes rivières.

VERDICT

Il est absolument indéniable que les 10 rivières identifiées dans l’étude d’Environmental Science and Technology sont extrêmement polluées et qu’elles déversent d’importantes quantités de plastique dans la mer. Mais cette étude conclut qu’elles sont responsables de 90 % des plastiques charriés par des rivières, pas de 90 % du plastique total qui se trouve dans les océans — ce qui serait impossible et clairement contredit par plusieurs autres résultats scientifiques.

Vérification faite: les lampadaires DEL causent-ils le cancer? 

Vérification faite

Vérification faite: les lampadaires DEL causent-ils le cancer? 

L'affirmation: «D’après un article paru récemment dans Le Devoir, l’utilisation de lampadaires DEL causerait d’importants problèmes de santé. Je comprends que la lumière bleue puisse nuire au sommeil. Par contre, le texte affirme aussi : “Les personnes exposées à la lumière bleue des lampadaires devant leur demeure avaient 1,5 fois plus de risques de souffrir d’un cancer du sein et 2 fois plus de risques d’être atteintes d’un cancer de la prostate, ont constaté les chercheurs”. Cela m’apparaît exagéré et je vois mal comment un lampadaire pourrait augmenter le risque de cancer. Alors est-ce vrai?» demande Jacques Benoit.

Les faits

Le texte du Devoir portait sur l’opposition d’un groupe militant à l’installation de lampadaires DEL puissants à Montréal. Le quotidien montréalais avançait effectivement les chiffres de 1,5 fois et 2 fois plus de risques pour les cancers du sein et de la prostate, mais il faut dire qu’il s’appuyait sur une étude espagnole parue en 2018 dans la revue savante Environmental Health Perspectives [EPH], qui concluait bel et bien à des risques 1,47 et 2,05 fois plus élevés.

Cependant, il s’agissait de la seule étude citée par l’article. La question est donc : est-ce qu’elle reflète bien l’état des connaissances et l’avis d’une majorité de scientifiques? Voyons voir...

On ne peut certainement pas dire que le lien lampadaires-cancer ne repose sur rien, puisque d’autres travaux ont obtenu des résultats très comparables. Par exemple, une étude américaine parue en 2017, elle aussi dans EHP [bit.ly/2SIgDCM], a suivi près de 110 000 infirmières de 1989 à 2013, et a elle également constaté que l’éclairage extérieur est associé au cancer du sein (mais uniquement chez les femmes préménopausées et chez les fumeuses actuelles et anciennes). Une autre, publiée en 2016 [bit.ly/2SWf1UZ], a comparé des données d’éclairage nocturne et de cancer à l’échelle mondiale, ce qui l’a amenée à conclure elle aussi à un lien avec certains types de cancer (poumon, sein, prostate et colorectal).

En outre, il existe d’autres travaux qui montrent que le mécanisme que l’on soupçonne de faire le «pont» entre l’éclairage de nuit et le cancer est tout à fait plausible. C’est en perturbant les «cycles circadiens» (soit l’alternance éveil-sommeil) et en dérangeant ainsi certaines hormones que l’éclairage de nuit, craint-on, pourrait déboucher sur des tumeurs. Or en 2007, le Centre international de recherche sur le cancer a classé le «travail de nuit impliquant une perturbation circadienne» comme un «cancérigène probable». Et plusieurs études suggèrent qu’un fort éclairage nocturne extérieur nuit au sommeil et que la lumière bleue en particulier (qui est plus présente dans les lampadaires DEL) dérange la production de mélatonine, qui est l’hormone du sommeil.

Le lien évoqué entre le cancer et l’éclairage de rue n’est donc pas farfelu. Le hic, c’est qu’entre «pas farfelu» et «rallie une majorité de scientifiques», il y a une marge dont l’article du Devoir ne parle pas. Il n’y a pas de consensus autour de cette question : certains chercheurs se laissent convaincre par les données existantes, d’autres non, pour diverses raisons.

«On peut dire qu’il y a “quelque chose là”, mais encore faut-il connaître la force de ce “quelque chose”, commente Mathieu Gauthier, conseiller scientifique à l’Institut national de santé publique et chargé de faire une veille sur ce qui se publie sur cette question. Que la perturbation des cycles circadiens cause le cancer, c’est très plausible. Mais dire que l’éclairage extérieur est comparable au travail de nuit, ça étire pas mal la plausibilité et la logique.»

Ainsi, la plupart des études qui suggèrent ce lien sont des travaux dont le design ne permet pas de «démêler» l’effet d’une foule de facteurs différents. Par exemple, plusieurs de ces études, dont celle citée par Le Devoir, ont mesuré l’éclairage nocturne grâce à des images satellites. Cela donne une très bonne idée de la luminosité dans un quartier, mais d’un quartier à l’autre, il y a bien d’autres choses que la lumière qui peuvent changer. Les centres-villes sont généralement plus éclairés la nuit que les banlieues, mais ce sont aussi des endroits en moyenne plus bruyants la nuit, ce qui peut tout autant déranger le sommeil. Il peut aussi y avoir des différences socio-économiques entre les quartiers qui vont brouiller les résultats. Les études existantes ne peuvent pas distinguer (ou alors imparfaitement) l’effet de ces facteurs pour isoler celui de l’éclairage de rue.

En outre, ajoute M. Gauthier, c’est la lumière à l’intérieur qui a une incidence sur le sommeil. Or des études ont montré que le niveau de lumière dans les maisons pendant la nuit n’est pratiquement pas influencé par les lampadaires. C’est, entre autres choses, ce qui avait amené la Santé publique de Mont­réal à conclure, en 2016, à l’absence de danger des lampadaires DEL même s’ils émettent plus de lumière bleue. Son rapport notait que «l’exposition à la lumière bleue émise par les luminaires de rue DEL à 4000°K est bien inférieure (au moins trois fois moindre) à l’exposition des résidents à la lumière bleue émise par les lampes intérieures — incandescentes, fluocompactes, halogènes, DEL — qu’on retrouve actuellement dans les habitations».

Il y a d’autres organisations de santé publique dans le monde, comme à Toronto, qui ont conclu qu’il valait mieux, malgré tout, s’abstenir d’installer des DEL puissants à 4000°K. Mais tout cela indique que nous sommes devant un débat scientifique, pas devant une question qui est réglée.

Verdict

Pas clair. Il existe bel et bien des études qui suggèrent un lien entre certains cancers et éclairage nocturne, plus particulièrement les lampadaires au DEL, qui émettent plus de lumière bleue qui dérange le sommeil. Mais ces données ont des lacunes importantes qui font douter un certain nombre de scientifiques. En outre, il y a aussi des études dont les résultats contredisent (au moins en partie) le lien cancer-lampadaires.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: des bouts de VIH dans le coronavirus?

Vérification faite

Vérification faite: des bouts de VIH dans le coronavirus?

L’AFFIRMATION: «J’ai vu sur Facebook un article scientifique qui concluait que le coronavirus chinois avait été produit en laboratoire. Ma première réaction en a été une d’incrédulité totale : une autre théorie du complot! Or, j’ai regardé l’étude et elle semble authentique. Qui plus est, elle dit vraiment que le virus en question possède des séquences provenant du VIH. La conclusion qui s’impose, même si elle n’est pas mentionnée dans l’article, est que ces séquences ont été ajoutées au virus pour qu’il puisse infecter l’humain. C’est difficile à croire, mais je suis troublée par l’apparence d’authenticité de tout cela. Que pensez-vous de cela?» demande Colette Tremblay, de Québec.

LES FAITS

Il y a effectivement une telle étude qui circule sur les réseaux sociaux depuis la semaine dernière. Elle est l’œuvre de chercheurs indiens par ailleurs sérieux qui travaillent pour deux universités prestigieuses de New Delhi. Alors il n’est pas étonnant que Mme Tremblay ait noté une «apparence d’authenticité» : c’est l’authentique travail de chercheurs véritables!

Il est aussi vrai que le texte parle de «séquences d’acides aminés» dans certaines protéines du coronavirus chinois (2019-nCoV) qui ressemblent en tous points à des bouts de protéines du virus de l’immunodéficience humaine (VIH, qui cause le sida). Le texte les désigne comme des «insertions», mais sans indiquer comment elles auraient été «insérées» — il arrive fréquemment que des virus intègrent des bouts du génome d’autres virus sans que l’humain intervienne de quelque manière que ce soit. Mais les auteurs soulignent tout de même plus d’une fois dans leur texte que ces «insertions» peuvent difficilement être le produit du hasard. Ils notent également que ces quatre séquences sont totalement absentes chez les autres coronavirus humains (bien lire «humains», c’est important pour la suite) comme le SRAS. 

À partir de là, il suffit d’un tout petit effort d’imagination pour conclure que le coronavirus chinois a été fabriqué en laboratoire et il y a des gens sur le Web qui, justement, sont capables d’une imagination absolument époustouflante quand il est question de complots. La thèse circule d’ailleurs allègrement sur les réseaux sociaux depuis quelques jours — et il faut avouer que cette étude lui donne vraiment une apparence de crédibilité scientifique. Mais il y a un «mais», ici… et à vrai dire, il y a plusieurs «mais», et de très gros.

D’abord, l’article est paru sur le site de prépublication BioRxiv, qui est un endroit où des chercheurs en sciences de la vie peuvent publier des résultats préliminaires afin d’en discuter entre experts, et ce sans passer par la révision des pairs pratiquée dans les revues savantes. Il n’y a donc pas de «chien de garde» qui supervise ce qui paraît sur BioRxiv, si bien qu’on peut y trouver un peu de tout — des résultats vraiment intéressants comme du gros «n’importe quoi».

Or, il semble justement que les auteurs de cette étude ont gravement erré dans leur interprétation. Dans la section commentaires qui accompagne tout ce qui se publie sur BioRxiv, on peut en effet lire plusieurs critiques majeures qui ont été formulées par d’autres chercheurs, notamment Jason Weir et Jing Hou, de l’Université de Toronto. Essentiellement, ces gens ont comparé les quatre «bouts de protéine» identifiés par l’équipe indienne à des banques de données de protéines virales et ont trouvé qu’elles sont présentes chez de nombreux autres virus — juste pas des coronavirus humains.

«Pour chacune des quatre supposées insertions, j’ai trouvé beaucoup d’espèces de virus, de bactéries et d’autres organismes qui ont exactement les mêmes, m’a écrit M. Weir lors d’un échange de courriels. Ce n’est pas étonnant puisque les séquences d’acides aminés dont il est question ici sont très courtes. Elles sont sans doute apparues plusieurs fois dans l’histoire de la vie. Deux d’entre elles concordent parfaitement avec certaines souches de VIH, mais je soupçonne que ce n’est rien d’autre que du hasard. Le génome des coronavirus mute très rapidement, alors ces courtes séquences sont sans doute apparues de manière aléatoire […] et il n’y a aucune raison de suspecter que ce coronavirus-là a incorporé des bouts de VIH. Les deux autres séquences ne concordaient pas parfaitement avec le VIH, mais je les ai trouvées dans bien d’autres organismes.»

En outre, ajoute M. Weir, une des séquences est présente à l’identique chez un coronavirus qui infecte les chauves-souris, et les trois autres se trouvent également chez ce même virus, bien qu’avec un certain degré de mutation. Comme les coronavirus sont connus pour faire des «aller-retour» entre la chauve-souris et l’espèce humaine, cela en fait une source beaucoup plus probable qu’une recombinaison avec le VIH.

Notons que d’autres ont fait le même exercice que lui, ailleurs sur le Web, et sont arrivés aux mêmes conclusions. Le chercheur en biochimie Dan Samorodnitsky, par exemple, a trouvé que ces séquences-là dans des génomes aussi divers que ceux d’un virus qui infecte des bactéries de type streptocoque, d’un virus du rat, d’un virus du papillome bovin (!) et d’un autre qui paralyse les abeilles. Même son de cloche chez le bioinformaticien Ari Allyn-Feuer, qui n’a lui non plus rien trouvé de suspect (ni même de particulier) dans les séquences identifiées par les chercheurs indiens.

Bref, tout indique que ces derniers ont commis l’erreur de ne chercher ces séquences que parmi les coronavirus humains, ce qui leur a donné la fausse impression que les «insertions» avaient quelque chose de spécial — c’est du moins ce que laissent entendre certains choix de mots dans leur article.

Si cette étude avait dû passer à travers le processus de révision qui mène à la publication dans une revue savante, il y a fort à parier qu’il aurait été rejeté, ou à tout le moins que des corrections majeures y auraient été apportées. D’ailleurs, constatant (et regrettant) que leur article soit utilisé pour alimenter des thèses complotistes, ces chercheurs ont décidé de le retirer de BioRxiv en fin de semaine dernière.

«Ceci est une étude préliminaire, ont-ils écrit. Compte tenu de la gravité de la situation actuelle, elle a été publiée sur BioRxiv aussi vite que possible afin d’avoir des discussions constructives sur l’évolution rapide des coronavirus de type SRAS. Il n’était pas dans nos intentions d’alimenter des théories conspirationnistes et aucune affirmation de la sorte n’est faite ici. […] Afin d’éviter de créer plus de confusion et d’autres interprétations erronées, nous avons décidé de retirer la version actuelle de la prépublication.»

LE VERDICT

Faux. L’étude est authentique, mais l’interprétation qui en est faite sur les réseaux sociaux dépasse largement celle des auteurs. Et encore, ceux-ci semblent eux-mêmes avoir erré en présentant comme «étranges» les similarités somme toute très banales qu’ils ont trouvées avec des protéines du VIH.

Vérification faite: les virus peuvent-ils traverser les océans?

Vérification faite

Vérification faite: les virus peuvent-ils traverser les océans?

L’AFFIRMATION: «J’ai déjà vu dans le magazine «Science et Vie» que les infimes gouttelettes en suspension dans l’air chargée d’un virus pouvaient traverser les océans à cause des vents marins et qu’ils ont la possibilité de survivre assez longtemps. On parle beaucoup de la propagation possible du coronavirus chinois par des voyageurs en avion, notamment, mais est-il vrai que les vents peuvent porter des virus sur des milliers de kilomètres?» demande Magalie Lavoie, de Québec.

LES FAITS

Le papier de Science et Vie résumait les résultats d’une étude parue en 2011 dans la revue savante Scientific Reports et parlait d’«un microbe» que des vents «soufflant du Japon […] ont transporté jusqu’aux États-Unis, où il sévit désormais». Or la formulation était un peu abusive et même si l’on partait du principe qu’il s’agissait bien d’un «microbe», il est pratiquement assuré que ces résultats-là ne s’applique pas aux coronavirus, comme nous le verrons.

L’article des Scientific Reports portait sur un mal encore bien mystérieux nommé «maladie de Kawasaki», décrite pour la première fois au Japon dans les années 1960. Il s’agit d’une maladie infantile très rare, dont les symptômes peuvent être impressionnants — forte fièvre, langue enflée et très rouge, lèvres sèches et craquelées, éruptions cutanées amenant la peau à «peler», etc. —, mais qui finissent par se résorber, habituellement sans séquelle permanente. Cependant, chez le quart des enfants touchés une inflammation des artères se produit et peut, dans certains cas et des années plus tard, mener à des complications cardiaques très graves.

On ignore complètement ce qui cause la maladie de Kawasaki. On ne sait pas s’il s’agit d’un virus, d’une bactérie ou de facteurs environnementaux qui provoquent une réaction chez certains enfants génétiquement prédisposés. L’étude des Scientific Reports n’élucidait pas cette question — c’est pourquoi il était abusif, de la part de Science et Vie, de parler d’un «microbe» sévissant désormais aux États-Unis —, mais avait tout de même trouvé que les éclosions rapportées au Japon, à Hawaï et à San Diego semblaient très étroitement liées à la direction des vents (d’est en ouest) et à leur force. Notons que la même équipe de recherche (grosso modo) a publié une autre étude du même genre en 2014, où elle montrait que lors des trois pires éclosions de la maladie au Japon, en 1979, 1982 et 1986, les vents provenaient toujours de la même région, dans le nord-est de la Chine. Le papier évoquait la possibilité qu’un champignon microscopique ou qu’une mycotoxine soit en cause.

En outre d’autres travaux, comme une étude publiée l’été dernier dans Atmosphere, ont documenté la présence de bactéries vivantes et de virus fonctionnels à 10 mètres dans les airs au beau milieu de l’Atlantique ainsi qu’en très haute altitude (20 km). Alors l’idée que certains microbes puissent voyager des milliers de kilomètres à la faveur des courants-jets, ces vents très forts qui soufflent à une dizaine de kilomètres d’altitude, n’est pas aussi invraisemblable qu’il n’y paraît à première vue. Mais la question est : est-ce que ces conclusions peuvent être étendues aux coronavirus comme celui qui sévit en Chine depuis quelques semaines? Et la réponse est clairement «non».

C’est que les coronavirus ne sont pas particulièrement résistants dans l’air, ne survivant généralement que de quelques minutes à quelques heures. «Ce sont des virus que l’on dit enveloppés, ce qui les rend fragiles», explique le virologiste de l’INRS Pierre Talbot, lui-même un spécialiste des coronavirus. Ces enveloppes, précise-t-il, sont des bouts de cellules infectées que les virus «volent» quand ils en sortent. Elles servent à protéger les protéines du virus, qui sont elles-mêmes vulnérables, mais ces enveloppes ne persistent jamais longtemps à l’air libre — et c’est d’autant plus vrai dans les conditions de dessiccation et de rayonnement ultraviolet intense qui prévalent en haute atmosphère.

C’est ce qui lui fait dire qu’il est «farfelu» de penser que le nouveau coronavirus chinois pourrait traverser le Pacifique à la faveur du courant-jet. Son collègue de l’Université Laval et titulaire de la Chaire de recherche sur les virus en émergence, Guy Boivin, qualifie pour sa part d’«invraisemblable» la possibilité que ce virus voyage si loin à l’extérieur d’un hôte (comme un oiseau migrateur).

À cet égard, d’ailleurs, il faut dire que l’histoire penche de leur côté. Avant l’arrivée des Européens en Amérique, plusieurs maladies pourtant très contagieuses étaient totalement absentes de ce côté-ci de l’Atlantique. Les populations autochtones, jamais exposées et donc très vulnérables, ont été décimées par des virus comme celui de la variole. Tout ceci renforce l’idée que les pathogènes humains ne voyagent pas loin par eux-mêmes.

LE VERDICT

Faux. On trouve des microbes vivant dans la haute atmosphère et très loin des côtes, mais les bactéries et les virus sont des groupes extrêmement vastes et variés, si bien qu’il est tout à fait possible que certains d’entre eux soient «équipés» pour survivre à ce genre de périple. Mais tout indique que dans le cas des pathogènes humains en général et du coronavirus chinois en particulier, il est pratiquement impensable qu’ils puissent changer de continent à la faveur du courant-jet.

Vérification faite: pas de «temps sup» pour les médecins?

Vérification faite

Vérification faite: pas de «temps sup» pour les médecins?

L'affirmation: «Est-il vrai, et si oui pourquoi, que les médecins n’ont pas à faire du temps supplémentaire obligatoire alors que les infirmières, elles, sont tenues d’en faire en vertu de leur code de déontologie? Le Collège des médecins ne suit-il pas les mêmes règles que l’Ordre des infirmières?» demande Marie-Pierre Rainville, de Québec.

LES FAITS

Il a été beaucoup question, ces dernières années, du «temps supplémentaire obligatoire», que beaucoup d’hôpitaux ont contraint leur personnel infirmier à rester au travail pour un quart (ou deux) de plus pour remplacer des absences. Et tout le monde a vu des témoignages d’infirmières à bout de souffle circuler sur les réseaux sociaux.

Maintenant, est-ce que les médecins ont le même genre d’obligations? Tout dépend de ce qu’on entend par «temps supplémentaire» et «obligatoire». Au sens le plus strict, non, les médecins ne sont pas «obligés» de faire du «temps sup», mais cela relève plus de la subtilité technique que d’autre chose : les médecins ne sont pas des «employés» à proprement parler, et ils ne sont pas payés à l’heure. Ils sont officiellement, dans leur vaste majorité, des «travailleurs autonomes» rémunérés à l’acte. Et en ce sens, ils ne peuvent pas vraiment faire de «temps supplémentaire», obligatoire ou non.

«C’est un mode d’organisation complètement différent d’une relation patron-employé, mais ils ont des obligations eux aussi», dit le porte-parole de la Fédération des médecins omnipraticiens, Jean-Pierre Dion. Les médecins s’arrangent entre eux pour que tous les quarts de travail soient couverts, notamment à l’urgence. Mais cette «autorégulation» vient avec des obligations, un peu comme pour les infirmières. Par exemple, un médecin qui aurait passé 12 heures à l’urgence et qui voudrait quitter parce que sa garde est terminée serait tenu de rester s’il n’a pas de remplaçant, dit M. Dion, indiquant que ces obligations sont liées à la nomination des médecins dans un établissement de même qu’au Code de déontologie des médecins.

Ce Code a en effet une section intitulée «Prise en charge et suivi» qui dit grosso modo qu’un médecin qui prend un patient à sa charge ne peut s’en défaire à moins qu’un autre médecin ou professionnel habilité à le faire puisse prendre la relève (articles 32 à 36), que le médecin doit «faire preuve d’une disponibilité raisonnable envers son patient et les patients pour lesquels il assume une responsabilité de garde» (art. 37) et qu’il «doit porter secours et fournir les meilleurs soins possibles» à tout patient ayant besoin de soins immédiats.

Ces obligations légales, notons-le, ne sont pas absolues. Si un médecin n’est pas en état de bien soigner de nouveaux patients — parce qu’il vient de faire 24 heures de garde, parce qu’il vient de perdre un être cher, etc. —, il ne peut pas être forcé de le faire, explique M. Dion.

Mais remarquez, la même chose est vraie pour le TSO des infirmières. Comme l’écrivait l’avocate Sylvie Théoret sur le site de la Société québécoise d’information juridique, le Code de déontologie des infirmières indique, un peu comme celui des médecins, qu’une infirmière ne peut abandonner un patient «à moins d’avoir une raison grave». Mais le TSO doit demeurer un dernier recours, écrivait Me Théoret, et les employeurs doivent avoir pris des moyens raisonnables pour l’éviter. Ainsi, à Québec, le CHUQ a perdu un grief syndical en 2014 pour avoir eu recours au TSO «dans le cadre d’une pratique systématique».

D’ailleurs, l’Ordre des infirmiers et infirmières du Québec avait cru bon, en 2018, de rappeler à ses membres qu’une infirmière ne peut être forcée de faire du temps supplémentaire si elle ne se sent pas en état de le faire [bit.ly/30NLcti].

+

VERDICT

Plutôt faux. En théorie, les médecins ne font pas de «temps supplémentaire» dans la mesure où ils sont payés à l’acte et non au temps travaillé, et pas de temps «obligatoire» puisqu’ils organisent leurs horaires entre eux. Mais en pratique, ils sont soumis à des obligations de garde et de soins semblables à celles des infirmières, avec des conséquences souvent comparables, comme de très longues gardes.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: toxique, le blé «moderne»?

Actualités

Vérification faite: toxique, le blé «moderne»?

L’affirmation: «Pendant le temps des Fêtes, nous avons discuté de gluten et d’un auteur appelé Dr Jean Seignalet. C’est un défenseur d’un régime sans gluten et sans lait qui a eu un effet très impressionnant sur 91 maladies (et non les moindres) avec parfois des rémissions totales. Ce qui me questionne le plus, c’est qu’il considère que le blé d’aujourd’hui est toxique à cause des transformations génétiques et qu’il faut retourner au blé ancestral. Par contre, le «Pharmachien» Olivier Bernard dit que le blé ancestral contenait 500 fois plus de gluten que celui d’aujourd’hui. Qu’en est-il vraiment?» demande Éliane Huard, de Notre-Dame-du-Portage.

Les faits

Jean Seignalet (1936-2003) fut effectivement l’inventeur d’un régime qu’il qualifiait d’«hypotoxique», qui partait de l’idée que notre système digestif a évolué pour digérer une alimentation comme celle des chasseurs-cueilleurs, et que ce qui est arrivé après — non seulement le blé et les produits laitiers, mais aussi toutes les cuissons à haute température — aurait des effets toxiques pour l’humain. Le hic, c’est que malgré toutes ses prétentions thérapeutiques, l’efficacité de son régime n’a jamais été prouvée scientifiquement.

En ce qui concerne le blé, on parle beaucoup du gluten depuis quelques années parce qu’environ 1 % de la population souffre de la «maladie cœliaque» : chez ces gens-là, le gluten (la principale protéine contenue dans les grains de blé) provoque une réaction immunitaire néfaste et les force à éviter tous les produits du blé. Et il y aurait quelques pour cent supplémentaires qui auraient un certain degré d’intolérance au gluten, dans une moindre mesure.

Maintenant, le site du Pharmachien [bit.ly/2QWRuUk] indique que contrairement à la croyance répandue, c’est «le blé d’autrefois [qui] contenait PLUS de gluten que celui d’aujourd’hui», et non l’inverse, mais je n’ai trouvé nulle part de mention de «500 fois plus». Cela aurait été une grosse exagération mais, dans la formulation qu’il a réellement utilisée, c’est très clairement Olivier Bernard qui a raison, ici.

Ce que nous appelons «blé» recouvre en fait plusieurs choses différentes. À l’origine, c’est une plante nommée engrain qui a été domestiquée, il y a environ 10 000 ans. «C’était une herbe qui faisait de toutes petites graines, et ce sont ces grains-là que nos ancêtres se sont mis à manger», indique Pierre Gélinas, chercheur et spécialiste du blé à Agriculture Canada. Au fil du temps sont apparus des milliers de sortes différentes que l’on regroupe souvent en trois grandes «familles» de blé. La première, comme l’engrain, est une espèce «pure» pour ainsi dire, qui pousse encore à l’état sauvage et, comme les gènes viennent toujours en deux copies, on la dit diploïde. À cause de croisements faits par les fermiers il y a très longtemps, une autre «famille» de blés possède deux génomes différents dans ses noyaux cellulaires, et on la dit tétraploïde (parce que 2 génomes X 2 copies = 4 copies de chaque gène). Le blé durum par exemple, avec lequel on fait les pâtes alimentaires, appartient à cette catégorie. Et l’autre grande «famille» est hexaploïde parce que d’autres croisements encore lui ont donné trois génomes différents; le blé avec lequel on fait du pain en fait partie.

Or le but que poursuivaient les fermiers anciens par ces croisements et ces sélections était d’avoir des plants qui donnaient les plus gros grains possible et, à mesure que les grains ont grossi, ils se sont d’abord et avant tout enrichis en amidon (une forme de sucre) [bit.ly/2TrXlmg]. À cause de cela, les blés «modernes» sont plus pauvres en protéines que les souches ancestrales — et donc plus pauvres en gluten parce que celui-ci est une protéine.

«Avec l’engrain, on parle de 20 à 30 % de protéines alors que le blé d’aujourd’hui en contient autour de 10-15 %», dit M. Gélinas, qui précise tout de même que ces contenus peuvent varier beaucoup en fonction des cultivars, des conditions de culture, etc. Et il faut ajouter à cela que nous mangeons de nos jours beaucoup moins de pain qu’auparavant : en 1900, l’Américain moyen consommait environ 100 kg de farine par année, mais ce chiffre avait chuté à 61 kg/personne au début des années 2000 — ce qui signifie que nous consommons aussi moins de gluten qu’avant.

M. Gélinas a testé plusieurs types de blés différents en laboratoire afin de voir s’il y en avait qui réagissaient plus avec les anticorps associés à la maladie cœliaque. Les résultats, parus en 2016 dans l’International Journal of Food Science and Technology [bit.ly/36YGUS9], sont que les blés modernes ne provoquent pas plus de réaction que les souches ancestrales. M. Gélinas et son équipe ont tout de même trouvé que les blés hexaploïdes réagissaient davantage que les autres, mais la différence était assez faible.

Ces résultats, soulignons-le, sont entièrement cohérents avec un grand nombre d’autres travaux scientifiques. La définition de ce qui est «ancien» peut varier d’une étude à l’autre — pour les uns, ce sont les blés qui étaient cultivés avant 1900, pour d’autres, il faut remonter plus loin en arrière —, mais la tendance est toujours la même. Selon une revue de littérature parue en 2016 dans le Journal of Cereal Science [bit.ly/2QVy9CF], ces travaux ont dans l’ensemble «conclu que les blés anciens diffèrent peu des blés modernes pour la plupart des composés bioactifs», hormis le fait que les premiers étaient plus riches en protéine, comme on vient de le voir, et qu’ils contenaient aussi plus de caroténoïdes que le blé à pain — ce qui n’est guère étonnant puisque celui-ci a été sélectionné pour la couleur blanche. En fait, il semble que les conditions de culture (type de sol, engrais, météo, etc.) sont un facteur beaucoup plus important sur la composition du blé que son ancienneté.

Le verdict

Faux. Il est bien documenté qu’à quantités égales, les blés modernes contiennent moins de gluten que les blés ancestraux, parce que la sélection pour des grains plus gros les a enrichis en amidon. On n’a pas de raison de croire que le gluten des blés modernes cause plus d’intolérance et, de manière générale, le blé ne semble pas avoir changé de composition pour la peine au fil des âges.

Vérification faite: le streaming, aussi polluant que tous les avions du monde?

Vérification faite

Vérification faite: le streaming, aussi polluant que tous les avions du monde?

L'AFFIRMATION: «J’ai entendu aux nouvelles que les émissions de CO2 dues au stockage de données, mais surtout à cause du streaming, sont en passe de dépasser les émissions de CO2 de l’aviation civile au niveau planétaire, et ceci avant même la mise en ligne de la plateforme de Disney! Si ceci est vrai, c’est énorme et il est urgent de conscientiser le public canadien, car la consommation en mode streaming semble prendre de plus en plus de place dans la vie des gens», demande Jacqueline Witschi, de Baie-Saint-Paul.

Voilà qui tombe bien, parce que Marie-Pierre Lapointe, de Québec, a vu récemment sur le site de Radio-Canada une nouvelle parlant de «l’impact environnemental insoutenable de la vidéo et des données sur Internet» et elle se demande s’il vaut la peine d’acheter des compensations pour ces émissions.

Vérification faite: la 5G va-t-elle tuer nos abeilles?

Vérification faite

Vérification faite: la 5G va-t-elle tuer nos abeilles?

L'affirmation: «J’ai plusieurs amis qui ont partagé une vidéo sur Facebook récemment avec cette mention : “Des abeilles meurent sous les antennes 5G. Voici ce qui nous attend.” On constate facilement que la vidéo a été mise en ligne par une organisation anti-wifi, mais j’aimerais savoir si le 5G peut vraiment expliquer la mort de ces abeilles», demande Annie Cloutier, de Montréal.

LES FAITS

La vidéo en question [bit.ly/34empi8] a été tournée par un homme disant se trouver en Sierra Madre, en Californie. On y voit effectivement d’assez nombreuses abeilles au sol entre ce qui est décrit comme deux antennes 5G distantes d’une quinzaine de mètres. «Nous passons souvent par ici, relate l’auteur de la vidéo, et j’avais déjà remarqué les abeilles mortes, mais je n’avais jamais compris ce qui les tuait. Ce n’est que par la suite que j’ai commencé à entendre des choses sur le wifi et la 5G.»

L’homme affirme qu’«elles tombent toutes entre ces deux antennes», mais la vidéo ne montre rien d’autre que l’espace entre les tours et l’homme ne mentionne nulle part qu’il est allé voir ailleurs. Peut-être y avait-il d’autres abeilles mortes plus loin des tours cellulaires, ce qui indiquerait que le problème était ailleurs, mais on ne le saura jamais. Rien n’indique non plus que des tests ont été faits sur ces abeilles pour voir si elles n’auraient pas été empoisonnées par des pesticides (ce qui est toujours possible).

Il est également impossible de savoir à partir de ces seules images vidéo s’il s’agit bel et bien d’antennes 5G ou si ce sont des technologies antérieures, dit Jean-Jacques Laurin, spécialiste des antennes de l’École polytechnique de Montréal. «Ce qui complique encore plus la chose, c’est que dans son déploiement préliminaire, le 5G utilise souvent des équipements 4G», m’a-t-il écrit lors d’un échange de courriels.

Cette vidéo laisse donc en suspens beaucoup trop de points d’interrogation, et de trop importants, pour constituer une preuve de quoi que ce soit. Et de toute manière, rien dans la littérature scientifique ne permet de croire que la 5G (ou n’importe quelles autres ondes radio ou cellulaires) puisse tuer massivement des abeilles.

Dans l’ensemble, il n’est pas clair du tout que les ondes radio/cellulaires peuvent avoir un effet, quel qu’il soit, sur l’abeille domestique. Le hasard faisant (parfois) bien les choses, il s’adonne qu’une revue de littérature sur cette question précise a été publiée ce mardi (!) dans le périodique savant Science of the Total Environment. Les chercheurs européens qui signent l’article  indiquent qu’il n’y a pas suffisamment d’études, loin s’en faut, pour tirer des conclusions fermes, mais que les quelques études dont on dispose suggèrent un effet neutre sur la reproduction et la diversité des espèces d’insectes, et des effets variables sur leur abondance. Le même papier constate aussi que les champs magnétiques des lignes à haute tension semblent avoir un effet négatif sur la cognition des abeilles et des effets variables sur leur comportement.

C’est que l’on trouve des travaux qui, par exemple, ont exposé des abeilles à des ondes de téléphone sans fil et trouvé qu’elles avaient plus de mal à retrouver leur chemin vers la ruche par la suite. D’autres ont conclu que la proximité de tours cellulaires semblait changer les comportements de récolte de nectar des abeilles, ou que les ondes nuisaient à l’éclosion (mais pas au développement subséquent) des reines. Et d’autres encore n’ont, au contraire, pas noté le plus petit effet observable.

Or, quel que soit le type d’effet trouvé (ou non), la mortalité n’en fait pas partie. «Aucune de ces études n’a observé de mortalité massive, ou quel qu’impact que ce soit sur la mortalité des abeilles qu’auraient pu avoir les radiofréquences ou les champs magnétiques aux intensités qu’on rencontre dans l’environnement», m’a confirmé le chercheur post­doctoral en entomologie de l’Université Purdue Sebastian Shepherd, qui a lui-même signé des études sur cette question.

Même son de cloche du côté de Joseph Kirschvink, chercheur à l’Institut de technologie de Californie (Caltech) qui a lui aussi mené des travaux là-dessus. Le comportement de plusieurs espèces, dont les abeilles, peut être influencé par des ondes radio, car ces animaux sont sensibles au champ magnétique terrestre, dont ils se servent pour s’orienter, explique-t-il. Or les ondes dont on parle ici sont des ondes électromagnétiques, soit de l’énergie électrique et magnétique qui se propage dans l’espace un peu à la manière d’une vague à la surface de l’eau. La faculté de «ressentir» les champs magnétiques fournit donc un mécanisme potentiel expliquant pourquoi certaines ondes électromagnétiques peuvent déranger ces espèces.

Cependant, souligne M. Kirschvink, on n’obtient des effets sur ces animaux qu’à des fréquences relativement basses, de moins de 10 mégahertz (MHz, soit moins de 10 millions d’ondulations par seconde), «ce qui est largement en dessous des fréquences utilisées par l’industrie de la téléphonie», dit-il. Les cellulaires émettent généralement à des fréquences de 900 à 2000 MHz, et la 5G utilisera des fréquences encore plus élevées.

«Si moi ou mes collègues avions vu un tel épisode de mortalité massive d’abeilles, la première chose que nous aurions faite aurait été de prélever des échantillons pour voir s’ils contiennent des résidus de pesticides. Parce que c’est une hypothèse absolument essentielle à écarter dans des cas comme celui-là», dit M. Shepherd.

VERDICT

Faux. Cette vidéo laisse trop de questions en suspens pour être une preuve de quoi que ce soit. Et de toute manière, si quelques études suggèrent que les ondes radio/cellulaires pourraient influencer le comportement des abeilles, aucune n’a jamais constaté de mortalité massive.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: seulement 75 décibels pour un tramway?

Vérification faite

Vérification faite: seulement 75 décibels pour un tramway?

L’AFFIRMATION: «Le Soleil citait récemment un rapport d’experts commandé par la Ville de Québec, qui assurait que «le bruit émis par un tramway s’élève à 75 décibels, alors que celui d’un autobus atteint 75 à 80 décibels et une automobile, 80 décibels». Mais on ne me fera pas croire qu’un tramway dont les roues de métal frottent sur des rails en métal est plus silencieux qu’une voiture. Ça me semble d’autant plus suspect que l’article dit aussi que “le paramètre retenu dans l’industrie est le niveau sonore équivalent sur une période longue et non à l’événement”. Est-ce à dire que le passage du tramway et ses crissements sont noyés dans la moyenne? Quel est le vrai niveau de bruit d’un tramway?» demande Serge Trépanier, de Québec.

LES FAITS

Le rapport en question est le travail de la firme d’ingénierie Systra, une multinationale spécialisée dans les transports et qui possède donc a priori toute l’expertise nécessaire. Dans sa présentation PowerPoint, Systra a bien indiqué que le passage d’un tramway produisait un bruit de 75 décibels (dBA) à 10 mètres de distance, alors qu’une voiture se situerait à 80 dBA. Le rapport lui-même parle plutôt de 78 dBA à 7,5 m (en page 3) pour un tramway.

En ce genre de matière, les conditions concrètes de mesure (type de tramway, sorte de rails, configuration de l’endroit, etc.) peuvent faire une grosse différence, mais tout indique que Systra a retenu un niveau de bruit raisonnable pour le passage d’un tramway. Un rapport français de 2009 bit.ly/2DHNG1D, p. 54], par exemple, a mesuré le bruit du tramway de Nantes en deux endroits, obtenant des niveaux sonores maximaux de 70 à 80 dBA à 7,5 m de distance lorsque le tram filait à 40 km/h — notons ici que la vitesse peut faire une grosse différence. Une étude slovaque publiée en 2016 dans la revue savante Noise & Health a pour sa part trouvé autour de 75 dBA à 7,5 m pour des vitesses d’environ 25 km/h.

Il y a deux choses à ajouter, ici, au sujet du rapport de Systra. La première, c’est que le document a bel et bien tenu compte des grincements métalliques que les tramways produisent souvent dans les courbes. Les auteurs ont en effet ajouté huit décibels à leurs estimés «dans les courbes de faible rayon pour simuler le bruit de crissement, conformément aux directives de la méthode de calcul européenne, CNOSSOS-EU» (p. 3). Vérification faite, il s’agit effectivement de la recommandation européenne pour estimer le bruit dans les courbes de moins de 300 mètres de rayon bit.ly/34LkRNT, p. 57 sur 180]. Ajoutons à cet égard que selon l’étude slovaque de 2016, le crissement fait une différence moyenne de 9,5 dB sur le bruit d’un tramway, ce qui est compatible avec l’ajustement de 8 dBA retenu par Systra.

La seconde chose à savoir, c’est que le rapport de Systra présume que des mesures de réduction du bruit seront prises, comme la construction de murs antibruit dans certains secteurs ou un système de lubrification des rails pour atténuer les crissements (qui passeraient alors de + 8 dBA à + 3 dBA). Ça n’est pas forcément une présomption farfelue, soulignons-le, puisqu’on voit mal l’intérêt de Québec à indisposer les riverains si elle peut l’éviter à faible coût. Mais c’est quand même ce qui permet au rapport de tirer des conclusions très rassurantes : le tramway n’augmenterait le niveau de bruit ambiant pour les maisons riveraines que sur 5 % du tracé. Sans ces mesures d’atténuation, c’est la moitié du tracé qui subirait une pollution sonore accrue.

Quoi qu’il en soit, cependant, il reste que tous les points de comparaison que j’ai pu trouver pointent dans la même direction : le niveau de bruit estimé par Systra semble tout à fait réaliste.

S’il est une chose qui l’est peut-être un peu moins, dans cette histoire, c’est le niveau de bruit des voitures qui, à 80 dBA, fournit un point de comparaison flatteur pour le tramway. Or cela semble un peu trop élevé. Par exemple, dans une étude d’impact au sujet d’un projet de mine d’or, la firme de consultant ERM parle de «60 à 80 dBA» pour une voiture qui passerait à 10 m de distance. De même, une échelle de niveaux de bruit sur le site de l’agence danoise de protection de l’environnement indique autour de 70-75 dBA.

Alors il faut conclure que ces 80 dBA ne correspondent pas au bruit typique d’une auto, mais plutôt aux modèles les plus bruyants. Ce qui, bien sûr, fait ensuite paraître le tramway plus silencieux qu’il ne l’est réellement.

LE VERDICT

Vrai dans l’ensemble. Les 75 dBA que Systra et la Ville de Québec ont retenu comme «bruit typique» d’un tramway concordent bien avec tous les points de comparaison externes que j’ai pu trouver. En outre, la firme a bel et bien tenu compte (dans les règles de l’art) des bruits de crissement dans les courbes. Il semble toutefois que la comparaison avec des voitures à 80 dBA soit artificiellement flatteuse pour le tramway.

Vérification faite: croisières polluantes à l'extrême?

Vérification faite

Vérification faite: croisières polluantes à l'extrême?

L’AFFIRMATION: «Dans un article paru récemment dans Paris Match [«Tourisme : le raz de marée» ], on lit que les navires de croisière géants carburent au fioul lourd et que “durant l’escale, les moteurs restent allumés pour alimenter l’électricité [… et] émettrai[en]t 10 fois plus de pollution atmosphérique que toutes les voitures européennes réunies”. Vu le nombre croissant de navires de croisière faisant escale à Québec et le refus du directeur du Port de Québec, Mario Girard, d’installer des prises électriques afin de diminuer cette source de pollution atmosphérique, je me demandais si c’était vrai», demande Thérèse Latour, de Québec.

LES FAITS

L’article de Paris Match affirme que c’est la pollution générale (et pas seulement quand ils sont à quai) des navires de Carnival, le plus important croisiériste au monde, qui «émettrait à lui seul 10 fois plus de pollution atmosphérique que toutes les voitures européennes réunies». La source de cette affirmation n’est pas mentionnée, mais il s’agit manifestement d’un rapport de l’ONG écologiste européenne Transport & Environment publié en juin dernier.

Le document trace un portrait très sombre de la pollution des navires de croisière, mais Paris Match en gonfle quand même un peu le propos : il n’y est nulle part écrit que Carnival émettait 10 fois plus de «pollution atmosphérique» que tout le parc automobile européen, mais bien que le croisiériste rejette 10 fois plus d’oxydes de soufre (SOx). Il s’agit, évidemment, d’une forme de pollution de l’air, mais prendre les SOx comme indicateur et les gaz d’échappement des voitures comme point de comparaison est un brin trompeur dans ce cas-ci. Tant en Europe qu’en Amérique du Nord, les normes d’émissions d’oxydes de soufre pour les véhicules sont devenues beaucoup plus sévères depuis 20 ans — mais pas pour les bateaux.

Au Canada par exemple, jusqu’à la fin des années 1990, l’essence contenait autour de 320 parties par million (ppm) de soufre, et la limite légale était de 5000 ppm pour le diesel utilisé dans les voitures. Or de nos jours, ces carburants ne peuvent plus contenir plus de 15 ppm de soufre, et même 12 ppm dans le cas de l’essence à partir du 1er janvier prochain.

Or, les normes pour les navires de croisière n’ont pas évolué aussi rapidement, même si beaucoup de pays sont en train de les resserrer. En eaux internationales, le plafond actuel est de 35 000 ppm. En Europe pour l’année 2017 (sur laquelle portait le rapport de Transport & Environment), certains pays imposaient une norme de 1000 ppm aux croisiéristes, mais d’autres permettaient jusqu’à 15 000. Alors, il est évident que comparer les émissions de SOx des voitures et des navires noircit artificiellement le portrait : d’autres mesures de pollution de l’air, comme les particules en suspension, donneraient des résultats moins spectaculaires. Et il est donc exagéré de présenter les choses comme Paris Match l’a fait.

Cela dit, cependant, il est incontestable que les croisières sont une activité très polluante, toutes proportions gardées. Plusieurs études scientifiques l’ont prouvé, montrant par exemple que la pollution de l’air sur le pont de certains de ces navires atteint (lorsqu’ils sont à quai) des niveaux comparables à des mégalopoles de Chine. D’autres travaux ont démontré que la présence de ces villes flottantes a un effet notable sur la qualité de l’air dans des endroits comme Barcelone, Dubrovnik et Svalbard.

Il faut cependant ajouter ici que ces résultats ne sont pas forcément applicables au cas de Québec, puisque le Canada possède des normes plus sévères qu’ailleurs : 1000 ppm de soufre au maximum, et ce dans un rayon de 200 milles nautiques des côtes. Cela ne signifie pas que l’on ne peut pas en faire davantage — le rapport de Transport & Environment souligne justement que s’il est possible d’éliminer presque complètement le soufre des carburants pour voitures, ça l’est forcément aussi pour les navires de luxe. Cela n’indique pas non plus que le Port de Québec a fait tout ce qu’il pouvait ou devait faire pour réduire la pollution des croisiéristes. C’est au minimum une question légitime, comme l’avait démontré le collègue François Bourque dans une chronique de septembre. Mais cela sort du sujet de cette vérification-ci…

LE VERDICT

Inexact. Il est vrai que l’industrie des croisières est très polluante, mais le rapport d’où vient l’affirmation parlait de 10 fois plus d’oxydes de soufre que le parc européen de véhicules, pas 10 fois plus de «pollution atmosphérique» en général. En outre, ses résultats ne sont pas forcément transposables au cas du Canada, où les règles en vigueur sur le soufre dans les carburants ne sont pas les mêmes qu’en Europe.

Vérification faite: le vapotage, aussi dangereux qu’on le dit?

Vérification faite

Vérification faite: le vapotage, aussi dangereux qu’on le dit?

L’AFFIRMATION: «Je trouve que ce qu’on lit sur le vapotage dans les médias, dernièrement, relève de la désinformation. Les morts liées à la cigarette électronique sont, à mon avis, plus attribuables à des produits douteux achetés sur le marché noir qu’au vapotage comme tel. Les experts que j’ai lus sur le sujet sont favorables au vapotage. Alors ça ne peut pas être aussi dangereux qu’on le dit, non?», demande Louis Cornellier, de Joliette.

LES FAITS

Les médias ont effectivement consacré beaucoup d’attention aux risques du vapotage ces derniers temps, et ils n’ont pas toujours fait dans la nuance, pour dire le moins. Par exemple, le European Heart Journal publiait il y a quelques jours une étude qui concluait que la «e-cig» était effectivement dommageable, mais qui a reçu un accueil très mitigé de la communauté scientifique. Plusieurs chercheurs ont trouvé les résultats peu concluants pour diverses raisons — par exemple, la petite taille de l’échantillon ou le fait que des analyses de tissus chez les souris exposées ont montré une substance nommée acroléine, qui est très toxique, mais qui n’est produite que si le liquide de vapotage est littéralement grillé, ce qui n’arrive pas dans les vapoteuses normales.

Mais qu’à cela ne tienne, des médias majeurs d’un peu partout dans le monde ont quand même titré que «le vapotage est si dangereux et addictif qu’il devrait être banni» (Sky News) et qu’«un seul épisode de vapotage […] durcit les artères» (The Independent). Alors oui, il semble bien y avoir une part de désinformation ou de sensationnalisme dans tout cela.

Le fait demeure cependant qu’il existe un authentique débat scientifique au sujet des bienfaits et inconvénients du vapotage : certaines études concluent en faveur de la cigarette électronique, d’autres sont clairement négatives. La clef pour s’y retrouver, ici, est de regarder à quoi on a comparé la «e-cig» pour en évaluer les effets.

De manière générale, les études qui comparent le vapotage à la cigarette «traditionnelle» trouvent que le premier est beaucoup moins pire pour la santé. La semaine dernière, par exemple, le Journal of the American College of Cardiology a publié une étude comparant des fumeurs qui ont troqué la cigarette pour le vapotage et d’autres fumeurs qui ont simplement continué de fumer comme d’habitude. Au bout de seulement un mois, le groupe des vapoteurs montrait de bons signes d’amélioration cardiovasculaire — leurs artères étaient moins rigides et se dilataient plus facilement sous l’effet de la pression sanguine.

Historiquement, me dit-on à l’Institut de la santé publique du Québec, beaucoup des premières études sur la cigarette électronique ont fait ce genre de comparaison parce qu’on voyait surtout le vapotage comme une solution de remplacement ou de sevrage au tabac. Pendant quelques années, d’ailleurs, ce fut l’équipe responsable de la lutte au tabagisme qui a mené seule le dossier à l’INSPQ, mais l’organisme a élargi ses efforts de documentation récemment. Il faut dire qu’il n’y a pas que les fumeurs qui se mettent au vapotage, loin de là. Une étude publiée cette année dans le British Medical Journal a trouvé que 37 % des ados canadiens de 16-19 ans ont déjà vapoté au moins une fois dans leur vie, et que 15 % l’ont fait dans les 30 derniers jours.

La tendance à la hausse chez les jeunes est observée un peu partout ces dernières années, ce qui explique sans doute en bonne partie l’intérêt des chercheurs pour le vapotage en lui-même, sans le comparer au tabac. Et sans ce point de comparaison très avantageux, plusieurs études trouvent bel et bien des effets nocifs à la cigarette électronique, suggérant des liens avec le cancer, des problèmes pulmonaires, etc. Il reste encore beaucoup de recherche à faire parce qu’il s’agit d’un phénomène assez nouveau, mais il est indéniable que la cigarette électronique vient avec des risques pour la santé : «moins pire que la cigarette» ne signifie pas «sans danger». La plupart des instances de santé publique dans le monde ont d’ailleurs maintenant une page sur ces risques — notamment Santé Canada.

Ces derniers mois, d’ailleurs, une vague de problèmes pulmonaires assez graves a été liée au vapotage. Aux dernières nouvelles, la santé publique américaine comptait plus de 2000 cas de blessures aux poumons et 42 décès depuis mars dernier. On déplore trois cas au Québec jusqu’à maintenant.

Il est vrai, comme le signale M. Cornellier, que jusqu’à maintenant l’enquête montre surtout du doigt des usages irréguliers des vapoteuses. Pas moins de 86 % des patients touchés disent avoir consommé des produits dérivés de cannabis avec leur vapoteuse, et l’on soupçonne plus particulièrement un additif (l’«acétate de vitamine E») souvent utilisé par le marché noir pour rendre la mari «vapotable». Mais on ne comprend pas encore bien le phénomène, alors il reste théoriquement possible que l’utilisation régulière des vapoteuses soit (un peu) en cause.

En outre, on sait que des produits nocifs autres que l’acétate de vitamine E sont présents dans les liquides de vapotage — par exemple le diacétyle, présent dans le maïs soufflé et qui a déjà causé des problèmes respiratoires à des travailleurs d’usine de pop-corn.

LE VERDICT

En partie vrai. Il semble bien démontré que la cigarette électronique est beaucoup moins pire que le tabac, mais celui-ci est un point de comparaison artificiellement flatteur. Les dangers du vapotage ne sont sans doute pas aussi dramatiques que ce que certains médias ont laissé entendre, mais ils n’en sont pas moins assez sérieux pour préoccuper bien des instances de santé publique dans le monde.

Vérification faite: l’immigration tire-t-elle les salaires vers le bas?

Vérification faite

Vérification faite: l’immigration tire-t-elle les salaires vers le bas?

L’AFFIRMATION: «C’est un jeu d’offre et de la demande. Plus il y a de main-d’œuvre au Québec, plus on peut garder les salaires bas, plus on est capable de trouver des employés à 12-15 $ de l’heure. Il faut être prudent. Ma responsabilité, c’est de défendre les intérêts des Québécois», a déclaré le premier ministre François Legault, la semaine dernière, pour répondre aux critiques des chambres de commerce au sujet de sa réforme du Programme de l’expérience québécoise (PEQ) en immigration. Cette réforme a été abandonnée depuis, mais voyons quand même si l’immigration tire vraiment les salaires vers le bas.

LES FAITS

Le raisonnement de M. Legault peut se défendre, car l’idée que plus une chose est abondante, moins elle vaut cher, est effectivement une des «lois fondamentales» des sciences économiques. Et elle vaut pour les biens comme pour le marché du travail : en théorie, quand il y a beaucoup de chômeurs (l’«offre» de travail) qui veulent combler les postes disponibles (la «demande»), on peut s’attendre à ce que les salaires déclinent.

En pratique, cependant, le marché du travail est plus compliqué que ça, entre autres parce qu’il n’y a pas «un» grand bassin de chômeurs qui se battent pour combler un bassin unique d’emplois — chaque personne a ses qualifications qui les dirigent vers certains postes plutôt que d’autres. Et le marché du travail peut s’ajuster de diverses manières à la disponibilité de la main-d’œuvre.

Si bien que quand les économistes regardent l’effet de l’immigration sur les salaires, la plupart ne trouvent rien, ou presque. Tous ceux à qui Le Soleil a soumis la question (Serge Coulombe de l’Université d’Ottawa, Nicholas Lawson de l’Université de Montréal, Pierre Fortin de l’UQAM, ainsi que Bernard Fortin et Guy Lacroix de l’Université Laval) s’entendent pour dire qu’il est difficile de mesurer l’impact de l’immigration sur les salaires, mais que les études qui l’ont fait ont généralement constaté un effet faible et à court terme. Même son de cloche dans une revue de littérature parue récemment dans Options politiques et dans un rapport de l’Institut du Québec paru au printemps.

Il semble que c’est surtout dans des cas extrêmes que l’on parvient à «voir» un effet négatif sur les salaires. Par exemple, pendant cinq mois en 1980, le régime castriste a permis à ses citoyens de quitter Cuba. Plus de 125 000 personnes ont saisi l’occasion, et la plupart sont allés s’établir à Miami. Cette grande ville floridienne a alors vu sa main-d’œuvre gonfler de 7 % en seulement quelques mois, et la majorité de ces nouveaux arrivants avaient tous le même profil «peu qualifié» — 56 % n’avaient jamais atteint l’école secondaire. Mais quand l’économiste américain David Card a regardé l’effet sur le marché du travail de Miami, il a réalisé que les salaires et les taux d’emploi des «natifs» n’ont que peu diminué comparés à d’autres villes américaines semblables, et qu’au bout de trois ans, toute apparence d’impact négatif avait disparu.

Ces conclusions ont été débattues par la suite et le sont encore, mais d’autres études sont arrivées aux mêmes conclusions. Ainsi, l’économiste Jennifer Hunt (une ancienne de l’UdeM et de McGill, maintenant à Rutgers) a trouvé que quand la France a rapatrié environ 900 000 personnes d’Algérie en l’espace d’un an en 1962, l’effet négatif sur le chômage au bout de cinq à six ans fut «au maximum de 0,3 point de pourcentage» et celui sur les salaires «au maximum de 1,3 %».

Une des raisons pour expliquer la faiblesse de cet effet — ou du moins, la difficulté à le mesurer — est que les immigrants ne font pas qu’occuper des postes, dit Nicholas Lawson, de l’UdeM. «Ils sont aussi des consommateurs, ils vont acheter des choses, et s’ils sont peu qualifiés, ils vont peut-être acheter des produits et services d’autres travailleurs non qualifiés», et leur présence va ainsi créer d’autres emplois, explique-t-il. D’autres facteurs peuvent aussi entrer en ligne de compte, comme une complémentarité entre les compétences des immigrants et des travailleurs locaux, ou encore qu’un accroissement de la population active incite parfois des employeurs à embaucher, lit-on dans le rapport de l’Institut du Québec.

En outre, il est loin d’être clair que des exemples comme celui de Miami s’appliquent bien à la réalité québécoise, puisque les immigrants qui s’installent au Canada sont en moyenne beaucoup plus instruits que l’étaient les réfugiés cubains de 1980 : les deux tiers détiennent une formation postsecondaire, et c’est même 72 % au Québec. «Alors ces gens-là ne concurrencent pas les travailleurs à faible revenu, dit Guy Lacroix, de l’UL. […] Ça prendrait vraiment un raz-de-marée pour qu’ils viennent affecter le revenu des travailleurs canadiens.»

Cela dit, «pas d’impact sur les salaires» ne signifie pas «aucun effet sur le marché du travail», nuance Serge Coulombe, de l’UO. Ses travaux ont montré qu’au Québec, les «travailleurs étrangers temporaires» ont un effet direct sur les migrations interprovinciales : plus on embauche de ces «temporaires», moins le Québec attire de travailleurs des autres provinces, possiblement parce qu’il y a alors moins de postes disponibles. M. Coulombe n’a toutefois pas trouvé le même genre d’effet pour l’immigration générale, issue du système régulier de sélection des immigrants.

M. Coulombe est aussi d’avis que «dans la conjoncture actuelle» où bien des employeurs peinent à combler leurs postes vacants, les salaires devraient s’accroître si on laissait les lois du marché agir seules — ou alors certains secteurs de l’économie réduiraient leurs activités. Prise en ce sens, dit-il, la déclaration de M. Legault serait plus vraie dans la mesure où l’immigration, en comblant en partie cette rareté de la main-d’œuvre, empêcherait les salaires d’augmenter autant que s’il y avait moins de nouveaux arrivants.

LE VERDICT

Exagéré. Il est difficile de mesurer l’impact de l’immigration sur les salaires, mais les études qui l’ont fait ont pour la plupart trouvé un effet faible et à court terme. L’immigration peut cependant avoir d’autres impacts sur le marché du travail et l’économie.

Vérification faite: plus de CO2 à cause du Ciment McInnis?

Vérification faite

Vérification faite: plus de CO2 à cause du Ciment McInnis?

L’affirmation: «On entend souvent des gens dénoncer la construction de la cimenterie McInnis et le fait qu’elle augmentera de 2 % la quantité de gaz à effet de serre (GES) émis au Québec. Mais à ce que je sache, la production de ciment, qu’elle soit au Québec ou ailleurs, produit grosso modo la même quantité de CO2. Alors est-ce qu’il est vrai que la cimenterie McInnis augmente globalement l’empreinte carbone à l’échelle planétaire?

Autrement dit, si on n’avait pas construit la cimenterie et qu’on achetait notre ciment aux États-Unis, aurait-on diminué l’empreinte carbone?» demande Benjamin Couillard, de Québec.

LES FAITS

La production de ciment produit toujours beaucoup de gaz carbonique (CO2) pour deux raisons. La première, c’est qu’elle demande de chauffer du calcaire (et quelques autres composés minéraux) à des températures d’environ 1500 °C, ce que l’on fait généralement en brûlant des hydrocarbures. La seconde raison, c’est que ce chauffage vient briser des carbonates (CaCO3) contenus dans le calcaire, ce qui relâche encore plus de CO2.

Il ne fait aucun doute qu’à pleine capacité, la cimenterie McInnis ajoute environ 2 % aux émissions québécoises. Le dernier bilan du ministère de l’Environnement parle de près de 79 millions de tonnes d’équivalent CO2 par année [bit.ly/2NM4Obc], et de l’aveu même du directeur de la cimenterie de Port-Daniel, celle-ci doit rejeter 1,76 Mt annuellement  — donc 2,2 % du total.

Maintenant, à plus large échelle, est-ce que le ciment de McInnis va venir s’ajouter à la production mondiale, ou est-ce qu’il va remplacer celui d’installations plus anciennes, moins compétitives et moins «vertes», qui seront éventuellement poussées à la fermeture (ce qui serait donc une bonne chose, finalement)?

C’est un argument souvent évoqué par les porte-paroles de la cimenterie elle-même. Et il semble effectivement y avoir un fond de vérité là-dedans : pour chaque tonne de ciment produit, la cimenterie de Port-Daniel dit émettre 790 kg de CO2, ce qui est moins que la moyenne nord-américaine de 900-935 kg, selon le Centre pour le climat de l’Université Columbia.

Notons qu’il n’a pas été possible de valider directement ce chiffre de 790 kg de CO2 par tonne de ciment. Les émissions de la cimenterie sont publiques, mais elle n’a pas voulu dévoiler sa production de ciment.

Il est par ailleurs prévu que les nouvelles installations gaspésiennes finissent par intégrer de la biomasse à leurs sources de carburant, ce qui réduirait ses émissions de 150 000 tonnes de CO2 par année, ou près de 10 %. Cependant, lorsque contactée par Le Soleil, la porte-parole de la cimenterie Maryse Tremblay n’a pas donné d’échéancier pour la réalisation de ce projet, se contentant de dire que l’étude de faisabilité «devrait être terminée dans les prochains mois». Il faudra donc attendre encore pour voir si cette part des promesses de McInnis se réalise.

Quoi qu’il en soit, «c’est un débat qui est très proche de celui sur les pipelines, remarque le chercheur Pierre-Olivier Pineau, de la Chaire en gestion de l’énergie des HEC Montréal : si on empêche la construction d’un pipeline, est-ce qu’on va vraiment avoir une influence sur la consommation d’hydrocarbures [NDLR : qui est la principale source de GES]?»

De manière générale, dit-il, la réponse est plutôt non. La fermeture de la raffinerie de Shell à Montréal en 2011 en est une belle illustration : cela n’a pas fait diminuer la consommation d’essence au Québec, ni même ralenti l’engouement des Québécois pour les véhicules énergivores comme les VUS. Cela n’a essentiellement que déplacé le site de production du carburant vers les autres raffineries du continent. Et on peut penser que la même règle prévaut pour le ciment.

En outre, ajoute M. Pineau, «si on veut s’opposer aux nouveaux émetteurs, alors arrive la question : est-ce qu’on ne va garder que les vieilles installations moins performantes? Et ce ne serait pas une bonne chose.»

Tout cela est vrai, confirme pour sa part un autre expert en politiques énergétiques, le physicien de l’Université de Montréal Normand Mousseau. Cependant, depuis le Protocole de Kyoto (1997) la compatibilité des GES se fait sur une base territoriale, là où ils sont émis, «alors il faut jouer avec les règles actuelles, qui ont leurs qualités et leurs défauts», indique-t-il.

«En principe, la solution parfaite serait de dire que c’est le consommateur final qui va payer, avec une taxe qui suit le produit jusqu’à la fin, où c’est le client qui la paye. Mais ça impliquerait de mettre en place tout un système de suivi qui serait assez lourd», dit M. Mousseau.

Alors dans le système actuel (imparfait) où les émissions sont comptabilisées sur une base territoriale, l’arrivée de Ciment McInnis dans le décor représente effectivement une hausse du bilan carbone du Québec. Mais si d’autres cimenteries arrêtent leur production ailleurs sur le continent, la baisse de GES qui y est associée sera comptabilisée là où elle se produira.

LE VERDICT

À l’échelle québécoise, oui, l’arrivée de Ciment McInnis représente une hausse des GES, de l’ordre de 2 %. Mais à plus grande échelle, tout indique que non : à terme, la production de Port-Daniel ne s’ajoutera pas au reste, mais va remplacer une partie de la production actuelle, apparemment de manière plus propre.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: les sondages influencent-ils le vote?

Vérification faite

Vérification faite: les sondages influencent-ils le vote?

L’AFFIRMATION: «Les sondages sont de plus en plus nombreux et de plus en plus pointus [par circonscription] pendant les campagnes électorales, et on entend souvent dire qu’ils influencent le vote. Mais jusqu’à quel point est-ce vrai? Y a-t-il des études là-dessus? Des gens sont-ils vraiment tentés de voter comme la majorité ou alors contre un candidat, et ainsi priver un tiers parti des votes nécessaires à sa survie?» demande Gilles Labrecque, de Saint-Jean-Port-Joli.

LES FAITS

Sans le contexte, la plupart des gens diraient que la citation suivante doit dater d’il y a à peine 10 ou 15 jours, alors que la campagne fédérale s’achevait : «Était-il bon ou néfaste que ces sondages aient été rendus publics? Ces chiffres peuvent-ils avoir influencé l’opinion publique? Et si tel est le cas, était-ce une mauvaise influence?»

En fait, il s’agit d’un extrait du livre Are Opinion Polls Useful? (Les sondages d’opinion sont-ils utiles?), qui fut publié en… 1946, lit-on sur le site de l’Association d’histoire américaine. Alors oui, il y a eu des études sur l’influence des sondages et, depuis le temps, il y en a même eu beaucoup.

Que disent-elles? Dans l’ensemble, on ne peut pas dire que leurs résultats montrent clairement une influence des sondages sur le vote populaire. Du moins, pas une grosse, et pas au sens où on l’entend habituellement, où des individus décident de changer leurs intentions de vote pour «suivre» la majorité — j’y reviens tout de suite. Certaines études ont trouvé des signes d’un effet des sondages, mais d’autres non.

Par exemple, une étude danoise récente a comparé les intentions de vote de trois groupes lors d’une campagne électorale. Un groupe s’est simplement fait demander pour qui ils comptaient voter : 18 % d’entre eux ont dit qu’ils comptaient appuyer le Parti social-démocrate (PSD). Un autre groupe a dû lire au préalable un (faux) article de nouvelle sur un sondage qui montrait prétendument le PSD en perte de vitesse : 16 % ont ensuite dit qu’ils allaient voter PSD. Et un troisième groupe a été exposé à un autre faux sondage qui indiquait, lui, que le PSD était en progression : 22 % de ces gens ont ensuite affirmé qu’ils appuieraient le PSD.

Cependant, les différences entre ces groupes n’étaient pas toutes «statistiquement significatives», ce qui signifie que les chances pour que ces écarts soient simplement dus au hasard sont trop fortes pour qu’on les considère tous comme «réels». Et ce, même si l’échantillon était assez grand (autour de 600 personnes par groupe), ce qui suggère fortement que l’effet des sondages, en présumant qu’il existe, serait plutôt faible.

D’autres travaux ont eux aussi conclu à un effet réel, mais assez faible (par exemple : stanford.io/34jyAdR), mais il y a aussi des études qui n’ont pas trouvé de signes montrant que les sondages ont vraiment un «effet de contagion» (les gens suivent la majorité) ou de «découragement» (des électeurs qui ne votent pas parce qu’un autre parti que le leur semble trop fort). Ainsi, des chercheurs des universités de Montréal, McGill et Waterloo ont publié l’année dernière des résultats portant précisément là-dessus dans la revue Options politiques. Il s’agissait de sondages «en deux temps» administrés avant et après les élections fédérales et provinciales de 2007 à 2015 au Québec. Et en demandant aux participants s’ils lisaient les sondages, ces chercheurs ont réalisé qu’en fait, les électeurs qui prêtent le plus attention aux sondages sont ceux qui sont les moins susceptibles de changer de parti au cours de la campagne. De plus, leur taux de participation est plus élevé que la moyenne (donc pas d’effet de découragement) et ils ne sont pas plus nombreux que les autres à voter pour le parti qui est en tête dans les sondages.

Ce sont là des comportements qui ne sont pas du tout cohérents avec l’idée que les sondages influencent vraiment le vote. Et ils ne surprennent plus la chercheuse Claire Durand, spécialiste des sondages de l’Université de Montréal et coauteure de cette étude : «Ça fait cinq élections qu’on fait cet exercice-là et qu’on voit la même chose à chaque fois», m’a-t-elle dit en entrevue.

Ces résultats montrent par ailleurs que les électeurs les plus susceptibles de changer leur fusil d’épaule pendant une campagne électorale sont ceux qui ont l’intention de voter pour des «petits» partis. Par exemple, aux provinciales de 2008, les partisans de Québec solidaire, d’Option nationale et du Parti vert ont été (proportionnellement) entre 3 et 17 fois plus nombreux à changer d’idée avant le scrutin que ceux du Parti québécois.

Évidemment, on peut voir là-dedans un signe que les sondages favorisent le «vote stratégique» (voter pour un choix autre que son favori afin de bloquer un autre parti), et il est entièrement possible que les sondages aient ce genre d’effet. Mais il s’agit là d’un «effet d’information», souligne Mme Durand, pas d’un effet d’influence (au sens de «contagion») à proprement parler, comme on l’entend si souvent.

«Tout indique, concluent Mme Durand et ses collègues dans Options politiques, que la décision prise par les électeurs dépend beaucoup plus des positions et messages véhiculés par les partis et leurs chefs, ou du simple attachement à un parti, que de l’information que fournissent les sondages sur la popularité des partis. Nous pensons qu’il y a une surestimation de l’effet des sondages dans la sphère et les débats publics, puisque les analyses montrent que les sondages n’ont pas une influence importante sur le choix électoral des citoyens. Ils sont plutôt une information parmi d’autres utilisée dans le processus de décision.»

LE VERDICT

Loin d’être clair. Certaines études suggèrent que les sondages provoquent bel et bien un effet d’entraînement à la faveur du meneur ou d’un parti en progression, mais d’autres travaux arrivent à des conclusions contraires. Dans tous les cas, si effet il y a, il semble qu’il soit de faible envergure.

Vérification faite: le cochon est-il capable d'«espoir»?

Vérification faite

Vérification faite: le cochon est-il capable d'«espoir»?

L’AFFIRMATION: «Une campagne publicitaire dans le métro de Montréal a fait grand bruit récemment. On pouvait y lire plusieurs affirmations sur ce que ressentent les animaux, comme “Ils nourrissent des espoirs comme nous”. Alors je me demandais : est-ce vrai? Est-ce que des études démontrent que les animaux de ferme ont de tels sentiments?» demande Yvan Bastien, de Sainte-Anne-des-Plaines.

LES FAITS

De manière générale, il existe un consensus solidement établi chez les spécialistes du comportement pour dire que les animaux ressentent des sentiments — en tout cas ceux qui ne sont pas trop primitifs, mais cela inclut certainement les animaux de ferme. Cela a été démontré de multiples manières telles que la mesure d’hormones associées à des émotions (l’adrénaline ou la sérotonine, par exemple) et l’observation des comportements (comme les signes d’attachement entre une mère et ses petits).

Mais ressentent-ils ces sentiments «comme nous», ainsi que l’affirmait la campagne du groupe animaliste Be Fair Be Vegan le mois dernier dans ses affiches du métro de Montréal? Et ces sentiments incluent-ils l’«espoir», qui implique une certaine conception du futur et la faculté de formuler des attentes? Ce sont des questions auxquelles il est beaucoup, beaucoup plus difficile de répondre, estiment deux experts consultés par Le Soleil, soit le vétérinaire de l’Université de Montréal Émile Bouchard et le spécialiste du comportement et du bien-être animal de l’Université Laval Jaimie Ahloy Dallaire.

Il est évident que des différences majeures doivent exister puisque les émotions sont situées dans le cerveau, et que le cerveau humain diffère beaucoup de celui des animaux, à bien des égards, dit ce dernier. Mais on a aussi des raisons de croire qu’il y a des ressemblances significatives, notamment parce que dans tous les cas, «les émotions sont des adaptations évolutives. Nous avons peur parce que ça nous motive à éviter le danger; faim parce que ça nous motive à nous alimenter. Ultimement, ces actions augmentent notre capacité à survivre et à nous reproduire. Dans cette perspective, on peut s’attendre à ce que les espèces ayant une histoire évolutive partagée aient des émotions en commun, qui fonctionnent à peu près de la même façon».

Reste à savoir jusqu’à quel point, ce qui n’est pas une mince tâche...

«Ce que je peux vous dire, ajoute pour sa part M. Bouchard, c’est que la vache [sa spécialité, NDLR] est un animal grégaire qui est considéré comme une proie plutôt qu’un prédateur. Il est bon de se rappeler que la vache est un animal domestique qui n’existe plus à l’état sauvage. Le fait d’être protégée dans une étable à logette avec des matelas, hébergée avec des congénères et nourrie deux fois par jour réduit beaucoup le stress chez la vache. De plus, avec l’introduction des robots de traite, on diminue de plus en plus le stress lié à la manipulation des animaux par l’humain. […] Est-ce que la vache est heureuse et se préoccupe du sort du Canadien de Montréal? Je ne sais pas, à moins de tomber dans l’anthropomorphisme. Est-ce que la vache souffre dans les conditions d’élevage actuelles? Non, selon mes connaissances et mes relations de médecin vétérinaire avec les vaches.»

M. Dallaire, de son côté, est d’accord pour dire que la domestication a beaucoup changé le comportement des animaux de ferme, mais il signale quand même qu’il reste encore des vestiges évidents des instincts passés. Par exemple, illustre-t-il, même de nos jours la truie a le réflexe de se construire un nid juste avant de mettre bas, dans la mesure où on lui donne le matériel qu’il faut. Si elle ne le peut pas, ce qui est habituellement le cas dans les élevages, elle devient plus agitée pendant la période de «nidification» — mais même là, nuance le chercheur, il est difficile de dire si l’on a affaire à une recherche «frustrée» de matériaux ou à une agitation due à autre chose.

«Est-ce que l’animal souffre de ne pas pouvoir s’adonner à ce comportement naturel? Ou, à l’inverse, est-ce qu’il le fait s’il en a la possibilité, mais sans s’en ennuyer s’il ne le peut pas? On peut poser ces mêmes questions pour le tétage chez le veau, le broutage dans l’herbe chez la vache, l’utilisation d’une bauge chez le porc, l’utilisation de perchoir ou le bain de sable chez la poule, le jeu chez les juvéniles de plusieurs espèces et ainsi de suite. Il n’est pas si facile de trouver une réponse pour chaque comportement chez chaque espèce. [...] C’est vraiment au cas par cas : les recherches jusqu’ici tendent à démontrer que certains comportements naturels pourraient être des besoins, d’autres non», explique M. Dallaire.

On trouve un flou du même genre autour de la notion d’«espoir». On a de bonnes indications que les animaux sont capables de se projeter dans l’avenir, explique M. Dallaire. Par exemple, des chercheurs ont fait l’expérience de placer des geais, une espèce connue pour faire des réserves de nourriture, trois jours dans un compartiment où ils pouvaient s’alimenter à leur guise, puis trois jours dans un autre compartiment sans nourriture. Ensuite, on a (re)nourri les oiseaux avant de leur donner des noix à stocker — et c’est principalement dans le second compartiment, celui où ils avaient dû jeûner, qu’ils ont caché leurs réserves.

Donc la base pour concevoir des «espoirs» est là, mais cela ne prouve pas pour autant qu’ils le font. «Bref, résume M. Dallaire, est-ce qu’une vache espère donner naissance à un veau, l’élever, le voir grandir? Je ne pense pas qu’on soit en mesure pour l’instant [de ce que j’en sais] d’affirmer que oui ou que non. C’est une réponse plate, mais ce n’est vraiment pas facile à étudier.»

VERDICT

Pas clair du tout. Il est acquis que les animaux ont des émotions, des sentiments, mais il n’est ni évident, ni démontré qu’ils les ressentent «comme nous». Plus particulièrement, la même incertitude prévaut pour leur faculté à «espérer» : on est sûr qu’ils ont une certaine conception du futur, mais de là à leur prêter des «espoirs comme nous», il y a un grand pas que la science ne permet pas de franchir, du moins pas pour l’instant.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: 53 milliards$ de coupes conservatrices?

Vérification faite

Vérification faite: 53 milliards$ de coupes conservatrices?

L’AFFIRMATION: «Les conservateurs ont attendu jusqu’à la dernière minute pour essayer de partager leur plateforme en catimini parce qu’ils ne veulent pas que les gens voient à quel point c’est 53 milliards $ de coupures qu’ils vont infliger aux Canadiens», a scandé le chef libéral Justin Trudeau en réaction à la publication du programme chiffré des conservateurs, qui prévoit juguler le déficit fédéral d’ici 2024-25.

LES FAITS

Les intentions que M. Trudeau prête à ses adversaires — «attendu jusqu’à la dernière minute», «en catimini», «ne veulent pas que les gens voient» — ne sont pas vérifiables dans une chronique comme celle-ci. Mais le montant des coupes annoncées par le chef conservateur Andrew Scheer le week-end dernier, lui, l’est tout à fait.

Le plan du PCC se chiffre en deux parties. Dans l’une, il annonce de nouvelles dépenses et réductions d’impôts. Dans l’autre, il détaille des «mesures d’économie et de recettes», c’est-à-dire des coupes et des actions destinées à augmenter les revenus du gouvernement (la lutte à l’évasion fiscale, par exemple). Parmi les «mesures d’économie», les principales sont un allongement du plan libéral d’infrastructures (187 milliards $ sur 15 ans au lieu de 12, ce qui dégage 18 milliards $ d’économie sur cinq ans) et des «réductions des dépenses de fonctionnement» (19 milliards $ sur cinq ans). Notons que les conservateurs nient que d’étaler le plan d’infrastructures sur trois ans de plus est vraiment une «coupure» puisqu’ils prévoient dépenser les mêmes sommes — juste sur une période plus longue. Il y a un fond de vérité dans cet argument, disons-le, mais comme l’effet final demeure de réduire les dépenses annuelles en infrastructures, je l’ai quand même rangé parmi les coupes.

À partir de là, il y a deux grandes manières de mesurer l’effort budgétaire que proposent les conservateurs. On peut ne regarder que les coupes et en faire l’addition. C’est ce que semble faire M. Trudeau puisque j’arrive personnellement à 57 milliards $ de réduction des dépenses au cours du prochain mandat.

Ce n’est «pas faux», comme on dit, mais cela donne quand même un portrait incomplet de la situation. Par exemple, si un gouvernement procède à des coupes à hauteur, disons, de 10 milliards $, mais engage pour 20 milliards $ de nouvelles dépenses par ailleurs, on ne peut pas vraiment dire qu’il mène une politique d’austérité juste à cause de ses 10 milliards $ d’économie.

Si l’on veut tenir compte aussi des nouvelles dépenses prévues par les conservateurs, on peut simplement regarder leurs soldes budgétaires annuels pour le prochain mandat. Leur point de départ est un déficit de 23 milliards $ en 2020-21, qu’ils coupent de 8 milliards $ l’année suivante, puis de 5 à 6 milliards $ par année jusqu’à 2024-25. Au total, cela donne environ 24 milliards $ de coupes budgétaires au cours du prochain mandat.

Or comme une réduction du déficit était déjà prévue par le Directeur parlementaire du budget, on peut aussi comparer le plan conservateur à ces prévisions. On doit alors parler de 17 milliards $ de coupes additionnelles par rapport à ce qui était déjà prévu. Dans les deux cas, c’est nettement moindre que les 53 milliards $ dont parle M. Trudeau.

Il faut cependant ajouter une dernière précision au sujet de la plateforme conservatrice. Elle prévoit environ 49 milliards $ de nouvelles «dépenses» au cours du prochain mandat, mais sur cette somme, j’ai compté 34 milliards $ en baisses d’impôts et de taxes diverses. D’un point de vue comptable, l’effet est le même que celui d’une dépense, et c’est la raison pour laquelle plusieurs partis politiques (et pas seulement le PCC) comptent leurs promesses d’allégements fiscaux comme des «dépenses». Ce n’est pas illégitime.

Mais cette classification a toujours laissé un certain nombre d’observateurs un peu perplexes parce que les baisses d’impôts ne sont pas des «dépenses» à proprement parler, mais plutôt une diminution des revenus de l’État. Il n’y a rien de mal à réduire les impôts, remarquez, mais du point de vue de l’«austérité», certains peuvent trouver que cela ne peut pas compter comme une dépense — ce qui n’est pas illégitime non plus.

VERDICT

Incomplet. Il y a bel et bien plus de 50 milliards $ en réduction de dépenses dans la plateforme conservatrice. Mais cela ne tient pas compte des dépenses supplémentaires prévues par le PCC. Si l’on ramène ces dépenses dans le portrait, les coupes conservatrices sont deux à trois fois moindres, selon la façon retenue pour les calculer.

Vérification faite: la pénurie de main-d’œuvre plus sévère en région?

Vérification faite

Vérification faite: la pénurie de main-d’œuvre plus sévère en région?

L'AFFIRMATION: «C’est un enjeu qui touche le Québec entier, mais particulièrement les régions plus éloignées. Partout, les entreprises ont de la difficulté à embaucher du personnel et sont contraintes de réduire leurs activités, voire à fermer leurs portes. Le fédéral, cet ordre de gouvernement loin des gens et surtout des régions, semble inconscient de l’ampleur du problème et n’apporte aucune solution. Nous proposons donc aujourd’hui toute une série de mesures concrètes pour venir en aide à nos économies régionales», a déclaré le chef du Bloc québécois, Yves-François Blanchet, lors d’un point de presse récent [http://bit.ly/2ICpL6A].

LES FAITS

Les économistes ne s’entendent pas tous sur le terme à employer, mais l’idée qu’une «pénurie» ou qu’une «rareté» assez prononcée de la main-d’œuvre affecte présentement le Québec rallie une majorité d’observateurs. La question est : est-il vrai que le phénomène affecte davantage les régions que les grandes villes?

Une mesure classique des pénuries de main-d’œuvre est le «taux de postes vacants» — soit le pourcentage de tous les emplois (occupés ou vacants) qui restent à pourvoir. Statistique Canada en fait d’ailleurs un décompte trimestriel. Or, si ces chiffres montrent bel et bien une rareté de travailleurs qui s’aggrave, on n’y voit nulle part de signe qu’elle est plus sévère en région qu’en ville. Dans les régions urbaines (Montréal, Laval, Québec et Outaouais) ou dont la population est nettement dominée par la banlieue d’un grand centre urbain (Lanaudière, par exemple), le taux de postes vacants est passé de 1,8 % en 2015 à 3,5 % pendant la première moitié de 2019. Dans les «régions», ce même indicateur a cru de 1,6 à 3,5 %.

(J’ai aussi fait ce même calcul en classant les endroits qui ont «une fesse en ville et une fesse en campagne» [Laurentides, Lanaudière et Montérégie] dans les «régions», et cela n’a presque pas changé le résultat.)

Il y a bel et bien certaines régions où les employeurs semblent avoir plus de difficultés que le reste du Québec à embaucher : Chaudière-Appalaches affiche un taux de postes vacants de 4,2 %, par exemple. Mais il y en a aussi d’autres où c’est l’inverse — le Saguenay–Lac-Saint-Jean est à 2,7 % et la Gaspésie, à 3,0 %.

Dans une étude publiée en mars dernier, Desjardins a trouvé essentiellement la même chose, soit qu’il y a des régions et des secteurs où c’est pire, et d’autres où ça l’est moins. Et les quelques économistes que j’ai sollicités partagent grosso modo le même constat : rien n’indique que c’est vraiment pire en régions qu’en ville.

Luc Bissonnette, de l’Université Laval, est du nombre. «Ça ne veut pas dire que c’est facile en région, souligne-t-il. C’est juste que c’est difficile partout, mais pour des raisons qui peuvent être différentes. Les régions ont des structures démographiques très différentes des villes. C’est très difficile pour elles d’attirer de nouveaux travailleurs. […] Les villes n’ont pas ce problème-là, mais la croissance est très forte dans plusieurs secteurs.»

En principe, ajoute-t-il, une pénurie de main-d’œuvre entraîne les salaires à la hausse. «Il y a des secteurs où c’est le cas. Par exemple, on voit de plus en plus de restaurateurs afficher des postes pas mal en haut du salaire minimum. Ça, c’est un signe qu’on a affaire à une pénurie. Mais dans plusieurs autres secteurs, ce n’est pas évident.»

C’est la raison pour laquelle M. Bissonnette n’est pas convaincu qu’on ait vraiment affaire à une «pénurie» de main-d’œuvre au sens classique — c’est-à-dire une demande de travail qui serait clairement supérieure à l’offre. «J’aime bien faire la comparaison avec une offre pour acheter une Lamborghini à 15 000 $, illustre-t-il. Le fait que personne ne veuille me vendre cette voiture à ce prix n’est pas un indicateur d’une pénurie, mais plutôt que mon offre est sous le prix du marché. En ce moment, plusieurs postes vacants offrent tout simplement des conditions qui n’intéressent pas les travailleurs.»

M. Bissonnette admet toutefois d’emblée que sa position est minoritaire et que beaucoup de ses collègues économistes parlent de «pénurie».

VERDICT

Faux. La «pénurie» ou la «rareté» de main-d’œuvre, peu importe comment on l’appelle, est une réalité indéniable, mais rien n’indique pour l’instant que les régions en souffrent davantage que les principaux centres urbains du Québec.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: 2 milliards d’arbres contre les GES?

Vérification faite

Vérification faite: 2 milliards d’arbres contre les GES?

L’AFFIRMATION: «Cela nous aidera aussi à atteindre près de 40 % de nos cibles de réduction des émissions [de gaz à effet de serre]», lisait-on dans un communiqué de presse du Parti libéral du Canada à propos de sa promesse de planter 2 milliards d’arbres d’ici 10 ans.

LES FAITS

Il est vrai que les arbres captent du CO2 dans l’atmosphère pour le transformer (avec de l’eau et de l’énergie solaire) en sucres. La question est : 2 milliards d’arbres en capteront-ils suffisamment pour combler 40 % des cibles canadiennes de GES?

Les objectifs du Canada en cette matière sont ceux de l’Accord de Paris, dont les signataires se sont engagés à ramener d’ici 2030 leurs émissions à 30 % sous leurs niveaux de 2005. Le Canada a rejeté 732 mégatonnes (Mt) de gaz carbonique (et équivalents) en 2005, si bien qu’il doit couper ce chiffre de 219 Mt d’ici la fin des années 2020. Les libéraux ont également évoqué une autre cible dans leur communiqué, soit celle d’en arriver à «zéro émission nette» d’ici 2050.

Or, dans un cas comme dans l’autre, les 2 milliards d’arbres sont loin de représenter 40 % des objectifs. Le premier ministre Justin Trudeau a indiqué en conférence de presse que ces arbres allaient retirer 30 Mt de CO2 de l’atmosphère d’ici 2030. Mais cela représente moins de 14 % de l’Accord de Paris (-219 Mt d’ici 2030).

Le constat est le même pour l’autre cible de «zéro émission nette d’ici 2050». D’après le plus récent bilan fédéral, le Canada a émis 704 Mt de GES en 2017. Si rien n’est fait au cours des trois prochaines décennies, cela représente 21 120 Mt d’émissions totales. D’après certaines sources crédibles [bit.ly/2SSe9jM et bit.ly/2K5igX5], un arbre de bonne taille peut capter environ une tonne de CO2 sur 40 ans. Si l’on présume que les 2 milliards d’arbres promis survivent tout ce temps, cela représente donc à 2000 Mt d’ici 2060, donc moins de 10 % de l’objectif à atteindre — avec 10 ans de retard. Et encore, c’est un calcul très optimiste. Par exemple la firme québécoise Arbre Évolution, qui a notamment travaillé avec le Grand Prix de Trois-Rivières pour compenser ses émissions, compte toujours beaucoup moins qu’une tonne par arbre afin de tenir compte de la mortalité, notamment.

Alors comment le PLC arrive-t-il à ce chiffre de 40 %? D’après les réponses des relationnistes du parti, il semble que les libéraux se soient livrés à quelques manipulations statistiques. Environnement Canada a récemment fait des modélisations pour tenter de prédire l’effet des mesures adoptées (taxe sur le carbone et autres) sur les émissions à venir, et a conclu qu’elles n’étaient pas suffisantes pour respecter l’Accord de Paris : les mesures actuellement en vigueur ou prévues manqueraient la cible par 79 Mt [bit.ly/2ntnVh7, p. 5/29]. Et c’est à ce 79 Mt que les libéraux ont comparé le 30 Mt qui sera capté par les arbres plantés, ce qui fait 38 %.

Si l’on appelle les choses par leur nom, cependant cela représente donc 38 % du chemin qu’il resterait à parcourir, pas 38 % «des objectifs».

Et soulignons que l’on parle ici de projections : on n’est pas sûr que les mesures en place réduiront les émissions de GES autant que ne le prévoient les modèles.

Dernier élément pertinent : quand on compense des émissions en plantant des arbres, la règle générale est qu’il faut avoir une forme de «garantie» que les arbres seront conservés pendant au moins 30 ans, sinon 50 — le propriétaire du terrain où ils sont plantés peut s’y engager dans un contrat, par exemple. Or le PLC a éludé une question explicite du Soleil sur ces garanties, disant simplement que «nous travaillerons avec des experts» et «[réfléchirons] soigneusement au type d’arbres que nous plantons et à l’endroit où nous les plantons afin d’arriver à notre objectif».

LE VERDICT

Très exagéré. Pour arriver au chiffre de 40 %, les libéraux ont dû jouer avec les chiffres : ils ont comparé l’effet de leur promesse non pas aux objectifs de l’Accord de Paris, mais au chemin qu’il resterait à faire (en présumant que certaines prévisions se réalisent), ce qui gonfle artificiellement le pourcentage. En réalité, les 2 milliards d’arbres plantés représentent moins de 15 % des objectifs fédéraux.

Vérification faite: le poids de la dette fédérale diminue-t-il?

Vérification faite

Vérification faite: le poids de la dette fédérale diminue-t-il?

L’AFFIRMATION: «Justin Trudeau dit que le déficit n’est pas important puisque la dette diminue par rapport au PIB [une mesure de la taille de l’économie, ndlr]. Or, il me semble que ce sont plutôt les revenus du gouvernement qu’il faut considérer puisque ce que sont eux qui servent à rembourser la dette et payer les intérêts. Et en 2018, le gouvernement canadien avait un revenu d’environ 300 milliards et une dette de 775 milliards $», demande Léandre Bouchard.

LES FAITS

Ce sont effectivement les revenus gouvernementaux qui payent la dette et ses intérêts. Mais ces revenus proviennent eux-mêmes de l’activité économique, via les impôts et taxes, royautés, etc. Si l’économie se porte mal, alors il y a moins d’emplois (donc moins de revenus à imposer), les gens et les entreprises dépensent moins (donc moins d’achats à taxer), et cela se répercute sur le trésor public. On l’a bien vu lors de la grande crise économique de la fin des années 2000 : les revenus du fédéral sont passés de 253 milliards $ en 2008 à 237 milliards $ l’année suivante, un recul d’une quinzaine de milliards.

Alors ultimement, oui, c’est la taille de l’économie qui fait foi de la capacité de payer d’un gouvernement, et c’est presque toujours elle qui sert de point de comparaison aux comptables et aux économistes quand ils veulent savoir si la dette publique est «trop lourde» ou non. Ils expriment alors la dette en pourcentage du PIB.

Ce ratio a déjà été énorme : au milieu des années 1990, après des décennies de grandes dépenses et de déficits chroniques, la dette nette représentait pas moins de 67 % du PIB. Ottawa (sous Jean Chrétien) a alors sabré dans ses dépenses et a éliminé son déficit, puis s’est mis à rembourser la dette publique petit à petit. Le gouvernement conservateur de Stephen Harper a maintenu cette discipline par la suite, jusqu’à ce que la crise de 2008-2009 le contraigne à dépenser davantage afin d’amoindrir les effets de la récession. Le gouvernement Harper avait cependant rééquilibré ses finances par la suite et le ratio dette-PIB a recommencé à baisser dès 2013.

Alors, est-ce que la tendance s’est poursuivie même si Ottawa s’est remis à faire des déficits sous le gouvernement Trudeau? La réponse est «plutôt oui». Le premier budget du gouvernement Trudeau, arrivé au pouvoir à la fin de 2015, fut l’exercice financier 2016-2017. La dette représentait alors 32,1 % du PIB. L’année suivant, ce ratio était descendu à 31,3 % et, en date de mars dernier, il n’était plus que de 30,9 %, pour un total de 685 milliards $ de dette fédérale.

Aux fins de comparaison, il s’agit du plus bas ratio parmi les pays du G7.

Il y a cependant trois choses à ajouter, ici, si l’on veut dresser un portrait complet. D’abord, le premier budget Trudeau a vu le ratio dette-PIB augmenter légèrement par rapport au dernier budget Harper, de 31,9 à 32,1 %. On ne peut donc pas dire qu’il a diminué pendant vraiment toutes les années Trudeau (même si ce fut le cas pour presque toutes).

Ensuite, lors de la campagne électorale de 2015, le Parti libéral avait promis de juguler le déficit d’ici 2019-2020, mais son déficit prévu pour l’année en cours est de près de 20 milliards — en hausse par rapport aux années précédentes — et il n’y a tout simplement plus de date prévue pour l’atteinte du déficit zéro : le dernier budget ne prévoyait qu’une réduction graduelle du déficit pendant le prochain mandat, jusqu’à 10 milliards $ en 2023-2024. Dans leur plateforme dévoilé dimanche, les libéraux annoncent maintenant un «trou» de 27 milliards $ pour la première année de mandat, déficit qu'ils ramèneront à 21 milliards $ en 2023-24. La dette représenterait alors 30,2 % du PIB et serait donc toujours en diminution — mais ce sont là des prédictions, donc pas nécessairement ce qui va réellement se passer.

Enfin, et c’est peut-être le point le plus important, ces déficits surviennent dans un contexte de croissance économique. En général, on réserve l’encre rouge aux périodes de récession, pour stimuler l'économie, et l'on doit en principe ne pas faire de déficits en période de croissance, afin d'éviter que l'économie ne surchauffe. C’est une discipline qu’avaient scrupuleusement observée les gouvernements Chrétien-Martin, puis Harper pendant près de 20 ans. Alors même si la situation a globalement continué de s’améliorer sous Justin Trudeau, son approche des déficits n’en demeure pas moins une cassure par rapport à ses prédécesseurs.

LE VERDICT

Plutôt vrai. Depuis l’arrivée des libéraux au pouvoir, le rapport de la dette sur le PIB a presque toujours baissé, ce qui indique bel et bien qu’elle devient de plus en plus facile à assumer, comparé à la capacité du fédéral de payer. L’approche du gouvernement Trudeau à l’égard des déficits constitue tout de même un changement de philosophie par rapport à la discipline d’Ottawa depuis la fin des années 1990.

Vérification faite: de mal en pis pour la classe moyenne?

Vérification faite

Vérification faite: de mal en pis pour la classe moyenne?

L'affirmation: «J’aimerais dire que la vie est plus facile pour la classe moyenne canadienne, mais je ne le peux pas. Les gens travaillent plus fort que jamais, mais peinent à joindre les deux bouts», a déclaré le chef conservateur Andrew Scheer, plus tôt cette semaine, alors qu’il annonçait des baisses d’impôts pour venir en aide à la classe moyenne.

Les faits

Qu’il faille baisser les impôts ou non ne concerne pas de la vérification factuelle — cela relève en bonne partie des valeurs individuelles. Mais la question de savoir si la situation des classes moyennes se dégrade, si les gens triment de plus en plus pour, en bout de ligne, voir leurs finances stagner ou se détériorer, elle, se vérifie.

Le déclin de la classe moyenne est un phénomène assez bien documenté aux États-Unis, où les salaires n’ont pas suivi le coût de la vie. Mais c’est beaucoup moins clair en ce qui concerne le Canada et le Québec. En fait, selon des chiffres de Statistique Canada, même en tenant compte de l’inflation, le revenu médian est passé de 57 000 $ en 2000 à 67 000 $ en 2017 (en dollars constants de 2017). De la même manière, le taux de pauvreté qui oscillait entre 12 et 15 % dans les années 90, est passé à 10-12 % dans les années 2000, puis autour de 10 %.

Dans une étude parue en 2014, le Centre de recherche en fiscalité et finances publiques de l’Université de Sherbrooke n’a pas trouvé de raison de croire que la classe moyenne s’érodait au Québec ou au Canada. Cependant, les auteurs ont constaté que les transferts gouvernementaux et la fiscalité jouaient un rôle plus important qu’avant pour «protéger» la classe moyenne. Ainsi, si l’on ne regarde que les «revenus de marché avant impôts» (salaires et autres sources de revenus «privés», grosso modo), la proportion des ménages québécois qui faisaient partie de la classe moyenne est passée de 37 à 29 % entre 1976 et 2010. Mais si l’on tient compte des transferts (allocations familiales et autres) et de l’impôt, alors cette proportion s’est maintenue autour de 46 % depuis une quarantaine d’années, ont conclu les chercheurs.

On pourrait sans doute interpréter ce dernier point comme montrant que la classe moyenne québécoise ou canadienne est quand même «sous pression», jusqu’à un certain point. Ce ne serait pas farfelu, mais ce n’est pas un signal très fort non plus.

Or il y a tout de même quelques indicateurs qui suggèrent une «pression» plus forte qu’avant sur M. et Mme Tout-le-Monde. Les Canadiens ont beau avoir de meilleurs revenus (même en tenant compte de l’inflation), ils sont aussi plus endettés qu’avant — en bonne partie parce que le prix des logements a énormément augmenté depuis 20 ans.

En 1990, la dette des ménages canadiens représentait en moyenne 87 % de leurs revenus annuels. En 2005, c’était presque 130 %. Et en 2018, on en était à 175 %. Comme l’hypothèque représente une grande partie de ces dettes, la valeur de ce que les gens possèdent a elle aussi augmenté, si bien que le ratio actif-passif s’est maintenu autour de 17 % depuis 1990. Mais le fait que les dettes totales aient augmenté beaucoup plus vite que les revenus demeure significatif.

Le nombre de gens «insolvables» (qui font faillite ou qui proposent un règlement à leurs créanciers en vertu de la protection de la loi sur les faillites) raconte un peu la même histoire. Au plus fort de la crise économique de la fin des années 2000, on comptait près de 6 cas d’insolvabilité par 1000 consommateurs (en 2009). Ce taux est redescendu autour de 4,3 pour 1000 et s’y est maintenu pendant les années 2010, mais cela reste nettement plus que les 2 à 3 pour 1000 des années 1990.

On ne peut donc pas dire que l’affirmation de M. Scheer ne tient sur rien. Il y a bel et bien des indicateurs (pas tous, mais quand même) qui suggèrent une détérioration des finances des ménages canadiens.

Il y a cependant un point sur lequel les faits donnent clairement tort au chef conservateur : les gens ne travaillent pas plus qu’avant. Si l’on regarde le groupe des 25 à 54 ans (afin d’éviter que des phénomènes comme la retraite ou l’entrée plus ou moins tardive sur le marché du travail ne viennent fausser les moyennes), la semaine de travail moyenne de ceux qui ont un emploi à temps plein était de 41,1 heures en 2000, contre 40,2 heures en 2018.

Verdict

Pas tout à fait vrai. Les statistiques d’endettement suggèrent bien que les ménages canadiens ont plus de mal qu’avant à joindre les deux bouts. Mais d’autres indicateurs, et non les moindres (salaires et taux de bas revenu), semblent au contraire montrer que le sort de M. et Mme Tout-le-Monde s’est amélioré depuis une vingtaine d’années. Difficile d’en conclure que cela va de mal en pis quand on considère tout cela (même si tout n’est pas rose). Une chose est claire, cependant : on ne travaille pas plus qu’avant.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: 19 G$ pour l’industrie pétrolière?

Vérification faite

Vérification faite: 19 G$ pour l’industrie pétrolière?

L’AFFIRMATION: «Je demande aux conservateurs et aux libéraux de tenir leur promesse et de mettre fin une fois pour toutes aux subventions aux énergies fossiles», a indiqué cette semaine le chef bloquiste Yves-François Blanchet, qui dénonce les «19 milliards $» en argent neuf qu’Ottawa aurait consentis à l’industrie pétrolière depuis l’arrivée des libéraux de Justin Trudeau au pouvoir, en 2015.

LES FAITS

Pour le contexte, rappelons qu’en 2009, le premier ministre conservateur Stephen Harper s’était engagé avec les autres membres du G20 à «éliminer progressivement et [à] rationaliser les subventions inefficaces aux combustibles fossiles». Pendant la campagne de 2015, le chef libéral Justin Trudeau avait repris cet engagement en y ajoutant l’échéance de 2025. Il semble cependant que le fédéral n’a pas fait beaucoup de progrès en ce sens jusqu’à présent, ont constaté le Vérificateur général en 2017 et la commissaire au développement durable le printemps dernier.

Maintenant, est-ce que le fédéral a vraiment allongé 19 milliards $ en aides diverses au secteur pétrolier (qui ne va pas très bien depuis quelques années) depuis l’arrivée des libéraux au pouvoir? Plusieurs rapports sur cette question chiffrent plutôt les «subventions» canadiennes (incluant les congés fiscaux et toute autre forme d’aide) à environ 3 milliards $ par année en comptant tous les paliers de gouvernement, dont seulement 1,2 milliard du fédéral. Le Bloc affirme que ces 19 milliards $ se sont ajoutés à cette somme.

Pour arriver à ce chiffre, le Bloc québécois a compté 1,7 milliard $ en «nouvelles lignes de crédit» pour les producteurs de pétrole, ce qui fut effectivement annoncé en décembre dernier. Les bloquistes comptent également 2,7 milliards $ d’incitatifs fiscaux consentis en novembre 2018 à toutes les entreprises canadiennes pour encourager les investissements. Ces allègements s’élèvent à 14,4 milliards $ au total, et la part projetée des pétrolières s’élèverait à 2,7 milliards $. Notons que cette somme est plus problématique puisque le communiqué du Bloc parle de sommes investies «dans le dernier mandat» alors qu’il s’agit de projections jusqu’en 2023. En outre, comme toutes les projections, il n’est pas sûr que celles-ci vont se réaliser.

Mais de toute manière, le gros du 19 milliards $ vient de l’achat du pipeline KinderMorgan par Ottawa, annoncé en 2017 pour 4,7 milliards $, et du projet d’expansion que le fédéral a repris après le désistement de l’entreprise pipelinière KinderMorgan. L’agrandissement coûtera entre 9 et 10 milliards $ et vise à «libérer» le pétrole albertain du goulot d’étranglement que représentent les pipelines actuels, qui ne suffisent pas à la tâche (ce qui déprime les prix obtenus par les producteurs des Prairies). Ces sommes-là non plus n’ont pas à proprement parler été «dépensées dans le dernier mandat», mais comme l’agrandissement de Trans Mountain devrait débuter sous peu, elles sont quand même «déjà engagées».

La question est donc : est-ce qu’on peut raisonnablement considérer ce rachat et la prise en charge de l’agrandissement comme une «subvention» ? Il est évident que cela ne correspond pas à la définition classique, mais cela n’en reste pas moins une «forme d’aide» de l’État qui s’y apparente, dit l’économiste de l’Université d’Ottawa et spécialiste du secteur de l’énergie Jean-Thomas Bernard.

«Imaginons que le fédéral ne soit pas intervenu, explique-t-il. Il est possible que KinderMorgan aurait alors décidé de tout simplement retirer son projet d’expansion. […] Alors le fédéral est arrivé et a dit : “Moi, je vais le mener à bien, ce projet-là.” Et ça, à un moment où le privé trouvait que c’était devenu trop risqué. Alors ça veut dire que c’est le fédéral qui a absorbé ce risque-là, et on peut donc considérer ça comme une forme de subvention.»

Son collègue Pierre-Olivier Pineau, de la Chaire de gestion du secteur de l’énergie (HEC), est grosso modo du même avis. Il ajoute cependant qu’«utiliser le montant total de l’achat comme une subvention est sans doute un abus parce que l’argent n’est pas entièrement donné à l’industrie [ndlr : Ottawa pourrait par exemple en tirer des revenus et/ou revendre le pipeline, mais c’est difficile d’établir la part exacte».

De son côté, l’économiste de l’Université Laval Stephen Gordon n’est «pas si sûr» qu’il s’agit bien d’une forme de subvention ou d’aide étatique. «Le fédéral avait le droit et l’obligation d’assumer ses responsabilités en ce qui concerne le commerce interprovincial. Acheter Trans Mountain était la façon le plus rapide et moins chère.

«Le fédéral était capable d’acheter Trans Mountain à un bon prix, ajoute-t-il, parce que aucun investisseur n’était prêt à faire face aux harcèlements de la Colombie-Britannique [ndlr : dont le gouvernement est farouchement opposé au projet]. Une fois l’oléoduc construit, la valeur de Trans Mountain — sans le risque politique — sera plus élevée. Bien sûr, il y a un risque, mais il est loin d’être certain que le fédéral sera perdant.»

LE VERDICT

Vrai, mais seulement en partie. Le gros du 19 milliards $ est rattaché à Trans Mountain, et a donc été dépensé ou engagé dans le dernier mandat. Il ne semble pas déraisonnable de compter ce projet dans le total, bien que les experts n’en soient pas tous convaincus. Mais comme il est possible que Ottawa tire des revenus du futur pipeline, et il est très difficile pour l’instant de déterminer quelle part des investissements fédéraux pourra être assimilée à une «subvention» ou une forme d’«aide étatique».

Vérification faite: «consensus» sur l'ère glaciaire?

Vérification faite

Vérification faite: «consensus» sur l'ère glaciaire?

L’AFFIRMATION: «Nous vivons actuellement un réchauffement planétaire. Mais dans les années 1970, apparemment, les scientifiques disaient qu’on se dirigeait vers une petite ère glaciaire. Peut-on savoir si c’était effectivement le cas et pourquoi les scientifiques le croyaient?» demande Denis Pelletier, de Québec.

LES FAITS

C’est un argument qui revient souvent chez les climatosceptiques : le consensus scientifique actuel autour du réchauffement ne veut pas dire grand-chose, avancent-ils, puisqu’il y a déjà eu un consensus scientifique sur le contraire dans les années 1970, au point que certains prédisaient une nouvelle glaciation. Alors il vaut la peine de s’y attarder.

Dans les années 1960 et 1970, la climatologie était encore une discipline très jeune qui devait travailler avec des ressources beaucoup plus limitées que de nos jours — peu de satellites, séries de données moins longues et moins nombreuses, etc. À cette époque, les chercheurs se rendaient compte qu’il y avait eu un réchauffement planétaire depuis le milieu du XIXe siècle, mais que la tendance s’était inversée et que le climat semblait refroidir depuis quelques décennies. En effet, entre le début des années 1940 et le milieu des années 1960, la température moyenne mondiale a perdu 0,4 °C et elle ne reprendra ses niveaux antérieurs qu’à partir des années 1980.

L’idée que ce refroidissement allait se poursuivre à long terme n’a toutefois jamais rallié assez de savants pour parler d’un «consensus scientifique», loin s’en faut. À l’époque, on connaissait le pouvoir réchauffant du CO2 et l’on savait que ses concentrations augmentaient dans l’atmosphère, mais on savait aussi que la pollution industrielle contenait également d’énormes quantités de particules fines et d’aérosols qui bloquent les rayons du Soleil et les renvoient vers l’espace, ce qui a un effet refroidissant. La question était alors de savoir si l’un de ces deux effets allait prévaloir à long terme, et lequel.

Dans un petit historique de la climatologie de l’époque paru en 2008 dans le Bulletin of the American Meteorological Society (BAMS), trois climatologues ont passé en revue toutes les études sur le sujet parues entre 1965 et 1979. Ils en ont trouvé sept qui penchaient en faveur du refroidissement, 20 qui étaient neutres et 44 qui estimaient que la tendance au réchauffement reprendrait dans l’avenir. Ils ont également compté le nombre de citations amassées entre 1965 et 1983 par chacun de ces articles afin d’en mesurer l’influence dans la communauté scientifique, mais cela n’a pas vraiment changé le portrait : 325 citations pour les articles en faveur du refroidissement, 424 pour les neutres et plus de 2000 pour le réchauffement.

Notons que le site climatosceptique Watts Up With That a contesté ces chiffres et a repris l’exercice à sa manière. Ce site n’est certainement pas une source aussi crédible que le BAMS et l’on peut/doit douter de ses conclusions, mais il est assez parlant que son auteur n’ait pu trouver «mieux» que 86 articles penchant pour le refroidissement, 58 neutres et 45 pour le réchauffement pour la période 1965-1979. C’est signe que même en mettant les choses au pire du pire (et peut-être même en y mettant un grain de mauvaise foi, chose que Watts Up With That, un site très orienté, a souvent été accusé de faire dans le passé), on ne peut toujours pas dire qu’il y avait un «consensus» sur le refroidissement planétaire. L’idée a déjà été débattue en science — c’est le plus loin que l’on puisse possiblement aller. Et encore, je le répète, pas si l’on se fie aux meilleures sources, comme le BAMS et des sites crédibles comme RealClimate.org et le site de la NASA.

Ce qui semble s’être passé entre 1940 et 1970, lit-on dans un résumé de la littérature scientifique paru en 2012 dans ce même BAMS, c’est que la fin de la Seconde Guerre mondiale a marqué le début d’une période de croissance économique mondiale rapide, qui s’est accompagnée d’une forte augmentation de la pollution (et donc des aérosols refroidissants). Plusieurs fortes éruptions volcaniques, qui émettent elles aussi de grandes quantités de ces aérosols, se sont aussi produites.

À partir des années 1980, cependant, les pays occidentaux ont adopté des lois pour réduire leurs émissions de ces particules et aérosols (notamment pour réduire les pluies acides), si bien que leur effet refroidissant a en bonne partie disparu, laissant plus de place à l’effet du CO2. La tendance à long terme au réchauffement a alors repris. Depuis les années 2000, cependant, on constate qu’en Inde et en Chine le rayonnement solaire est de plus en plus bloqué, à cause de la forte croissance économique de l’Asie, de sa dépendance au charbon et de la pollution qui en découle.

Dernière chose : tant dans l’article de 2008 du BAMS que dans d’autres sources, on constate que les médias ont grandement contribué à faire naître et à entretenir le «mythe» autour du consensus scientifique sur le refroidissement. Dans les années 1970, le Science Digest’s, par exemple titrait : «Préparez-vous à un nouvel âge glaciaire». Newsweek parlait d’un «monde en refroidissement» et évoquait un éventuel «déclin dramatique de la production alimentaire», et nombre d’autres articles parlaient (abusivement) de «signes précurseurs d’une glaciation» qui s’accumulaient.

Bref, tout indique que les médias de l’époque ont vu là une trame narrative vendeuse et qu’ils lui ont accordé beaucoup plus d’espace qu’elle n’en méritait.

LE VERDICT

Faux. On ne peut pas dire que «les» scientifiques prédisaient un refroidissement global dans les années 1970. Certains l’ont fait, oui, l’idée a été débattue. Mais elle n’a jamais eu l’importance que les médias du temps et que les climatosceptiques d’aujourd’hui lui ont accordée. Et elle a d’ailleurs été abandonnée, depuis, par une écrasante majorité de climatologues.

Vérification faite: nos aliments moins nourrissants?

Vérification faite

Vérification faite: nos aliments moins nourrissants?

L’AFFIRMATION: Kim Leclerc, d’Ottawa, se demande si un article publié cette semaine sur le site de MétéoMédia est aussi «douteux» qu’il lui semble. L’article en question est titré : «Les nutriments des aliments sont en déclin de 10 à... 100 %!», et il allègue que des «recherches, qui remontent jusqu’en 1940, suggèrent [...] qu’une personne doit manger le double de viande, trois fois plus de fruits et de quatre à cinq fois plus de légumes pour obtenir les mêmes valeurs nutritives».

LES FAITS

Remontons d’abord aux sources, ça en dira déjà assez long sur le sujet. Le texte de Météo Média est en fait un résumé en français d’un billet de blogue très alarmiste («Le brocoli meurt, le maïs est toxique») publié la semaine dernière par la revue grand public Scientific American. Ce billet avance essentiellement que la valeur nutritive de nos aliments est en chute libre, que c’est la faute des pesticides qui tueraient le microbiote des sols et qu’il faut convertir toute notre agriculture au bio pour inverser la tendance.

Or les sources citées par SciAm, de son petit nom, ne sont pas particulièrement convaincantes. Les deux principales sont une «étude» (non publiée dans la littérature scientifique) de l’organisme Planetary Health/Amberwaves et un autre billet de blogue, paru celui-là sur le site Eco Farming Daily. Ce dernier n’est clairement pas une source scientifique, tandis que l’homme derrière Planetary Health et auteur de l’«étude», Alex Jack, est un ex-journaliste et militant anti-OGM de longue date qui multiplie depuis des années les affirmations douteuses, comme des «conseils» pour se protéger contre le virus Ebola simplement par l’alimentation — bio, il va sans dire, et il s’adonne que son site ebolaanddiet.com réfère justement à une «organisation sœur» qui vend en plein ce genre d’aliments, pensez si ça adonne bien…

Quand on consulte la (vraie) littérature scientifique, le portrait qui se dégage est beaucoup, beaucoup plus nuancé. Il existe bel et bien des études sérieuses qui ont conclu à une baisse de la qualité de nos aliments. Par exemple, en 1999, le British Food Journal a publié un article (souvent cité par ceux qui prédisent une catastrophe alimentaire) concluant qu’entre les années 1930 et 1980, les légumes avaient perdu entre 6 % (pour le phosphore) et 80 % (pour le cuivre) de leurs nutriments, et les fruits entre 0 % (calcium) et 36 % (cuivre). Le hic, c’est que l’étude ne tirait aucune conclusion ferme, mais se terminait plutôt une série de questions pour des recherches futures, dont la première (et ça ne s’invente pas) était : «Est-ce que ces données sont fiables?»

D’autres exercices du même genre ont été entrepris par la suite. Certains ont conclu qu’il n’y avait pas de tendance à la baisse, mais d’autres que oui, bien que jamais dans des proportions catastrophiques (j’y reviens). En 2009, la publication savante HortScience a publié une revue systématique de ces travaux, qui a constaté une baisse significative de 5 à 40 % pour certains nutriments, mais seulement la moitié de ceux testés.

Bref, on est très loin des 50 à 80 % (et plus) généralisés dont parlent SciAm et MétéoMédia à sa suite.

En outre, certains chercheurs ne sont toujours pas d’accord pour dire qu’il y a là un «problème», faisant valoir que les données historiques ne sont pas fiables, que l’on compare des cultivars différents et que la variabilité naturelle des nutriments est bien plus grande que les baisses alléguées, atteignant jusqu’à 1500 %, voire plus. Mais il reste qu’il y a tout de même une «base» factuelle et scientifique pour dire qu’il y a bel et bien eu une certaine baisse de la valeur nutritive de nos aliments au cours des dernières décennies. Cependant, il y a deux choses à faire ressortir, ici, pour avoir un portrait complet.

La première, c’est qu’aucune de ces publications savantes ne montre du doigt un appauvrissement généralisé des sols ou l’usage des pesticides (ceux-ci ont leurs défauts, mais c’est une autre question). La cause la plus souvent mentionnée, et de loin, est plutôt un «effet de dilution» : en agriculture, plus le rendement à l’hectare est grand, et plus la récolte a tendance à être pauvre en nutriments, en moyenne. Grosso modo, cela arrive parce qu’il y a des limites aux quantités de minéraux et autres nutriments que les plantes sont capables de mettre dans leurs fruits ou leurs grains, si bien que quand on leur fournit tout (eau, engrais, etc.) ce qui leur faut pour croître rapidement, elles produisent plus, mais les nutriments s’en trouvent un peu «dilués». S’ajoute à cela une «dilution génétique» par laquelle on choisit depuis des décennies des cultivars pour leur productivité, leur capacité à soutenir de longs entreposages ou le transport dans des boîtes, etc., ce qui peut aussi se faire au détriment des qualités nutritives.

La seconde chose à souligner, c’est qu’en bout de ligne, rien de tout cela ne signifie que nous sommes moins bien nourris qu’avant. Le Département américain de l’agriculture a publié en 2007 une étude sur les qualités nutritives des aliments disponibles et leur évolution entre 1909 et 2004. Le document conclut essentiellement qu’à peu près tous les nutriments étudiés sont plus disponibles qu’avant pour les consommateurs, entre autres parce que certains aliments sont maintenant enrichis et aussi parce que nous avons des fruits et légumes frais à l’année. Ainsi, les cultivars plus productifs et/ou mieux entreposables sont peut-être moins nourrissants que d’autres cultivars que l’on consommait, à l’époque, juste après la récolte aux champs, mais ils permettent une meilleure alimentation dans l’ensemble.

LE VERDICT

Très exagéré. Les sources citées par MétéoMédia ne sont pas fiables. Quand on en consulte de meilleures, on constate que la baisse des qualités nutritives de nos aliments depuis 50 ans est loin d’être aussi grande que ce qui est allégué — et pourrait même être inexistante, si l’on tient compte de facteurs comme les changements de cultivars. Dans tous les cas, cela ne signifie nullement que l’offre alimentaire dans son ensemble est plus pauvre qu’avant.

Vérification faite: 200 arbres couvrent-ils le CO2 du GP de Trois-Rivières?

Vérification faite

Vérification faite: 200 arbres couvrent-ils le CO2 du GP de Trois-Rivières?

L’AFFIRMATION: «Comment est-ce que les dirigeants du Grand Prix de Trois-Rivières [GP3R] peuvent prétendre transformer quatre jours de bruit et de dioxyde de carbone en milieu urbain en un “événement vert”, simplement en plantant 200 arbres? Est-ce que ces 200 arbres suffisent vraiment à compenser les émissions du Grand Prix, ou est que c’est, comme on dit en français, du greenwashing?» demande un certain «Louis» de Trois-Rivières.

LES FAITS

Le Grand Prix de Trois-Rivières, qui a lieu en fin de semaine, d’ailleurs, a effectivement décidé de réduire son empreinte écologique en plantant chaque année des arbres pour compenser ses émissions de gaz à effet de serre. Ce printemps, 200 ont été plantés afin de compenser (sur 50 ans) le CO2 rejeté l’an dernier.

Il faut noter (et le GP3R ne s’en cache pas) que l’exercice ne vise pour l’instant qu’à couvrir les émissions des voitures et motos en piste, lors des tours de pratique, des qualifications et des courses elles-mêmes. Cela n’inclut pas le CO2 rejeté pour l’organisation de l’événement, la préparation du site, le transport des pilotes et des véhicules, etc. Le directeur du Grand Prix, Dominic Fugère, indique qu’un nouveau bilan plus complet est justement en préparation. Il sera éventuellement suivi par un troisième bilan qui tiendra aussi compte du «CO2 émis par nos visiteurs pour venir et partir de chez nous ainsi que ce qu’ils émettent comme GES [pendant qu’ils sont sur place]», a précisé M. Fugère lors d’un échange de courriels.

Alors la question à laquelle il faut répondre ici est : ces 200 arbres compensent-ils au moins le CO2 rejeté par les bolides pendant les compétitions, comme le prétend le GP3R? C’est la firme de consultant Arbre-Évolution qui a fait les calculs d’émissions et d’arbres à planter, et M. Fugère m’a envoyé son fichier Excel. Les chiffres concordent bien avec ce que j’ai pu trouver dans d’autres sources externes.

En comparant avec les résultats officiels du GP3R, il apparaît qu’Arbre-Évolution n’a pas sous-estimé le kilométrage parcouru, mais a même compté un peu plus de tours que ce qui a été officiellement comptabilisé. Ainsi, les voitures de la catégorie Porsche Ultra ont complété un peu plus de 1200 tours (pratiques, qualifs et courses) selon les résultats officiels, mais Arbre-Évolution a basé ses calculs sur plus de 1400 tours. Même chose pour les autres catégories que j’ai vérifiées, soit la F1600 (environ 1300 tours dans les résultats officiels contre près de 1600 dans les calculs du consultant) et pour le Championnat canadien de véhicules de touring (1650 vs 2250).

Rien ne suggère non plus que la consommation des véhicules ait été sous-estimée, dans ce que j’ai pu comparer. Ainsi, le président du circuit F1600 Canada, Marcel Lafontaine, m’a dit en entrevue que «la course fait environ 50 km, et la voiture consomme environ 20 litres d’essence», ce qui fait autour de 40 l/100 km; c’est assez proche des 35 l/100 km comptés pour les F1600 par Arbre-Évolution. De la même manière, le site de NASCAR parle d’une consommation de 57 l/100 km (4,1 milles par galon, nas.cr/2ymw5d5) pour ses bolides participant à ses courses les plus prestigieuse; ceux du GP3R (des Nascar de la série Pinty) ne sont pas aussi puissants, mais l’événement a compté 70 l/100 km pour eux. Dernier exemple : Arbre-Évolution a présumé une consommation moyenne de 18 l/100 km pour la catégorie Nissan Micra; c’est le double de la consommation «en ville» de ce modèle, d’après le fabricant, ce qui semble raisonnable compte tenu de la conduite exigeante d’une course.

Le chiffrier du GP3R compte 2,3 kg de CO2 émis par litre d’essence brûlé, ce qui est exact.

Enfin, Arbre Évolution a compté 215 kg de CO2 capturé sur une période de 50 ans pour chaque arbre planté, ce qui est très faible (et pas du tout à l’avantage du GP3R) comparé à ce qu’avancent d’autres sources crédibles [bit.ly/2SSe9jM et bit.ly/2K5igX5], qui parlent plus tôt de 1 tonne par arbre au bout d’une quarantaine d’années. Cependant, note M. Fugère, les 200 «arbres» plantés par le Grand Prix incluent aussi des arbustes fruitiers (une vingtaine) qui ne stockent pas autant de carbone que les grands arbres. Peut-être AUSSI que les essences d’arbres plantés (que je n’ai pas pu connaître) sont plus petites ou à croissance lente, et captureraient donc moins de carbone. Mais les estimés du GP3R ne semblent vraiment pas avoir péché par excès d’optimisme de ce point de vue.

LE VERDICT

Vrai. Le Grand Prix ne prétend pas couvrir autre chose que le CO2 des voitures en piste (en tout cas pas encore). Tout indique que les 200 arbres plantés cette année suffisent à compenser les GES des courses, qualifications et essais de l’an dernier.

Vérification faite: le gibier, plus nourrissant que la viande d’élevage?

Vérification faite

Vérification faite: le gibier, plus nourrissant que la viande d’élevage?

L’affirmation «Étant un chasseur sérieux (et chanceux), je ne mange pas de viande d’élevage : les protéines animales que je consomme proviennent de l’orignal et du cerf. Cependant, je n’ai jamais trouvé de comparaison entre la viande rouge d’élevage et la viande sauvage. Est-il vrai que cette dernière est plus saine et plus nourrissante?», demande Gilles Harvey, de Québec.

Les faits

Dans l’ensemble, oui c’est vrai, répond Malek Batal, chercheur en nutrition de l’Université de Montréal qui a mené des travaux sur (notamment) l’alimentation des autochtones, qui est évidemment riche en gibier. «C’est une viande qui est plus maigre, ce qui la rend plus dense en nutriments : les minéraux, les protéines et les vitamines sont plus concentrés dans la chair», dit-il. En outre, la diète des animaux sauvages est généralement meilleure, plus naturelle et plus diversifiée, que celle des animaux d’élevage, ce qui se reflète forcément dans la qualité de leur viande.

Ce n’est pas une règle absolue, avertit-il, puisque la viande sauvage peut venir avec certains contaminants — comme le cadmium, qui a tendance à se concentrer dans les reins de l’original et du caribou. «C’est surtout le cas dans les régions nordiques parce que les polluants ont tendance à migrer vers le nord avec les courants marins et atmosphériques», poursuit le chercheur. Cependant, nuance-t-il, ce n’est pas un problème énorme dans l’ensemble et, quand on tient compte de tout, le gibier reste une viande «intéressante à consommer» du point de vue de la santé.

Il existe plusieurs études européennes  et américaines qui arrivent à cette conclusion. Non seulement les nutriments sont-ils plus concentrés dans le gibier, mais les graisses qui s’y trouvent (parce qu’il y en a un peu, quand même) sont meilleures pour la santé, ayant de meilleurs ratios des gras polyinsaturés oméga-3 et oméga-6. Les premiers, lit-on dans cette étude, se font souvent trop rares dans la viande d’élevage.

En plus de ces articles, le site de Santé Canada montre également les valeurs nutritives pour plusieurs viandes différentes, sauvages et d’élevage. On y voit par exemple que le bœuf domestique rôti (catégorie : «coupes diverses») contient 8 grammes de graisses par portion de 75 g, alors que le chevreuil et l’original rôtis n’en ont que 1 à 2 g. Du côté des minéraux, ces trois viandes se valent pour les teneurs en sodium (autour de 40 mg/75 g) et en magnésium (environ 20 mg), mais les deux gibiers contiennent plus de fer (autour de 3,5 mg contre 2,3 pour le bœuf), de potassium (250 à 375 mg contre 230 pour le bœuf) et de phosphore (environ 180 mg vs 155 pour le bœuf).

Notons toutefois que les valeurs peuvent changer d’une pièce de viande à l’autre. À cet égard, la comparaison la plus directe qu’il y a sur le site de Santé Canada est sans doute entre le «canard domestique» et le «canard sauvage». Et ce parallèle (re) confirme amplement la règle : pour chaque portion de 75 grammes, il y a sept fois moins de gras dans le canard sauvage (3 g vs 21 g), plus de protéines (23 g vs 14 g), plus de fer (7 mg vs 2 mg), plus de magnésium (23 mg vs 12 mg), plus de phosphore (187 mg vs 117 mg) et plus de potassium (197 mg vs 153 mg).

Le verdict

Vrai. D’une coupe de viande à l’autre, les valeurs nutritives (et les contaminants) peuvent changer, mais, dans l’ensemble, le gibier contient plus de nutriments et moins de graisses (à poids égal) que la viande d’élevage.

Vérification faite: moins d’insectes qu’avant?

Vérification faite

Vérification faite: moins d’insectes qu’avant?

L’AFFIRMATION: «Depuis quelques années, je retrouve beaucoup moins d’insectes dans ma piscine qu’il y a 10 ans. Et c’est encore plus marqué cette année : par exemple, je n’ai vu aucun bourdon [ou peut-être un] jusqu’à maintenant. Est-ce circonstanciel? On dit que non dans les médias, que le déclin est réel et dramatique, mais est-ce une fake news?» demande Philippe Boulanger, de Lévis.

LES FAITS

C’est surtout depuis 2017 que les médias parlent (beaucoup) d’un déclin massif et généralisé des insectes, dans la foulée d’une étude allemande qui avait conclu que la biomasse des insectes (soit le poids total de tous les insectes réunis) avait chuté de pas moins de 76 % dans les aires protégées d’Allemagne en moins de 30 ans. D’autres travaux du même genre ont par la suite été publiés. L’automne dernier, par exemple, une étude parue dans les PNAS indiquait que des pièges à insectes installés dans la forêt tropicale de Porto Rico avaient capturé en 2012 entre 4 à 8 fois moins d’insectes (en poids), voire 10 à 60 fois moins selon le type de piège, que les mêmes trappes posées aux mêmes endroits en 1976. Et une revue de littérature publiée ce printemps a également conclu qu’à l’échelle planétaire, la biomasse des insectes diminuait d’environ 2,5 % par année en moyenne.

Bref, il existe bel et bien des données légitimes et très inquiétantes au sujet du sort de la faune à six pattes. Mais il y a quelques petits (et gros) points à faire ressortir, ici.

D’abord, la couverture médiatique de ces études a adopté un ton totalement apocalyptique. Certains ont même évoqué la «disparition des insectes d’ici un siècle», ce que des entomologistes ont décrit comme une grossière exagération.

Ensuite, et par-dessus tout, les données dont on dispose sur les populations d’insectes ont beau être très sombres, elles n’en demeurent pas moins aussi très, très fragmentaires. «Je pense qu’il y a trop peu de données scientifiques fiables, largement réparties géographiquement, et poursuivies à terme assez long pour conclure au déclin généralisé des insectes», estime le chercheur en entomologie de l’Université Laval Conrad Cloutier. Le coordonnateur de la collection d’insectes de l’Université de Montréal, Étienne Normandin, est du même avis, et nombre d’autres entomologistes dans le monde ont lancé le même message au cours des derniers mois : les chiffres qu’on a sont alarmants, mais très insuffisants.

D’abord, il y a trop de régions du globe où l’abondance des insectes n’a pas été étudiée, ou si peu — la revue de litté publiée au printemps, par exemple, n’a recensé qu’une seule étude pour toute l’Australie et une seule pour la Chine. Ensuite, il y a beaucoup trop d’espèces d’insectes pour lesquelles on n’a pas de données : on ne connaît qu’environ 20 % du nombre estimé des espèces d’insectes sur Terre.

«L’argent de la recherche en entomologie est concentré dans des secteurs névralgiques où les insectes peuvent avoir un gros impact, comme la foresterie et l’agriculture. C’est normal, parce que les ravageurs peuvent causer des pertes économiques qui se chiffrent en milliards de dollars», dit M. Normandin, mais cela laisse aussi de grands «trous» dans le portrait d’ensemble des populations d’insectes.

En outre, poursuit-il, si le déclin est absolument indéniable dans le cas de nombreuses espèces, cela ne signifie pas que celles-ci laissent un espace vide derrière elles. «Ce qui arrive, c’est qu’on observe une homogénéisation des espèces d’insectes. Par exemple, j’ai fait une étude sur les espèces d’abeilles présentes en ville, et il y en a une poignée qui sont très bien adaptées. Même quand on regarde les milieux qui sont juste légèrement urbanisés, ces espèces-là réussissent très bien. Mais les espèces qui sont plus spécialisées ou moins adaptables, elles, on les perd», dit-il. Du point de vue de la biomasse, donc, la disparition d’une espèce n’implique pas que la somme des insectes «pèse» moins qu’avant. (Même si ça reste quand même une perte de diversité, évidemment.)

Un mot, pour finir, au sujet des bourdons, puisque M. Boulanger s’en sert comme d’un «indicateur», pour ainsi dire. «C’est au moins la cinquième personne qui me mentionne ça [l’absence des bourdons] cette année, alors il s’est peut-être produit quelque chose», dit M. Normandin. Il est possible, avance-t-il, que le printemps froid que nous avons connu soit en cause.

Mais voilà, M. Cloutier, qui vit lui aussi sur la Rive-Sud de Québec, mais en campagne, n’a pas l’impression d’avoir vu moins de bourdons qu’à l’accoutumée cette année. Si M. Boulanger voit de moins en moins de bourdons (et d’autres insectes) dans sa piscine depuis 10 ans, c’est peut-être plutôt parce que Lévis se développe à vitesse grand V, propose le chercheur. On peut imaginer, dit-il, qu’il y a 10 ans le quartier de M. Boulanger était proche de zones agricoles ou assez «sauvages» propices aux insectes, qui atterrissaient alors nombreux dans les piscines. Mais à mesure que la ville s’est développée, ces secteurs ont été urbanisés, si bien que les zones plus favorables aux insectes sont désormais plus loin du terrain de M. Boulanger.

Plus généralement, la situation des bourdons s’apparente à celle des autres insectes : nous avons des données qui prouvent le déclin de quelques espèces, et même qui suggèrent un déclin généralisé, mais on est encore loin d’en avoir la preuve, dit M. Cloutier.

LE VERDICT

Pas clair. Une bonne partie des données dont on dispose suggèrent qu’il y a effectivement un déclin des insectes, mais elles ne sont pas assez abondantes et solides pour le prouver de manière convaincante. Peut-être que cela viendra un jour, mais on n’est pas rendu là.

Vérification faite: nos routes sont-elles en si mauvais état?

Vérification faite

Vérification faite: nos routes sont-elles en si mauvais état?

L’affirmation «On entend régulièrement dire que les routes du Québec sont en bien pire état qu’ailleurs, qu’elles sont mal construites, mal entretenues, etc. Mais est-ce bien vrai? Personnellement, pour avoir voyagé pas mal, je trouve qu’elles ne sont pas pires qu’ailleurs, du moins dans les endroits où le climat est comparable. C’est plus entre les routes du Québec que je vois des différences. Dès qu’on s’enfonce un peu dans ce que l’on peut appeler l’arrière-pays, les routes sont parfois vraiment mauvaises», demande Jean-Claude Lachance, de Sainte-Marthe-sur-le-Lac.

Les faits

Les comparaisons entre les routes de pays différents ne sont pas faciles, car chaque gouvernement a tendance à mesurer les choses à «sa façon». Mais il existe tout de même un indicateur qui est à la fois objectif et commun à la plupart des juridictions : l’indice de rugosité international (IRI). À chaque fois qu’une voiture roule sur une bosse ou un nid-de-poule, elle subit un déplacement à la verticale. L’IRI consiste à mesurer ces déplacements verticaux — 5 cm pour une craque ici, 3 cm pour une bosse là, etc. — et à les cumuler pour les exprimer en mètres par kilomètre (m/km) : pour chaque kilomètre parcouru sur une route, l’IRI donne le nombre de mètres à la verticale que les défauts du pavage imposent au véhicule.

Comme n’importe quel autre indicateur, celui-là ne dit pas tout, souligne le spécialiste des pavages Guy Doré, du département de génie civil de l’Université Laval. Il ne tient pas compte de l’orniérage, par exemple, ni des fissures trop petites pour être ressenties mais qui sont appelées à s’élargir rapidement en période de gel-dégel. «Mais on ne peut pas comparer l’état de fissuration entre les États parce qu’il n’existe pas de système unifié et reconnu pour ça. […] Et si on considérait ces autres facteurs-là [en plus de l’IRI], les résultats risqueraient probablement d’empirer pour le Québec parce que quand le ministère des Transports (MTQ) a commencé à tenir compte de la fissuration dans leurs bilans il y a quelques années, le pourcentage de routes en bon état a reculé», dit-il. L’IRI peut donc être considéré jusqu’à un certain point comme une évaluation un brin optimiste des routes du Québec.

Le MTQ considère que sur une autoroute, un IRI de 2,2 m/km ou moins indique un «bon état». Dans son dernier bilan de l’état des chaussées , le MTQ indique que 89 % de nos autoroutes respectent ce critère. Au sud de la frontière, la Federal Highway Administration (FHWA) mesure elle aussi l’IRI de son réseau. Elle exprime l’indice en pouces par mille et regroupe les résultats en catégories qui ne correspondent pas parfaitement aux définitions du MTQ, mais quand on fait les ajustements nécessaires1, on voit que 92 % des autoroutes américaines répondent au critère québécois de «bon état».

C’est mieux que «nos» autoroutes, mais l’écart est mince — en fait, c’est pas mal comparable. D’où, faut-il croire, l’impression de M. Lachance que nos chaussées ne sont pas pires qu’ailleurs.

Qu’en est-il, cependant, des routes plus secondaires? Ici aussi, les catégories américaines et québécoises ne s’alignent pas parfaitement, mais disons que nos «routes nationales» correspondent raisonnablement bien aux «principal arterials» en milieu rural de la FHWA2. Aux États-Unis, pas moins de 94 % d’entre elles respectent le critère de bon état de Transports Québec (2,5 m/km pour les «routes nationales»); c’est nettement mieux que le score québécois, de 76 %.

Enfin, ces données permettent une dernière comparaison : entre les «routes régionales» québécoises et la catégorie «minor arterials» en milieu rural de la FHWA, qui sont elles aussi raisonnablement équivalentes3. Et le portrait est essentiellement le même que pour les nationales : 95 % de bon état aux États-Unis contre 78 % dans la Belle Province.

«Il y a un paquet de facteurs qui peuvent expliquer que nos routes sont moins bonnes, explique M. Doré. Le climat en est un majeur. C’est sûr qu’entre Lacolle et Plattsburgh, il n’y a pas vraiment de différence, mais on a des infra­structures plus au nord [où le climat joue pour beaucoup, à cause des alternances gel-dégel et de l’humidité]. On a aussi une grandeur de territoire assez exceptionnelle, avec des routes qui desservent des secteurs peu peuplés, jusque sur la Basse-Côte-Nord, le Nord-du-Québec, etc. C’est lourd à entretenir.»

Mais le facteur clef, dans tout cela, demeure les investissements que le gouvernement est prêt à y mettre. «On a sans doute les routes qu’on a les moyens de se payer», indique M. Doré.

Notons tout de même à cet égard que l’état général des routes du Québec s’est amélioré depuis les années 2000. En 2006, seulement 63 % de l’ensemble du réseau routier provincial (autoroutes, nationales, etc.) était en bon état, alors que c’était 78,2 % en 2018. Il y a cependant eu une légère dégradation depuis un sommet atteint en 2014 (80 % de bon état). «On a eu un réseau qui était en déclin jusqu’au début des années 2000, ensuite il y a eu une période d’investissements massifs qui a permis d’améliorer les choses. Mais à partir de 2014, on a moins investi et ça a tout de suite recommencé à décliner», dit M. Doré.

Le Verdict

En grande partie vrai. L’état des autoroutes québécoises est à peu près le même que celui des autoroutes américaines, malgré une légère différence à l’avantage de ces dernières. Les routes nationales et régionales du Québec, cependant, sont clairement en moins bon état que leurs équivalents du sud de la frontière.

Sources:

(1) Le critère de bon état du MTQ pour les autoroutes, soit 2,2 m/km, correspond à 139 pouces par mille (po/mi). Comme cela tombe à l’intérieur de la catégorie «120 à 144 po/mi» de la FHWA, j’ai compté 20/25e de cette catégorie comme en «bon état», et 5/25e en «mauvais état». Notons que dans les données de la FHWA, j’ai considéré comme des autoroutes à la fois le réseau des Interstate et les «other freeways and expressways», parce qu’elles sont toutes à haute vitesse et que leur accès est restreint (interdit aux piétons, vélos, etc.).

(2) Dans les deux cas, l’accès n’est pas restreint (contrairement aux autoroutes), ces routes desservent des corridors majeurs de déplacements et elles relient des agglomérations de plus de 25 000 habitants. Le critère de bon état du MTQ pour les routes nationales (2,5 m/km) donne 158 po/mi; j’ai réparti la catégorie de la FHWA «145 à 170 po/mi» en conséquence.

(3) Dans les deux cas, ces routes relient des villages de moins de 25 000 habitants et/ou mènent à des attractions touristiques plus ou moins isolées. Le critère de bon état du MTQ pour les routes régionales (3 m/km) donne 189 po/mi; j’ai réparti la catégorie de la FHWA «171 à 194 po/mi» en conséquence.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite: non, on ne «mange» pas une carte de crédit par semaine...

Vérification faite

Vérification faite: non, on ne «mange» pas une carte de crédit par semaine...

L’affirmation «Chaque personne ingère en moyenne environ 5 grammes de plastique par semaine ­[...­soit] l’équivalent d’une carte de crédit», lit-on dans un rapport récent du World Wildlife Fund (WWF), une organisation environnementaliste internationale. L’idée d’avaler une carte de crédit par semaine a manifestement marqué les esprits, puisque ce rapport a joui d’une couverture médiatique mondiale. Alors, voyons de quoi il retourne.

Les faits

Le rapport en question, No Plastic in Nature : Assessing Plastic Ingestion From Nature to People [http://bit.ly/327Vwf] est basé sur une étude commanditée par le WWF et faite par deux chercheurs de l’Université de Newcastle, en Australie. Ceux-ci ont passé la littérature scientifique en revue afin d’évaluer les quantités de plastiques qui se trouvent dans l’eau potable, le poisson, le sel, etc., et que nous avalerions donc en mangeant. Mais de l’aveu des chercheurs eux-mêmes, il reste encore de grands «trous» dans ce secteur de recherche qu’ils ont dû «boucher» par des hypothèses et des extrapolations. En outre, leur travail n’a pas encore été publié dans une revue savante et les détails méthodologiques ne seront pas dévoilés avant publication. Il y a donc, pour l’instant, un gros point d’interrogation au-dessus de leurs calculs.

Cependant, à en juger par ce qui a été révélé, il y a deux choses qui clochent dans ces résultats. La première, note le chimiste de l’Université Laval Normand Voyer, c’est que les chercheurs de Newcastle semblent avoir retenu des valeurs extrêmes de contamination au plastique. Ils se sont par exemple basés sur une étude menée à Dongguan [http://bit.ly/2XrlbBG], une ville chinoise très polluée. Ils citent également une étude qui conclut que la contamination des mollusques au microplastique est «minime» et «bien moindre que celle découlant des fibres textiles que l’on ingère quand on prend un repas à la maison» [http://bit.ly/2XP9WlT], mais le rapport du WWF place quand même les fruits de mer au deuxième rang des sources de contamination, avec 180 particules avalées par semaine — la première source, et de loin, étant l’eau potable à 1770 particules, pour un total hebdomadaire de près de 2000.

Notons tout de même qu’une autre étude récente est arrivée à des chiffres semblables, mais en comptant les particules (surtout des fibres textiles) que l’on respire [http://bit.ly/2Xq8X7w] — que le document du WWF considère comme une quantité négligeable, mais passons.

La deuxième chose qui cloche, c’est que même en imaginant un scénario du pire qui se rendrait jusqu’à l’absurde, il est impossible de se rendre à 5 grammes de plastique par semaine avec les chiffres du rapport du WWF. Celui-ci compte en effet les particules de 0 à 1 millimètre de diamètre. Alors supposons qu’absolument tous ces petits morceaux aient le volume maximal considéré par le rapport, soit 1 mm3. C’est totalement impossible puisque les études citées par le WWF indiquent que plus de 90 % des particules dans l’eau potable font moins de 0,1 mm de diamètre, mais «mettons que», comme on dit. Imaginons aussi que tout ce plastique est d’un type pas mal plus dense que la moyenne, à 1,3 gramme par cm3. Même dans ce scénario, qui exagère énormément le poids du plastique ingéré, on obtient : 2000 particules/semaine x 1 mm3/particule x 0,0013 g/mm3 = 2,6 grammes par semaine, et non 5 grammes. (M. Voyer m’a confirmé la validité du calcul.)

Il est possible que des «détails méthodologiques» encore non révélés viennent éventuellement changer la donne. Mais comme le rapport du WWF tient déjà compte de la principale source d’exposition aux microplastiques, soit l’eau potable, et comme mon calcul présume que toutes les particules font 1 mm³ (ce qui multiplie par au moins 1000 le volume des 90 % d’entre elles qui font moins de 0,1 mm de côté), on voit très mal comment on peut se rendre jusqu’à 5 grammes par semaine.

À l’heure d’écrire ces lignes, le chercheur principal derrière l’étude commandée par le WWF, Dr Thava Palanisami, n’avait pas répondu à un courriel du Soleil.

Verdict

A priori très douteux. On ne pourra être certain de rien avant la publication du fin détail méthodologique, mais sur la base des chiffres publiés dans le rapport du WWF, l’ingestion de microplastiques ne peut tout simplement pas atteindre «une carte de crédit [5 g] par semaine», ni même s’en approcher. Cela ne signifie pas que la pollution au plastique n’est pas un problème, mais simplement qu’on n’en ingère pas tant que ça.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.