Le ministre de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, a présenté mercredi à Montréal, à l’ouverture de la conférence ALL IN sur l’intelligence artificielle (IA), le « Code de conduite volontaire visant un développement et une gestion responsable des systèmes d’IA générative avancés ».
Ce code, qui devait être signé par plusieurs grandes entreprises œuvrant dans les domaines de l’informatique et de l’IA, engage les signataires à adopter plusieurs mesures « pour veiller à ce que les risques soient bien cernés et atténués ».
L’idée de demander à une industrie du secteur privé de s’autoréguler n’est pas nouvelle et a rarement connu de succès, mais on pourrait difficilement reprocher au ministre Champagne de manquer d’enthousiasme face à son code de conduite.
« Je pense que la communauté va quand même être capable de s’autoréguler parce que quelqu’un qui l’aurait signé, compte tenu de l’expertise qu’on a chez nous, je pense que des mauvaises pratiques seraient mises en évidence.
« Je vois mal quelqu’un le signer et ne pas le respecter. Je pense qu’à ce moment-là, les utilisateurs, les clients et les clientes réagiraient de façon assez forte », a-t-il avancé.
Usage malveillant
Le code souligne ainsi certains risques d’un usage malveillant, par exemple « la capacité de produire des images et des vidéos réalistes ou de se faire passer pour de vraies personnes peut permettre des tromperies d’une envergure qui peut nuire à d’importantes institutions, notamment aux systèmes de justice démocratique et pénale ». Il soulève également des risques importants pour les droits individuels en matière de protection de la vie privée.
Ces risques, le public les connaît, d’où la méfiance que François-Philippe Champagne espère atténuer. « Nous sommes rendus au point où nous devons prendre des actions. Des encadrements clairs sont nécessaires pour restaurer la confiance. »
Les signataires s’engagent ainsi à adopter des mesures de responsabilisation impliquant une gestion des risques et des mesures de sécurité pour veiller à ce que l’exploitation des systèmes soit sécuritaire.
Il implique également d’assurer le respect de la justice et de l’équité dans le déploiement des systèmes et une transparence « pour permettre aux consommateurs de prendre des décisions éclairées et aux experts d’évaluer si les risques ont été adéquatement gérés ».
Le ministre Champagne estime que cette question de transparence est fondamentale pour que le consommateur sache à quoi il a affaire. « Si vous appliquez pour avoir un prêt, une police d’assurance, voire un emploi, on n’est pas trop sûr aujourd’hui: est-ce que c’est un humain qui a décidé ou si c’est un algorithme? Et cet algorithme, est-ce qu’il a choisi votre code postal, votre âge? La transparence va redonner la confiance au consommateur », croit-il.
Le code exige également l’existence d’une surveillance humaine des systèmes et leur sécurisation contre les cyberattaques, entre autres.
En attendant C-27
L’importance d’assurer un développement éthique, responsable et prudent de l’IA a été soulignée par l’ensemble des nombreux intervenants en ouverture de conférence, notamment la mairesse de Montréal, Valérie Plante, pour qui l’innovation doit être « en phase avec nos valeurs communes d’éthique, d’équité et d’imputabilité ».
Emboîtant le pas,le ministre québécois de l’Économie, de l’Innovation et de l’Énergie, Pierre Fitzgibbon, a fait valoir la nécessité de « collectivement réfléchir aux enjeux et sensibiliser tous les acteurs à l’importance d’établir des balises claires pour un développement responsable et prudent de l’IA ».
François-Philippe Champagne a assuré que le projet de loi C-27 viendra répondre en partie aux préoccupations, mais il a reconnu que « la loi va prendre du temps, mais les gens veulent que l’on pose des gestes maintenant pour s’assurer que nous avons des mesures spécifiques que les entreprises peuvent suivre pour bâtir la confiance dans leurs produits d’IA ».
Le directeur scientifique et fondateur de MILA, Yoshua Bengio, a insisté sur le fait qu’il est « vraiment important qu’on fasse les investissements et les efforts dans toutes les organisations pour protéger le public, pour s’assurer que l’intelligence artificielle va travailler pour le bien général de la société et qu’on le fasse avec nos partenaires internationaux parce que l’intelligence artificielle n’a pas de frontière. Les utilisations bénéfiques comme les utilisations dangereuses peuvent venir de n’importe quel pays dans le monde », a-t-il rappelé.
L’exemple qu’évoque régulièrement François-Philippe Champagne est celui du clonage.
« À l’époque, l’humanité s’est regroupée pour mettre des balises. On a décidé qu’on ne clonerait pas d’humains. Peut-être que scientifiquement c’est possible, mais l’humanité s’est donné des règles, des garde-fous et c’est exactement ce qu’on est en train de faire aujourd’hui.
« L’intelligence artificielle, oui, pour l’innovation responsable, mais il faut aussi se donner un cadre dans lequel on dit: l’humanité va dire qu’il y a des lignes à ne pas franchir pour protéger les individus. »
Mercredi matin, une douzaine d’entreprises œuvrant dans le domaine avaient procédé à la signature protocolaire du code de conduite, dont une qui représente une centaine de « startups ». La conférence accueille quelque 1400 participants sur place, au Palais des congrès de Montréal, et plus de 10 000 participants en ligne. Mercredi et jeudi, une panoplie d’experts de l’industrie, de la recherche, du secteur académique, du secteur public et autres provenant d’une vingtaine de pays discutent d’intelligence artificielle dans un contexte où celle-ci évolue à une vitesse imprévue et s’installe dans toutes les sphères d’activité.