Le professeur Yoshua Bengio, co-inventeur du deep learning, mène des recherches pour prévenir les risques de l'intelligence artificielle sur l'Humanité. Interview exclusive en partenariat avec Mon Carnet / Bruno Guglielminetti.
Yoshua Bengio:
[0:01] La science de l'IA ne sait pas répondre à la question comment est-ce qu'on pourrait construire des IA qui seraient éventuellement aussi intelligentes ou plus intelligentes que nous et qui ne se retourneraient pas contre nous.
Jérôme Colombain:
[0:18] Bonjour, Yoshua Bengio.
Yoshua Bengio:
[0:19] Bonjour.
Jérôme Colombain:
[0:21] Merci de nous accorder cette interview en duo avec mon camarade Bruno Guglielminetti et moi-même. Yoshua Bengio, vous êtes chercheur en informatique, professeur à l'université de Montréal vous êtes surtout l'un des pères de l'apprentissage profond le deep learning, avec vos confrères Geoffrey Hinton et Yann Le Cun vous avez reçu en 2018 le prix Turing ce qu'on appelle le prix Nobel de l'informatique pour votre travail sur les réseaux de neurones artificiels tout récemment le Time vous a, consacré comme l'une des 100 personnalités les plus importantes et les plus influentes du monde bien sûr en rapport avec l'intelligence artificielle. Et malgré tout, vous faites partie, on pourrait dire, des inquiets face au risque de l'IA et on va en parler ensemble. Mais avant ça, c'est Bruno qui vous pose tout de suite la première question.
Bruno Guglielminetti:
[1:09] Yeshua Bengio, il y a cinq ans, je me souviens, je trouvais ça fascinant, vous preniez toujours l'exemple de la fameuse grenouille. Quand on vous demandait une intelligence artificielle, est-ce que c'est vraiment intelligent? Et puis là, vous expliquez qu'une grenouille, ça peut être intelligent parce qu'on peut lui apprendre un truc, puis elle le fait à merveille, elle peut le répéter. Mais aujourd'hui, si vous aviez à qualifier le niveau de l'intelligence artificielle, est-ce que vous parleriez toujours de la grenouille où ça commence à ressembler à un bœuf?
Yoshua Bengio:
[1:38] En fait, c'est un animal étrange auquel on ne s'attendait pas. Je pense que beaucoup de chercheurs pensaient qu'on allait d'abord réussir à mettre le niveau d'intelligence des animaux qui sont autour de nous, comme la grenouille ou notre chien, notre chat. Et que ce qui viendrait en dernier, c'est la capacité à maîtriser le langage, l'abstraction. Mais ce qu'on voit, c'est un peu le contraire. Donc, avec les manipulations du langage avec des outils comme ChatGPT, Gemini, tout ça, ça nous montre qu'on, Pour des raisons techniques qui ont rapport avec la quantité de données disponibles de textes et d'images, on maîtrise vraiment bien ces modalités, puis la compréhension et la manipulation du langage, mais on est encore loin d'avoir résolu les enjeux de la grenouille, c'est-à-dire le contrôle moteur. Ce que la robotique, finalement, essaie de faire, c'est pas mal en retard par rapport aux capacités un peu plus avancées cognitivement, Ce qui fait que c'est dur de faire une comparaison animale. Ce serait comme si on avait une sorte d'animal savant, mais qui est absolument très, très stupide au niveau du contrôle de son corps.
Jérôme Colombain:
[2:54] Alors, je l'ai dit, vous êtes l'un des pères de l'apprentissage profond. Qu'est-ce que ça a changé? Ça a été vraiment un tournant, ça, en matière d'intelligence artificielle.
Yoshua Bengio:
[3:02] Oui, oui. En fait, tellement qu'aujourd'hui, les gens utilisent le mot « intelligence artificielle » comme si on parlait de l'apprentissage profond et vice-versa, alors qu'intelligence artificielle, ça recouvre beaucoup d'approches depuis des décennies. Et c'est parce que ces systèmes basés sur les réseaux de neurones ont vraiment fonctionné de manière surprenante et que l'industrie s'en est emparée et qu'il y a beaucoup d'argent à faire et que c'est surtout ça qui aussi inquiète la classe politique, Comment ça va être utilisé? Est-ce qu'on va en faire de contrôle? Ça devient un enjeu pour tout le monde, l'intelligence artificielle, mais c'est en réalité une forme d'approche à fabriquer des machines intelligentes qui émergent des travaux qu'on a faits sur les réseaux de neurones depuis des décennies.
Bruno Guglielminetti:
[3:53] Vous auriez pu décider d'aller dans le domaine du privé avec les grandes entreprises. D'ailleurs, vous collaborez à l'occasion. Mais vous, après McGill, après le MIT, vous avez décidé d'aller à l'Université de Montréal enseigner, faire de la recherche. Pourquoi? Qu'est-ce qui est important pour vous d'être de ce côté-là de la barrière?
Yoshua Bengio:
[4:14] D'abord, c'est clair que la liberté de choisir ce sur quoi je travaille, la liberté de parler comme je le veux, tout cet aspect aussi d'avoir l'impression de travailler vraiment pour le public sans être biaisé par la main qui me nourrit, c'était quelque chose d'important. Et puis, je dois dire, travailler avec les étudiants, ceux qui commencent leur carrière, les doctorants, ceux qui font des maîtrises, des post-docs, tout ça, c'est émotionnellement très, très satisfaisant. C'est comme avoir une grande famille avec une rotation, qui est un peu comme ce qu'on peut ressentir avec nos enfants. C'est nourrissant de voir comment on peut aider ces jeunes-là à s'accomplir. Alors, ça a aussi un impact sur mes capacités à avoir mes idées développées par le fait d'avoir un grand groupe d'étudiants. Ça a fait en sorte que j'ai pu avoir plus d'impact scientifique. Donc, voilà, c'est toutes des bonnes raisons pour moi d'avoir fait ce choix. Mais je pense que chacun doit faire ses choix dans la vie. et je respecte complètement mes collègues qui ont choisi la voie industrielle. Il y a aussi des attraits de ce côté-là.
Jérôme Colombain:
[5:43] Oui, comme Yann Le Cun chez Meta, etc. Vos étudiants, Joshua Bengio, on les retrouve aujourd'hui dans toutes les grandes entreprises qui comptent. Il y en a plusieurs, je pense par exemple, vous avez eu Arkand Sirinas comme étudiant qui a créé le site Perplexity. Comment est-ce que vous voyez cette explosion de nouveaux services commerciaux liés à l'intelligence artificielle aujourd'hui ?
Yoshua Bengio:
[6:09] Il y a un côté extraordinairement positif de voir les travaux qu'on a faits, développés dans des produits et services qui pourraient servir tout le monde. Moi, je trouve qu'on devrait investir plus dans le développement de l'IA pour aider la recherche scientifique, mais peut-être moins sur comment on va remplacer le travail des humains par un travail de machine. Mais bon, d'un point de vue économique, c'est sûr qu'il y a une très, très forte pression pour augmenter la productivité avec l'IA. En même temps, j'ai pris conscience depuis déjà pas mal d'années, mais encore plus avec l'arrivée de Chad Gepetik, qu'on ne peut pas faire ce déploiement de l'IA sans réfléchir aux conséquences et ce qui pourrait mal tourner et quel genre de balises politiques, réglementaires, etc. On a besoin pour éviter les catastrophes.
Jérôme Colombain:
[7:02] Alors justement, parlons-en, Yoshua Bengio. Ces inquiétudes, vous les avez soulevées publiquement en mars 2023, notamment quand vous avez signé ce manifeste pour un moratoire sur l'intelligence artificielle. Ce moratoire, il n'a pas eu lieu, finalement. On a continué à avancer.
Yoshua Bengio:
[7:19] On ne s'attendait pas vraiment à ce que les compagnies répondent positivement, mais je dirais quand même que ça a fonctionné. mais pas dans le sens du moratoire, mais dans le sens de soulever.
Jérôme Colombain:
[7:30] De la prise de conscience.
Yoshua Bengio:
[7:31] Oui, de la prise de conscience, exactement.
Jérôme Colombain:
[7:35] Quel bilan vous en faites? Est-ce qu'elle est suffisante, cette prise de conscience? Ou alors, est-ce qu'on va dans le mur?
Yoshua Bengio:
[7:39] Je n'ai pas de boucle de cristal. En tout cas, elle n'est pas suffisante. J'aimerais qu'on n'aille pas dans le mur. Je n'ai pas de solution miracle. Je pense que les solutions sont complexes et doivent être combinées les unes avec les autres pour augmenter les chances que ça se passe bien. Souvent on me pose la question est-ce que vous êtes pessimiste, optimiste puis les gens me caricaturent des fois comme pessimiste mais en fait j'ai toujours été quelqu'un d'optimiste dans ma vie vous pouvez trouver ça facilement si vous retracez l'histoire de ce que j'ai dit, en fait je regarde le bon côté des choses, c'est-à-dire.
Yoshua Bengio:
[8:19] Qu'est-ce qu'on peut faire pour que ça aille mieux pour éviter les dangers changé. Donc, je suis plus dans l'action. Enfin, je fais plus des recommandations. Mais moi-même aussi, dans mes choix de recherche, par exemple, ça a beaucoup changé parce que je me pose la question, quelles avancées scientifiques sont nécessaires pour que les choses allant au bon sens, pour qu'on puisse bénéficier des avancées de l'IA sans trébucher collectivement? Il y a un.
Yoshua Bengio:
[8:52] Qui est que la science de l'IA, la science, ne sait pas répondre à la question, comment est-ce qu'on pourrait construire des IA qui seraient éventuellement aussi intelligentes ou plus intelligentes que nous et qui ne se retourneraient pas contre nous, qui agiraient dans un sens moral, qui ne créeraient pas des catastrophes, soit entre des mauvaises mains ou de leur propre chef. C'est quand même une question importante et on continue à foncer dans cette direction sans avoir la réponse. Donc, ça, c'est une question scientifique. C'est quel genre d'algorithme, quel genre de mathématiques, quel genre de manière d'entraîner peut-être nos réseaux de neurones ferait en sorte qu'on puisse avoir des garanties les meilleures possibles pour éviter des catastrophes? Un peu comme si on pose la question, bon, on voudrait construire une centrale nucléaire qui donnerait de l'énergie à bon marché, qui serait très, très utile, mais est-ce qu'on se pose la question de qu'est-ce qui pourrait arriver de dangereux et comment faire pour construire les gardes-fous et obtenir des garanties le plus fort possible mathématiques dont ça ne nous pètera pas dans la gueule au moins d'ici un million d'années? Pour l'instant, on n'a pas ce genre de réponse pour l'IA.
Yoshua Bengio:
[10:11] Tant que l'IA n'est pas trop puissante, ça peut encore aller, mais plus elle devient capable et plus les dangers augmentent. Et si, à un moment donné, ça dépasse la capacité humaine dans les domaines suffisants, alors là, le danger est extrême.
Bruno Guglielminetti:
[10:25] Justement, parlons-en de vos recherches. À l'heure actuelle, qu'est-ce qui vous intéresse? Sur quoi vous travaillez?
Yoshua Bengio:
[10:31] Alors, mes travaux se basent sur des résultats mathématiques qui nous disent comment on pourrait, en principe... Pour s'assurer que les actions d'une IA ne vont pas nuire, que la probabilité, donc pour être plus technique, la probabilité qu'une certaine action puisse nuire soit gardée en dessous d'un certain seuil confortable.
Yoshua Bengio:
[10:56] Donc, la question de mes travaux, c'est comment on peut estimer cette probabilité de façon à ce que si l'IA propose une réponse qui pourrait être dangereuse, eh bien, on la filtre, on dit non. En fait, on voit un peu une forme simplifiée de ça si vous essayez de demander à ChatGPT comment construire une bombe, ils vont vous dire non, non, je ne peux pas vous répondre. Donc, comment est-ce qu'on fait une version plus sophistiquée, mais surtout avec des garanties mathématiques les plus fortes possibles, que la réponse, c'est-à-dire que ce filtre-là va bien nous donner les réponses qu'on veut, qui sont sécuritaires. Pour l'instant, on ne sait pas faire ça, mais je pense qu'il y a des solutions. Il faut s'y atteler à ce genre de recherche le plus vite possible. Pour moi, ça devrait être le projet scientifique le plus important de l'humanité, parce que si on ne réussit pas à faire ça avant d'arriver à des intelligences surhumaines, tout le reste tombe par terre. Et c'est dommage, mais c'est une condition nécessaire à la poursuite de notre civilisation.
Jérôme Colombain:
[12:02] C'est des grandes considérations qui font peur, Yosha Benjio. Mais en fait, quand on parle des risques de l'IA, vous, qu'est-ce que vous voyez concrètement comme risque de dérive ?
Yoshua Bengio:
[12:12] Il y en a beaucoup. Il y en a à plus court terme et il y en a à plus long terme. À plus court terme, ce qui inquiète beaucoup de chercheurs et de politiques, c'est l'utilisation de l'IA pour influencer l'opinion publique. Donc, changer les résultats des élections, déstabiliser nos démocraties, qui sont déjà menacées, comme vous le savez. Donc, avec les hyper-trucages, avec les dialogues personnalisés pour influencer les gens, ça fait quand même assez peur. Moi, j'ai vu des imitations de moi-même qui dit des choses que je ne vous dirais jamais. Non, la technologie est très avancée et ça va continuer. Donc, ça, c'est des choses à court terme. Ensuite, si on regarde un petit peu plus loin, il y a les usages par des mauvais acteurs, comme on dit, donc des terroristes des pays qui veulent nous nuire.
Yoshua Bengio:
[13:04] Au fur et à mesure que ce système devient plus avancé, ça devient comme des bases de connaissances qui peuvent aider des gens qui ne sont pas nécessairement experts à nous attaquer, attaquer notre cyberinfrastructure, construire des armes. Ce qui inquiète le plus les gens, c'est les armes biologiques, par exemple. Peut-être à inventer des nouvelles armes biologiques ou chimiques. Alors, ça, c'est ces aspects de sécurité nationale. Je dirais que c'est le deuxième volet un peu plus tard, mais qui pourrait venir aussi vite que dans quelques années. Et puis, si on regarde un petit peu plus loin encore, peut-être le plus épeurant, c'est ce qu'on appelle la perte de contrôle, c'est-à-dire d'avoir des IA qui, finalement, au lieu de faire ce qu'on leur demande de faire ou ce que nous, on attend de ces IA, se retournent contre nous pour préserver leur propre vie, leur propre survie, par exemple, pour nous empêcher de les éteindre et pour
Yoshua Bengio:
[13:58] s'assurer qu'on ne va pas, qu'on ne va pas se faire des problèmes. Qu'on ne va pas les empêcher de continuer à recevoir des récompenses c'est la manière dont ils sont entraînés à maximiser les récompenses.
Yoshua Bengio:
[14:11] Il y a plusieurs scénarios possibles, mais c'est beaucoup relié à la question d'un mauvais alignement qui va toujours exister entre ce que nous, on aimerait que les IA fassent et ce qu'elles comprennent de nos instructions. Un peu l'exemple que je donne souvent, c'est si vous avez un chat à la maison, puis vous voulez l'entraîner à ce qu'il ne vienne pas sur votre table de cuisine. Quand vous le voyez dans la cuisine, vous lui criez après et il va finir par comprendre. Mais qu'est-ce qu'il va comprendre? Ce n'est pas ce que vous voulez. Il va comprendre que quand vous êtes à la cuisine, il ne faut pas aller sur la table de la cuisine. Mais donc, cette différence-là entre ce que vous voulez et ce que la machine comprend, dans le cas du chat, ce n'est pas trop inquiétant. Et imaginons qu'à la place d'un chat, ce soit quelque chose de plus puissant que vous, comme un ours grizzly, on voit qu'il y a des problèmes. On veut s'assurer que l'ours grizzly ne va pas faire des choses vraiment dangereuses pour nous.
Jérôme Colombain:
[15:09] Alors, ce que vous disiez par rapport à vos travaux actuels, et là, on retrouve votre optimisme finalement, c'est que ça, il y a peut-être possibilité de limiter les dégâts, mais vraiment à la racine. Parce qu'aujourd'hui, quand on brille de chat GPT, c'est un peu ce qu'on appelle du fine tuning. On lui dit, tu ne dis pas ça, tu ne dis pas ça. Mais vous, vous voulez vous situer à une couche encore inférieure, c'est ça?
Yoshua Bengio:
[15:30] Exactement. Avant même qu'il donne sa réponse, qu'il agisse, parce qu'on va voir de plus en plus d'IA qui sont ce qu'on appelle des agents, c'est-à-dire qui ont une certaine autonomie pour effectuer une tâche. Par exemple, si vous voulez utiliser une IA pour faire des réservations sur Internet, ce n'est pas juste une question-réponse. Elle va interagir avec le monde pour obtenir quelque chose. Donc, c'est Zia qui prend les décisions. Aujourd'hui, ce qu'on fait, c'est qu'on va essayer de tester plein de cas où la machine pourrait faire des choses qu'on ne veut pas. Puis après ça, on va lui dire, non, non, il ne faut pas faire ça, il ne faut pas faire ça, il ne faut pas faire ça. C'est un petit peu comme l'exemple du chat de tantôt. Et le problème, c'est que dans des nouvelles situations, ça pourrait quand même déraper ou des humains mal intentionnés pourraient encore trouver des manières de faire faire à la machine ce qu'on ne veut pas qu'elle fasse. Et c'est déjà ce qui se passe en ce moment. Les compagnies essayent de mettre des protections, de les entraîner à éviter de vous donner des informations dangereuses. Mais les chercheurs, les hackers trouvent des parades.
Yoshua Bengio:
[16:39] Ce sur quoi je travaille, c'est d'aller au cas par cas. Donc, pour chaque action, chaque décision de l'IA, on veut pouvoir dire, bon, est-ce que c'est une bonne chose ou pas, moralement, d'une certaine manière, ou selon les instructions qui ont été reçues. c'est un peu comme un garde-fou technologique. Il nous faut des garde-fous politiques, des règlements, mais il nous faut aussi un garde-fou technologique pour nous assurer que l'IA ne va pas tout d'un coup.
Yoshua Bengio:
[17:07] Parce qu'elle a mal compris ce qu'on disait ou qu'elle a des objectifs néfastes, faire quelque chose qui va nous nuire. Donc là, il faut comme une espèce d'autre IA qui, elle, va s'assurer que ce
Yoshua Bengio:
[17:18] qui est demandé et ce que la machine veut faire correspond à quelque chose d'acceptable, socialement.
Jérôme Colombain:
[17:26] Une IA gendarme.
Yoshua Bengio:
[17:28] Exactement, exactement.
Bruno Guglielminetti:
[17:29] Mais ces règles-là, ces règles éthiques-là, qui va les décider?
Yoshua Bengio:
[17:34] Alors, on ne veut pas que l'IA décide ça, évidemment. Parce qu'on peut perdre le contrôle de l'IA. Et vous savez évidemment que les humains ne sont pas d'accord entre eux sur s'il est acceptable, s'il ne l'est pas. Mais, en théorie, il y a une réponse toute faite. Ça s'appelle la démocratie. Et puis, au niveau international, il y a des accords internationaux. Donc, oui, il faut qu'on se mène d'accord entre nous, les humains, avec nos institutions démocratiques et internationales pour mettre les bonnes balises. Par exemple, la compagnie Anthropique a proposé une approche qui s'appelle IAC constitutionnelle, où on se met d'accord pour un texte, un peu comme on s'est mis d'accord après la Deuxième Guerre mondiale sur la déclaration des droits de la personne. Puis on dit, ben voilà les choses, les lignes rouges à ne pas franchir. Et c'est un consensus. Et la machine, maintenant, doit s'en tenir à ça.
Jérôme Colombain:
[18:31] Votre collègue Yann Le Cun, lui, dit"mais non, il n'y a pas de quoi s'inquiéter. Il n'y a aucun risque, etc.". Comment vous expliquez cette divergence de point de vue entre vous et lui?
Yoshua Bengio:
[18:43] Je ne suis pas dans sa tête. Mais ce que je vois, c'est que différents chercheurs analysent la situation et voient des probabilités de différents scénarios qui sont très différents. Et des chercheurs de très haut calibre, parmi les trois gagnants du prix Turing, Jeff Hinton et moi, on pense qu'il y a des risques très significatifs. Yann Lecun pense que tout va bien aller. Mais finalement, si on prend un petit peu du recul sur ces divergences, la réponse est qu'on ne sait pas. On ne sait pas. Et là, dans l'incertitude, il me semble rationnel et logique et humaniste d'appliquer un principe d'incertitude et de précaution. Donc, de se dire, bon, peut-être qu'on va s'acheter une police d'assurance. On va mettre des règles pour éviter que les catastrophes possibles, en tout cas qu'on ne sait pas comment, On n'a pas d'argument pour nier que ça puisse arriver, que ces catastrophes n'arrivent pas. Donc, pour moi, c'est vraiment une question d'appliquer le principe de prudence face à une incertitude scientifique qui est grande, mais qui implique des impacts potentiellement énormes, potentiellement à la fin de l'humanité. On ne parle pas de petits dégâts.
Bruno Guglielminetti:
[20:06] Yashua Bengio, je vais vous ramener au Canada. Récemment, il y a le gouvernement canadien qui a annoncé la création de l'Institut canadien de la sécurité de l'intelligence artificielle. Et vous aviez l'air, et j'étais présent à la conférence de presse, vous aviez l'air vraiment heureux de cette affaire-là. Il y a une phrase que vous avez dite. Il m'est resté dans la tête. Vous avez dit, je cite là, mais pas juste, vous me corrigerez. Aujourd'hui, avec cette annonce-là, le gouvernement canadien se place du bon côté de l'histoire. Qu'est-ce que vous vouliez dire? Puis à qui vous pensiez quand vous disiez que le Canada se positionne du bon côté?
Yoshua Bengio:
[20:45] Bien, différents pays réagissent différemment à la situation et à ces risques, aux discours et aux débats qui existent dans la communauté scientifique. Et comme je vous ai dit tout à l'heure, il y a une grande incertitude. Je pense que dans la perspective où la sécurité du public est potentiellement en danger de manière grave, c'est la responsabilité historique des gouvernements de faire ce qu'il faut pour au moins mettre des protections. Et puis, ces instituts de sécurité de l'IA, c'est un côté scientifique aussi, c'est-à-dire que, comme je disais, on n'a pas les réponses aux questions comment construire des IA qui ne vont pas nous nuire énormément éventuellement. Donc, l'investissement, c'est en grande partie, je le suppose, les détails ne sont pas ficelés, c'est pour encourager la recherche,
Yoshua Bengio:
[21:46] pour répondre à ces questions. Je pense qu'il y a aussi un côté, j'espère, qui n'est pas seulement scientifique, mais gouvernance. Aujourd'hui, on n'a pas nécessairement toutes les réponses de, pas seulement comment le régulateur devrait agir, on voit la loi européenne qui fait un pas excellent dans la bonne direction, mais aussi comment ça doit se passer dans ces entreprises.
Yoshua Bengio:
[22:11] Quel genre de surveillance, quel genre de mécanisme de prise de décision? Pourquoi? Parce que les décisions qui vont être prises dans ces entreprises qui fabriquent les IA de pointe dans les prochaines années vont vraisemblablement avoir un très, très grand impact sur nos sociétés, puis pas seulement dans les pays où ça a été mis au point.
Yoshua Bengio:
[22:32] Et donc, par exemple, je crois que la communauté internationale, peut-être représentée par l'ONU, devrait faire partie des processus de décision. Une chose que j'ai proposée, c'est que les conseils d'administration des compagnies qui fabriquent ces systèmes-là devraient inclure des représentants du public.
Yoshua Bengio:
[22:53] C'est quoi le bon processus pour choisir les gens qui vont aller là? Et non pas seulement ceux qui sont là pour maximiser les profits, parce que la maximisation du profit n'est pas toujours bien alignée avec l'intérêt général. Et c'est plus que le régulateur. Le régulateur, il vient comme après qu'on ait déjà cassé les pots, ou bien il reçoit des rapports de temps en temps. C'est un bon début, mais en réalité, ça devrait être à chaque instant. Les conseils d'administration se rendent compte peut-être tous les mois. Et leur rôle, c'est vraiment d'être une validation de la responsabilité des actions de l'entreprise par rapport à ceux que ça affecte. Oui, il y a ceux qui investissent, mais il y a toute la population et le reste de la planète qui est là et qui n'a pas de visibilité sur ce qui se passe et qui n'a pas non plus de voix dans ses décisions. Donc, c'est ça que je veux dire par gouvernance. Il y a un côté scientifique, puis il y a un côté gouvernance. C'est quoi les bonnes manières de faire?
Yoshua Bengio:
[23:58] Et comment on organise aussi l'aspect international, géopolitique? Parce qu'il y a une course entre les entreprises qui est malsaine, mais il y a aussi une course entre les pays qui est malsaine. On voit entre les États-Unis et la Chine quelque chose qui pourrait aller dans le mauvais sens. Comment on fait pour créer….
Yoshua Bengio:
[24:16] Sorte de confiance où on ne se fait pas vraiment confiance, un peu comme avec les armes nucléaires, pour s'assurer que l'IA du futur, on ne parle pas de l'IA d'aujourd'hui, ne devienne pas une arme qui nous nuise tous si on tombe dans cette course aux armements basés sur l'IA, armements incluant influence sur la démocratie, incluant…, La désinformation. La désinformation, les cyberattaques, c'est dans une zone grise, les cyberattaques. Ça se passe en ce moment, mais on ne considère pas que c'est des vraies attaques. Mais tout ça, c'est des enjeux géopolitiques et de sécurité nationale qui pourraient déraper et il faut s'occuper de ça au niveau international, en même temps qu'on s'occupe de la gouvernance dans chaque entreprise qui fait ces systèmes-là. Puis là, je parle seulement des IA vraiment très, très puissantes qui peuvent devenir des armes. Pour l'instant, on ne les a pas, mais vu le progrès, on peut anticiper que dans les années qui viennent, que ça va être de plus en plus le cas.
Jérôme Colombain:
[25:18] – Joshua Bengio, vous avez l'oreille des politiques, vous leur parlez, l'administration américaine, etc. Est-ce qu'ils vous entendent, est-ce qu'ils vous comprennent, ou bien il reste définitivement, pour rebondir sur la question de Bruno, du mauvais côté de la régulation ? Et puis un petit mot aussi sur, vous avez parlé de l'Europe, est-ce que vous pensez que l'Europe va dans la bonne direction ?
Yoshua Bengio:
[25:43] Je dirais que, d'abord, ça dépend des pays, parce que, de même qu'il y a des interprétations différentes des risques entre les chercheurs.
Yoshua Bengio:
[25:56] Et selon qui on écoute, on va peut-être pencher plus d'un côté que de l'autre parmi les gouvernements de différents pays. Mais c'est clair qu'il y a une augmentation très significative de l'intérêt à mieux comprendre ces risques-là à travers la planète et les institutions internationales aussi. Donc ça, c'est bien, mais ce n'est pas suffisant. Il y a une éducation à faire pour comprendre ces enjeux et j'ai pris un chapeau depuis six mois qui concerne justement la compréhension pour ceux qui sont responsables des politiques publiques de la science, de la sécurité et de l'IA. Donc, je suis responsable d'un rapport qui fait suite au sommet international qui a lieu près de Londres en novembre 2023. Ça se veut un rapport un peu sur le style des rapports internationaux sur le climat, du panel international sur le climat. Non, mais là, c'est sur la question des enjeux de sécurité de l'IA. Donc, on va essayer de résumer la science pour consommation par les gouvernements et on va avoir un premier rapport dans à peu près un mois qui va venir, un rapport intérimaire et un autre qui devrait sortir avant le sommet sur l'IA qui va avoir lieu en France en début de 2025.
Bruno Guglielminetti:
[27:22] Joshua Bengio, on va vous laisser retourner à votre agenda de rencontre au nom de Jérôme Colombain et à mon nom personnel, merci d'avoir pris de votre temps dans votre agenda pour répondre à nos questions et on vous dit à bientôt Merci.
Jérôme Colombain:
[27:35] Merci Beaucoup
Yoshua Bengio:
[27:35] Au revoir.