91³ÉÈË

Passer au contenu

91³ÉÈË

Portrait de chercheur

Le crateur d'intelligence

Yoshua Bengio

Professeur au Dpartement d’informatique et de recherche oprationnelle, chef de l’Institut des algorithmes d’apprentissage de 91³ÉÈË, directeur scientifique de l’Institut de valorisation des donnes et titulaire de la Chaire de recherche du Canada en algorithmes d’apprentissage statistique

Comment fonctionne l’intelligence et comment peut-on la construire? Dès l’adolescence, Yoshua Bengio s’est passionn pour cette pineuse question. « J’apprenais à programmer, je lisais de la science-fiction et je rêvais d’intelligence artificielle. Â»

On lui attribue aujourd’hui la copaternit de systèmes informatiques qui s’inspirent du fonctionnement de nos neurones. Cette technique, appele « apprentissage profond Â», a fait sortir l’intelligence artificielle des rcits d’anticipation, permettant des avances spectaculaires en matière de reconnaissance de la voix et de l’image et rendant envisageables des technologies comme la voiture autonome.

Ces rsultats doivent beaucoup à la patience et à la tnacit du chercheur. Les rseaux de neurones artificiels, son sujet de recherche depuis son mmoire de maîtrise, taient loin d’être à la mode avant qu’il dmontre leur efficacit dans un article publi en 2006. « J’avais beaucoup de mal à convaincre mes tudiants de travailler là-dessus. Ils craignaient de ne pas trouver d’emploi en sortant de l’universit Â», raconte-t-il.

Ce n’est plus le cas. En 2013, Google a achet à fort prix DeepMind, une jeune pousse londonienne spcialise en intelligence artificielle, où travaillaient plusieurs anciens tudiants du professeur Bengio. La course tait lance, et le laboratoire de Yoshua Bengio s’est impos comme la principale ppinière de talents dans le monde pour les programmeurs d’intelligence artificielle. À tel point que Google et Microsoft ont ouvert des centres de recherche à 91³ÉÈË et que les communauts scientifique et d’affaires locales se sont allies pour faire de leur ville une plaque tournante de cette nouvelle industrie.

Quelles ont t les tapes marquantes de votre carrière de chercheur?

En 2006, nous avons dcouvert une technique grâce à laquelle nous pouvions, pour la première fois, entraîner des rseaux profonds de neurones artificiels qui fonctionnaient beaucoup mieux que les rseaux classiques. Nous avons ensuite travaill avec des collègues des neurosciences pour laborer des variations de calculs de neurones artificiels inspirs par la biologie – ce qui nous a permis d’amliorer considrablement nos systèmes. Puis, nous avons vu les premières applications concrètes de nos recherches : dans le domaine de la reconnaissance de la parole en 2010 et celui de la reconnaissance des objets en 2012. Enfin, en 2014, nous avons fait une dcouverte qui est en train d’oprer une rvolution semblable en traduction automatique.

Comment envisagez-vous l’avenir de la recherche en intelligence artificielle?

Nous avons encore beaucoup de choses à dcouvrir avant d’atteindre une intelligence de niveau humain. En ce moment, il y a une pousse vers ce qu’on appelle « l’apprentissage par renforcement Â» : combin avec l’apprentissage profond, il permet des applications comme le système AlphaGo, qui en 2016 est devenu le premier logiciel à battre un champion de go, un jeu posant à l’ordinateur un dfi beaucoup plus grand que les checs, car il ncessite une forme d’intuition. Nous devons aussi progresser du côt de l’apprentissage non supervis. L’ordinateur n’apprend pas encore par lui-même comme le ferait un enfant qui observe le monde autour de lui. C’est une tape importante qu’il nous reste à franchir.