Une heure avant l’ouverture, la foule se presse devant l’entrée du collège des Bernardins dans le Ve arrondissement de Paris. « Premier arrivé, premier assis », nous avertit-on, en nous assurant que le lendemain à l’abbaye de Royaumont, à une heure de route, dans le Val-d’Oise, ce sera pire. Au total, quelque 1 490 personnes ont assisté aux deux jours des Entretiens.
Le flot des visiteurs emplit la nef du collège ; on se dispute les meilleures places entre les piliers de pierre, pour être au plus près du chœur, où Yann Le Cun, l’un des pères fondateurs du deep learning, ou « apprentissage profond », va lancer la première conférence.
Retenu à Hanoï, le directeur scientifique de l'IA de Meta (Facebook), représenté par son image projetée sur écrans géants, commence par présenter ce qui aurait pu être la conclusion : l’IA générative, comme ChatGPT, n’est pas l’avenir. Le chercheur conseille même aux jeunes chercheurs de ne pas travailler sur celle-ci, ni sur les chatbot, « déjà aux mains des industriels ».
« Joint embedding predictive architecture »
Il préconise de miser sur une autre sorte d’IA, qu’il appelle la « Joint embedding predictive architecture », ou JEPA. Ces systèmes seraient « plus intelligents », c’est-à-dire performants, puisqu’entraînés pour leur prédiction de séquences non plus uniquement sur du texte, comme les IA génératives, mais avec en plus de l’image et de la vidéo.
La question sous-jacente de cette édition des Entretiens aura été : l’IA peut-elle rivaliser avec l’humain ? Yann Le Cun est catégorique, quoiqu’à demi-rassurant : « Ceux qui prétendent que l’intelligence artificielle peut remplacer l’intelligence humaine disent n’importe quoi, il faudra encore au moins une décennie ou deux ».
Distinguer le fonctionnement de la machine de l’intelligence humaine a été l’enjeu de la table ronde réunissant Blaise Agüera y Arcas, chercheur chez Google, et le chercheur en neurosciences Stanislas Dehaene dans l’abbaye cistercienne de Royaumont, le vendredi. On sait depuis que les réseaux de neurones artificiels actuels sont plutôt efficaces pour « capturer la manière dont les changements synaptiques peuvent conduire à un apprentissage sophistiqué », mais également pour « modéliser certains aspects de la vision et du langage ». En revanche, le cerveau humain « continue d’apprendre à partir d’un très petit nombre d’exemples », comme le fait un enfant, et excelle parce qu’il est capable « d’apprendre des autres et d’apprendre avec les autres ».
Coût écologique et social
Le concepteur de l’intelligence artificielle Siri, le docteur Luc Julia, alerte quant à lui sur le coût écologique de cette technologie : « Trois ou quatre requêtes, c’est l’équivalent de trois bouteilles d’eau ». Xavier Bertrand, président du conseil régional des Hauts-de-France, souligne de son côté que les précédentes transformations technologiques avaient touché les cols bleus, « alors que là, ce sont les cols blancs et les t-shirts qui sont concernés et ils n’ont jamais connu ça ! »
En alternance avec des tables rondes où des professionnels donnaient la parole au monde de l’entreprise, on découvre Pierre Fautrel, membre du trio Obvious, connu pour avoir présenté la première œuvre d’art produite par une IA en 2018 chez Christie's, à New York. « Le Portrait d'Edmond de Belamy est entré dans l’histoire car il met le point sur l’irruption d’un nouvel outil dans l’art », expliquait-il, fort de ses 500 000 dollars empochés.
Derrière la crainte du réalisateur Cédric Klapisch de voir disparaitre « certains métiers » du cinéma, on a salué la naissance de l’Artefact AI Film Festival, le premier concours de court-métrages réalisés avec IA. Une compétition entre près de 350 films en provenance de 40 pays. « Cela change notre manière de produire, mais permet aussi de donner de nouveaux moyens d’expression à de nouvelles personnes. L’IA générative est accessible à tous », conclut Elisha Karmitz, directeur général de mk2, à la tête de ce festival plein d’avenir.