Outre les fantasmes et les craintes – parfois légitimes – autour de l’IA, de quoi s’agit-il réellement ? un article de France 24 vous propose un retour sur une avancée technologique fulgurante avec Nicolas Sabouret, informaticien et professeur à Paris-Saclay.
Depuis quand ça existe ?
L’expression « intelligence artificielle » est employée pour la première fois à l’été 1956, lors d’un colloque scientifique au Dartmouth College, aux États-Unis, par deux informaticiens américains : John McCarthy (1927-2011) et Marvin Minsky (1927-2016).
« L’effervescence actuelle autour de l’IA n’est pas nouvelle : dès les années 1960-1970, il y avait déjà une forte excitation et les scientifiques s’imaginaient que dix ans plus tard, les machines allaient remplacer l’humain », nous explique l’enseignant-chercheur Nicolas Sabouret.
Il y a eu ensuite « l’hiver de l’IA », une période où les investisseurs ont constaté que les résultats ne correspondaient pas à leurs attentes et ont cessé de financer la recherche. « Cela a conduit à une trentaine d’années de stagnation dans le domaine, à l’exception de quelques avancées dans le milieu académique », ajoute-t-il.
Utilisation des GPS, tri du courrier, contrôles de machines… « L’intelligence artificielle est utilisée tout au long de la seconde partie du XXe siècle, sans que beaucoup en aient conscience », rappelle Nicolas Sabouret. D’un point de vue scientifique, « les progrès significatifs – notamment avec l’émergence des réseaux de neurones artificiels – des méthodes de calculs particulières » ont permis « un nouveau grand engouement à partir des années 2010 », selon ce spécialiste.
Découvertes par le grand public via des logiciels tels que ChatGPT ou Midjourney, les récentes avancées concernent surtout l’analyse d’images et la génération de texte à partir d’instructions simples. Ces progrès rendent l’IA accessible à tous, même sans expertise technique.
Qu’est-ce que c’est concrètement ?
L’intelligence artificielle est un champ scientifique intégrant plusieurs disciplines, telles que l’informatique, les mathématiques, la psychologie cognitive et la linguistique.
Marvin Minsky, dont les études portaient, dans les années 1950-1960, sur les mécanismes offerts par l’informatique dans la compréhension des sciences cognitives, proposait la définition suivante : « La construction de programmes informatiques capables d’accomplir des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains. »
Cette définition très large « fait consensus dans la communauté scientifique », et peut se résumer à « l’ensemble de méthodes informatiques permettant à des machines de résoudre des problèmes que nous résolvons à la base par l’intelligence humaine », reformule Nicolas Sabouret.
Bien loin, donc, du mythe d’une machine consciente dotée d’une intelligence propre et capable de « prendre le dessus sur l’homme », il faut comprendre que « les humains font faire aux machines, par le calcul, des choses qu’ils font avec leur intelligence », insiste-t-il.
Est-ce que toutes les IA se ressemblent ?
Si la discipline a évolué au fil du temps et qu’on observe aujourd’hui « des centaines de milliers de types d’IA », il existe « trois grandes catégories », détaille l’expert.
La première, très populaire dans les années 1960-1980 est « utilisée pour des applications comme le GPS ou les échecs et est basée sur des règles ». La seconde est basée sur l’apprentissage automatique, qui permet à la machine d’ajuster ses paramètres en analysant des données. « Un exemple courant est l’algorithme de recherche de Google », ajoute Nicolas Sabouret.
Enfin, la dernière est « une sous-catégorie de l’apprentissage automatique » et regroupe ce qu’on appelle les « réseaux de neurones », qui se distinguent par leurs bons résultats en traitement d’images et dans la génération de texte ou d’images.
Dans les années 2000, « les réseaux de neurones profonds, ou ‘deep learning’, ont émergé grâce au Big Data » – le stockage à grande échelle de données en ligne, qui donne la possibilité d’entraîner des algorithmes de classification – « et à la puissance des cartes graphiques » – un composant informatique permettant de classifier les vastes bases de données textuelles et multimédias sur lesquelles l’IA s’entraîne.
Depuis, les progrès dans ce domaine continuent chaque jour.
Quels sont les risques ?
L’IA présente assurément des risques. Ils sont notamment liés à la fois à une surabondance d’informations erronées et/ou de mauvaise qualité générées par des systèmes automatisés, et aux risques écologiques majeurs. « Dans ce contexte, le rôle des journalistes, notamment dans la vérification des sources, devient crucial », rappelle Nicolas Sabouret.
D’autre part, l’IA fait craindre des impacts écologiques majeurs. L’intelligence artificielle, surtout celle basée sur les réseaux de neurones, est puissante mais coûteuse en termes d’énergie. « Chaque requête sur GPT génère environ 1,5 gramme de CO2« , explique le spécialiste. L’un des grands défis actuels est « donc de limiter l’empreinte écologique du numérique ».
Source: France24.com
