Les scientifiques préviennent qu’au cours de la présente décennie ou de la suivante, il est probable que des systèmes d’intelligence artificielle générale extrêmement puissants seront mis au point et qu’ils surpasseront les capacités humaines dans de nombreux domaines critiques.
Intelligence artificielle : À la veille du deuxième sommet sur la sécurité de l’IA, qui s’est tenu les 21 et 22 mai à Séoul, d’éminents scientifiques du domaine appellent les dirigeants mondiaux à prendre des mesures plus énergiques face aux risques de l’IA, constatant que les progrès ont été insuffisants depuis le premier sommet, qui s’est tenu il y a six mois.
Dans un article publié dans la revue Science, 25 scientifiques des États-Unis, de l’Union européenne, du Royaume-Uni et de Chine affirment que les mesures prises pour nous protéger des dangers de la technologie sont insuffisantes.
L’article est cosigné, entre autres, par l’historien et philosophe Yuval Noah Harari, l’informaticien et pionnier de l’IA le plus cité au monde Jeffrey Hinton, et l’universitaire Dawn Song, spécialiste de la sécurité de l’IA la plus citée au monde.
Dans cet article, ils soulignent qu’il est impératif que les dirigeants mondiaux prennent au sérieux la possibilité que, dans la décennie en cours ou la suivante, des systèmes d’intelligence artificielle générale extrêmement puissants soient mis au point et qu’ils surpassent les capacités humaines dans de nombreux domaines critiques.
Dans le même temps, bien que les gouvernements du monde entier aient fait quelques efforts pour introduire des lignes directrices initiales, leurs actions sont en décalage par rapport à la probabilité de progrès rapides à laquelle s’attendent de nombreux experts.
En outre, ils constatent que la recherche actuelle sur la sécurité de l’IA est incomplète, puisque seulement 1 à 3 % des publications sur l’IA traitent de la sécurité. Ils notent que ni les mécanismes ni les institutions permettant de prévenir les utilisations abusives de la technologie ne sont en place.
Les scientifiques appellent les gouvernements à mettre en place des organes d’experts pour agir rapidement afin de superviser l’IA, qui devraient bénéficier d’un financement beaucoup plus important que ce qui est prévu.
Ils demandent également que des évaluations des risques beaucoup plus rigoureuses soient rendues obligatoires, mais aussi que les entreprises d’IA donnent la priorité à la sécurité et qu’elles soient tenues de démontrer que leurs systèmes ne peuvent pas causer de dommages. Enfin, il faut jouer un rôle de premier plan dans la création d’un cadre réglementaire.