in ,

OpenAI redoute l’émergence d’une IA surhumaine et cherche à en assurer le contrôle

L’intelligence artificielle a connu une progression fulgurante ces dernières années. Les capacités des systèmes d’IA actuels sont impressionnantes, et leur puissance ne cesse de s’accroître. Face à ce progrès rapide, OpenAI s’inquiète de l’avènement d’une intelligence artificielle surhumaine. Une telle IA pourrait représenter une menace existentielle pour l’humanité. Pour faire face à cette préoccupation, la start-up a formé une équipe dédiée au contrôle de cette technologie. Elle a présenté les progrès réalisés dans ce domaine lors de l’édition 2023 de la conférence annuelle NeurIPS.

Une équipe de superalignement pour contrôler l’IA

En juillet 2023, OpenAI a formé l’équipe de superalignement, dirigée par Ilya Sutskever, le scientifique en chef de la start-up. Son objectif est de développer des moyens de contrôle des systèmes d’IA. Sutskever faisait également partie du conseil d’administration d’OpenAI qui a contribué au licenciement de Sam Altman quelques semaines plus tôt. Cette décision semble désormais mieux comprise. En effet, Altman travaillait sur son projet d’IA baptisé Q*, qui, selon les chercheurs d’OpenAI, dont Sutskever, présentait une menace potentielle pour l’humanité.

Collin Burns, Pavel Izmailov et Leopold Aschenbrenner, trois membres de l’équipe de superalignement, étaient présents à la conférence qui s’est déroulée au Centre des congrès Ernest N. Morial de la Nouvelle-Orléans, du dimanche 10 au samedi 16 décembre. Burns a indiqué qu’à l’heure actuelle, il est possible d’aligner des modèles d’IA qui sont soit moins intelligents, soit équivalents à la capacité humaine. Cependant, il a souligné que cette tâche devient difficile lorsque l’intelligence artificielle surpasse le niveau intellectuel humain.

Une IA surhumaine : un problème réel ou une illusion ?

Le superalignement d’OpenAI suscite la controverse au sein de la communauté de recherche en intelligence artificielle. Bien que Sam Altman ait comparé son IA au Projet Manhattan, visant à développer la première bombe atomique, certains experts estiment que c’est encore trop tôt de penser à une IA capable de détruire l’humanité. À leur avis, il n’y a aucune preuve démontrant que l’intelligence artificielle de la start-up pourrait poser une menace imminente pour l’humanité dans un avenir proche. Certains pensent même que cette menace potentielle pourrait ne jamais se concrétiser.

D’après d’autres experts, cela est considéré comme une fausse piste. Selon eux, OpenAI ne fait que détourner l’attention des problèmes plus pressants. C’est le cas des biais algorithmiques ainsi que de la propension de l’IA générative à créer des contenus inadaptés (haineux, etc.).

OpenAI, déterminée à superviser l’IA

Sutskever, lui, est pourtant convaincu que l’intelligence artificielle, qu’elle provienne d’OpenAI ou d’une autre société, représentera éventuellement une menace existentielle pour l’humanité. Et il semble déterminé à la contrôler. Pour exprimer son engagement envers la prévention de tels risques, il a même détruit une effigie en bois représentant l’IA lors de la conférence. De plus, il annonce qu’OpenAI consacrera 20% de la puissance de calcul de ses puces informatiques à cette équipe.

Aschenbrenner a également souligné la progression fulgurante de l’intelligence artificielle. Il pense que cette tendance rapide nous conduira vers des systèmes d’IA surpassant les capacités humaines. Et assurer leur contrôle sera désormais le défi le plus important de notre époque.

L’équipe de superalignement d’OpenAI travaille actuellement à élaborer des cadres de contrôle applicables aux futurs systèmes d’IA puissants. Pour l’instant, afin de garder le contrôle de cette technologie, elle adopte une approche utilisant un modèle d’IA moins sophistiqué comme GPT-2 pour guider un modèle plus avancé tel que GPT-4.

 

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *