in

Un pionnier de l’IA sonne l’alarme : l’humanité en danger ?

L'IA est-elle un vrai danger pour l'humanité ?

L’utilisation de l’IA, aussi puissante qu’elle l’est aujourd’hui, n’est pas sans danger. Les machines, de leur côté, sont de plus en plus intelligentes, alors qu’on n’a pas encore atteint l’AGI ou l’ Générale. Pour Yoshua Bengio, professeur à l’Université de Montréal, à ce rythme, les machines disposeront bientôt de capacités cognitives. Ce qui veut dire qu’il se pourrait que l’IA puisse se retourner contre nous.

Mais qu’est-ce que cela signifie pour la société ? Aussi, si l’IA connaît presque tout aujourd’hui. Or, le renseignement donne le pouvoir, ce sera pire si l’intelligence artificielle va contrôler ce pouvoir.

En tout cas, pour Bengio, le développement des machines alimentées par IA coûte très cher. Seule une poignée d’entreprises et de pays pourront donc le faire.

Cela dit, on assistera à une concentration de pouvoir sur plusieurs plans : économique, politique et, militaire, entre autres.

YouTube video

« Il ne nous reste plus que 10 ans, il faut à tout prix instaurer des garde-fous »

Selon Bengio, ces avancées technologiques pourraient se concrétiser à l’horizon de quelques décennies.

Il souligne toutefois un danger majeur concernant un développement plus rapide de l’IA. En particulier l’absence de protocoles garantissant la sécurité et la bienveillance de ces systèmes envers l’humanité.

« Et aujourd’hui, il est encore impossible d’assurer un tel contrôle », a-t-il ajouté dans sa déclaration.

Ce pionnier de l’IA nous met également en garde contre les méthodes d’entraînement qu’adoptent les entreprises d’IA telles qu’OpenAI, Google, Meta et Microsoft.

D’après lui, les techniques actuelles pourraient engendrer des systèmes potentiellement hostiles aux intérêts humains.

« J’ai pu constater deux risques majeurs en ce qui concerne la d’intelligence artificielle. D’une part, le potentiel détournement de cette technologie par des acteurs malveillants. Ce qui est déjà le cas avec les attaques de phishing. Et d’autre part, l’existence de groupes, bien que minoritaires, mais potentiellement influents, favorables à une substitution de l’humain par la machine ».

Face à ces enjeux, Bengio préconise la mise en place immédiate de garde-fous appropriés pour encadrer le développement de ces technologies. Mais n’est-ce pas déjà le cas ?

« Face à ce danger, je plaide pour un cadre réglementaire de l’IA avancée »

Un document alertant sur le danger que représentent les systèmes d’IA avancés a reçu le soutien de Bengio en juin dernier.

Cette initiative, intitulée « Le droit d’alerter sur l’intelligence artificielle avancée », portée par des collaborateurs passés et actuels de l’entreprise , créatrice de ChatGPT, visait à sensibiliser tous les partis pouvant être impactés par l’IA. À savoir la communauté scientifique, les autorités et le grand public.

Les préoccupations concernant OpenAI se sont d’ailleurs intensifiées suite à la dissolution de leur équipe « AGI Readiness » au mois d’octobre dernier.

Pour faire face à ces enjeux, Bengio préconise la mise en place urgente d’un cadre réglementaire contraignant.

Il recommande particulièrement l’instauration d’un système d’enregistrement obligatoire pour les entreprises développant des modèles d’IA de grande envergure. Notamment ceux nécessitant des investissements considérables.

Cette mesure permettrait aux autorités d’avoir une visibilité précise sur ces développements technologiques et leurs caractéristiques.

Et face à l’évolution rapide de l’IA, il souligne la nécessité pour les gouvernements d’adopter une approche innovante dans l’élaboration des réglementations.

L’enjeu est donc de créer un cadre législatif suffisamment flexible pour s’adapter aux mutations technologiques continues.

Comme le cas de l’AI Act qui est entrée en vigueur le 1er août de cette année dans l’ensemble du territoire européen.

L’IA représente-t-elle un vrai danger pour l’hunamité ? Ce qu’en pense Bengio

Dans toute cette histoire, c’est cette question de Bengio qui m’a le plus intrigué. « La création d’entités artificielles surpassant l’intelligence humaine pourrait-elle représenter une menace existentielle pour notre espèce ? ».

Ces interrogations, selon lui, constituent un défi autant philosophique qu’éthique sans réponse définitive.

Il appelle alors à une approche pragmatique et nuancée et insiste sur la nécessité de poursuivre les recherches. Mais aussi de redoubler de vigilance afin d’anticiper et de minimiser les risques associés au développement des intelligences artificielles.

Sa vision propose en effet un appel à l’action citoyenne et collective. Il rappelle que les sociétés humaines conservent la capacité d’orienter leur trajectoire technologique.

YouTube video

Pour relever ce défi, il estime crucial de mobiliser un nombre suffisant de personnes comprenant les opportunités et les dangers de l’IA.

L’approche à adopter devrait cependant être multidimensionnelle. C’est-à-dire que solutions devront être technologiques, politiques et probablement hybrides.

L’essentiel, selon lui, est d’engager dès maintenant un effort concerté et réfléchi pour guider l’évolution de ces technologies de manière responsable et bénéfique pour l’humanité.

Mais de quels défis il s’agit exactement ?

L’enjeu le plus important n’est autre que la capacité des technologies d’IA à altérer la perception de la réalité.

La propagation de fausses informations et la manipulation des opinions publiques constituent également un défi majeur qui s’intensifiera avec l’évolution des systèmes d’intelligence artificielle.

Et c’est tout à fait logique puisque les systèmes actuels sont déjà capables de générer des images très réalistes. Mais aussi d’imiter notre voix tout en a superposant aux vidéos d’une autre personne.

Et c’est cette potentialité à générer des images, des enregistrements vocaux et des vidéos d’une précision troublante qui pourrait devenir un puissant vecteur de désinformation.

Ce qui, par la suite, va compromettre l’intégrité des processus démocratiques et la formation des opinions individuelles.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *