De plus en plus d’entreprises adoptent aujourd’hui l’intelligence artificielle. Mais peu sont celles qui se soucient vraiment des risques qui s’y afférent. OpenAI, Google, Meta, xAI, les grandes entreprises d’IA ont d’ailleurs réussi à détourner notre attention du danger que représente cette technologie. Heureusement que Max Tegmark, une figure prestigieuse de l’IA, a pris conscience de la situation et nous avertit contre les dangers cachés.
« Oui, certaines IA ont réussi à passer le test de Turing. Et c’est ainsi que l’on va perdre le contrôle. Mais ce sera trop tard à mon avis », a-t-il déclaré lors du sommet de l’IA les 21 et 22 mai dernier.
La panique commence également à s’intensifier du côté des dirigeants. Comme le cas de Yoshua Bengio, pionnier en machine learning et de Geoffrey Hinton, professeur à l’Université de Toronto.
Parallèlement, à cause de ces craintes, certaines organisations à but non lucratif ont proposé une pause sur la recherche en IA.
Une IA en particulier a mis la puce aux oreilles de ces instituts. Il s’agit de GPT-4 d’OpenAI qui est sorti la même année que la date proposée pour la pause.
Pour Future of Life, un des institut proposant une trêve sur les recherches en intelligence artificielle, la menace est réelle.
Mais les GAFAM semblent ignorer ces risques et continuent à développer des modèles de langage plus performants s’approchant de l’imitation parfaite.
Des milliers de signatures, mais aucun accord
Oui, Future of Life et compagnie ont obtenu des milliers de signatures après leurs requêtes, mais en vain.
Si certains experts et chercheurs en IA ont donné leur accord, notamment Bengio et Hinton, d’autres ont ignoré leur demande.
Néanmoins, des réglementations ont été établies quant au développement et l’adoption de l’intelligence artificielle.
Nous avons récemment pris connaissance de la première loi française sur la régulation de l’intelligence artificielle.
Le sommet de l’IA de Séoul se concentrait également davantage sur la réglementation de l’IA. Comme le cas du sommet de Bletchley Park du mois de novembre dernier.
Et comme le disait Hinton, ils ne sont pas les seuls à s’inquiéter des risques et des menaces que représente l’IA pour l’humanité.
Les GAFAM, depuis ce temps, détourné notre attention sur les dangers cachés de l’IA
Compte tenu des requêtes de ces instituts, seul un groupe s’est intéressé davantage à la sécurité et à l’impact de l’IA sur le marché du travail.
Pour Max Tegmark, fondateur de Future of Life Institute, les géants de l’IA sous-estiment les risques que représente cette technologie.
C’est peut-être pour cette raison qu’Elon Musk a dévoilé les secrets les plus obscurs de Google et d’OpenAI à la VivaTech du 22 au 25 mai.
Le vrai problème c’est que les entreprises d’IA veulent exactement que l’on parle des risques que pourrait engendrer l’intelligence artificielle, au lieu de nous inquiéter des dégâts qu’ils ont déjà provoqués.
Mais en réalité, les dangers sont déjà présents. Et les entreprises comme OpenAI en particulier, n’ont plus le contrôle sur l’IA.
Les normes de sécurité qu’elles ont instaurées ne garantissent pas non plus la sécurité des utilisateurs. Surtout en cette période ou les deepfakes se multiplient.
Peut-être qu’il est temps de mettre fin à ce détournement d’attention. Mais aussi de vraiment se conformer aux réglementations, à bon entendeur !
- Partager l'article :