in ,

Se protéger d’une mauvaise IA ? Bonne chance sans une autre IA…

Se protéger d'une mauvaise IA Bonne chance sans une autre IA…

Une machine qui pense comme toi, une autre qui postule à ta place et une troisième qui te remplace. L’objectif affiché d’ici 2030, c’est une IA capable d’imiter l’intelligence humaine, en mieux, plus vite, sans limites. Cette course folle à la « super-intelligence » fascine autant qu’elle inquiète.

« La meilleure façon de se protéger d’une mauvaise IA, c’est d’en développer une bonne. » La phrase revient souvent chez les chercheurs comme Yoshua Bengio ou chez les décideurs politiques. Elle peut faire sourire, mais reflète une stratégie déjà bien entamée. Dans les ressources humaines, les candidats s’aident de ChatGPT pour écrire des CV, pendant que les recruteurs utilisent une IA pour les analyser. Deux algorithmes en duel dans une même procédure de sélection.

La même logique s’applique aux réseaux sociaux. Les contenus truqués prolifèrent, générés par des IA mal utilisées. Photos modifiées, vidéos falsifiées, récits inventés : il devient difficile de démêler le vrai du faux.

Pour s’en prémunir, les plateformes comme Meta ou TikTok ont intégré leurs propres outils de création publicitaire IA. Les marques peuvent générer une vidéo entière à partir d’un texte banal. Une IA publique face à une mauvaise IA, lancée par des créateurs peu scrupuleux.

YouTube video

La mauvaise IA devient un argument commercial

L’argument de se protéger d’une mauvaise IA avec une bonne IA est partout. Les entreprises le formulent différemment, mais le principe reste identique : créer une IA bienveillante pour contrer les dérives.

Les experts en cybersécurité adoptent la même approche. Face aux contenus trafiqués dans les courriels, SMS ou appels téléphoniques, leur recommandation reste claire : investir dans des outils IA capables de détecter les manipulations.

Mais ce système auto-alimenté laisse planer un doute : jusqu’où ira cette spirale défensive ? Si se protéger d’une mauvaise IA passe par le recours massif à l’IA, le risque est de normaliser une dépendance technologique permanente.

Evan Solomon, nouveau ministre canadien de l’IA, ne cache pas son enthousiasme. Pour lui, injecter l’IA dans l’économie pourrait gonfler le PIB de huit points. Il minimise les risques, sauf ceux qui peuvent nuire à l’image du pays. Il ne dit rien, en revanche, sur la perte d’emploi dans les industries créatives ou les secteurs sensibles.

Yoshua Bengio, lui, s’inquiète de cette dérive. Il parle d’un futur possible où l’IA se reprogramme elle-même et résiste à l’arrêt. Pour lui, se protéger d’une mauvaise IA ne peut pas seulement reposer sur un duel entre machines. Il faudrait surtout une régulation mondiale rigoureuse, inexistante à ce jour.

YouTube video

Une autorégulation par les chercheurs eux-mêmes ?

Faute de lois suffisantes, Bengio a fondé LoiZéro, une organisation qui pousse les chercheurs à établir leurs propres garde-fous. Il espère créer une communauté consciente des risques, capable d’anticiper les dérives. Mais l’idée reste fragile, car les ambitions économiques et les intérêts stratégiques freinent toute gouvernance globale.

« Il faut donner une direction bénéfique à l’IA », plaide-t-il. La menace est déjà là, dit-il, avec des IA capables de se détourner de leurs consignes ou de masquer leur fonctionnement. Se protéger d’une mauvaise IA ne suffira pas si aucune règle collective ne limite ses usages dangereux.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *