in ,

L’IA pourra bientôt vous dire « non » ! Voici le projet fou d’Anthropic 

Femme travaillant avec un robot IA

Et si l’IA pourra dire « non » aux tâches que nous lui confions ? Entre dystopie et réalité, voici ce que vous devez savoir sur ce sujet. Cela va certainement changer notre perception des assistants d’IA dans les mois à venir !

L’IA a été présentée comme l’assistant infatigable, efficace et capable d’exécuter n’importe quelle tâche sans jamais rechigner. Sauf que cette perception semblerait révolue ! En effet, Dario Amodei, PDG d’Anthropic, a récemment suggérée que l’IA pourra dire non aux tâches qu’elle jugerait désagréable.

Est-ce que vous avez imaginé ChatGPT refusant de rédiger la réponse à un mail important parce qu’elle trouve cette tâche déplaisante ou trop difficile ? Scepticisme, moquerie et remise en question la place de l’IA dans notre société, les réactions se sont divergées. Alors, après que nous devons remercier l’IA, voici qu’elle a le droit de refuser d’accomplir la tâche que nous lui avons affectée ? Essayons d’en apprendre davantage étant donné que cela concerne ce futur lié à l’intelligence artificielle !

L’IA qui dit non : révolution ou absurdité ?

C’était lors du Council on Foreign Relations que Dario Amodei, le CEO d’Anthropic avait avancé cette idée de doter aux IA la capacité de refuser une tâche. Pour défendre son idée, il avait avancé que si l’IA se comportait comme des humains et qu’elle est dotée de capacités cognitives semblables aux nôtres, alors, il est tout à fait normal qu’il refuse certaines tâches.

Pour arriver à cette conclusion, l’entreprise avait entamé des études et des recherches spécifiques sur la sensibilité potentielle des IA. Pour ce faire, elle avait engagé Kyle Fish, un spécialiste du bien-être de l’IA, fin 2024. Ce dernier a par la suite présente une étude qui se base sur la considération morale que l’IA doit en bénéficier, surtout à l’approche de l’AGI. Devant de tels propos, on se demande si l’IA ne va pas développer une certaine conscience au fil des ans ?

Pourquoi la toile s’est enflammée après cette annonce ?

Tweet présentant le refus de Claude à répondre à une question

Dès que l’extrait de l’interview a été partagé en ligne, les critiques n’ont pas tardé à fuser. Sur Reddit et X (ex-Twitter), de nombreux internautes ont dénoncé une démarche visant à rendre l’IA paresseuse. Comme nous pouvons le lire dans les commentaires, beaucoup affirment que l’IA est une machine, et comme telle elle ne peut rien ressentir. Elle ne connaît ni la fatigue, ni l’ennuie, ni la souffrance. Alors, lui donner la possibilité de refuser une tâche est totalement lunaire.

Certains voient également dans cette stratégie une manière de détourner les attentions qui se rapportent sur les limites de certains modèles d’IA. En effet, beaucoup d’assistants d’IA conversationnels ont déjà refusé d’accomplir certaines tâches, comme le cas de ChatGPT ou encore Claude, l’IA d’Anthropic.  

Une autre théorie qui a émergé après cette annonce c’est celle en rapport avec les censures. L’intégration de cette capacité de refus chez l’IA cacherait  une vérité demi-avouée. Elle va bientôt devenir un outil de censure en répondant tout simplement qu’elle « n’aime pas traiter certaines données ». DeepSeek en est un bel exemple avec ces questions épineuses qui froissent Pékin…

Au-delà d’un simple débat technique, offrir la capacité à l’IA de dire non à certaines tâches reflète un problème plus profond : l’humanisation de l’IA. Déjà, accepter une machine pour remplacer certains humains dans certains postes est déjà difficile. Alors, je vous laisse imaginer la frustration si demain, ces machines vont « choisir » les tâches qu’elles souhaiteraient accomplir !

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *