Le pronostic est lancé, l’IA va anéantir l’humanité dans 30 ans si nous ne trouvons pas une solution relative à son utilisation. Bluff ou réalité, découvrez la réponse dans ce qui suit !
Le professeur Geoffrey Hinton, Nobel du physique en 2023 et « parrain de l’IA » tire la sonnette d’alarme. Selon lui, l’IA va anéantir l’humanité dans 30 ans si nous n’intervenons pas dès aujourd’hui. Certes, l’intelligence artificielle continue de faire de progresser en rendant notre monde beaucoup plus meilleur, mais toute chose à un prix.
En effet, Hinton estime que l’humanité risquerait de s’éteindre d’ici trois décennies si l’IA continue dans cette lancée. Pourquoi une telle estimation ? Comment éviter que l’IA ne détruise l’humanité dans son ensemble ? Essayons de décrypter ces questions dans ce qui suit !
La course effrénée à l’IA, la perte de l’humanité d’ici 30 ans ?
Pourquoi nous fonçons droit dans le mur alors que l’IA est jugé comme l’une des belles choses qui s’offre à l’humanité ? Interrogé sur le sujet au micro du BBC Radio 4, le professeur Hinton avait expliqué que les avancées technologiques liées à l’IA dépassent largement les attentes initiales. Il avait même déclaré que l’intelligence artificielle est « une entité beaucoup plus intelligentes que l’homme lui-même ».
Afin de vous donner une idée de la différence entre nous et l’IA, le scientifique avait utilisé comme exemple la dynamique entre un adulte et un enfant de 3 ans. L’enfant de 3 ans ici serait nous. Face à cela, il avait exprimé ses préoccupations profondes, notamment que d’ici peu, l’homme va perdre le contrôle de l’IA.
Est-ce que vous avez déjà trouvé une entité moins intelligente contrôlée une entité plus intelligente qu’elle ? En répondant par un non, je crois que vous pouvez imaginer l’ampleur du dégât que l’IA va engendre sur l’humanité dans les trois prochaines décennies !
L’intelligence artificielle générale ou AGI au cœur des préoccupations ?
Bien que certains spécialistes prédisent que l’intelligence artificielle générale ou AGI aura besoin de beaucoup de temps avant d’être fonctionnelle, il faut croire que c’est l’une des craintes majeures de Hinton. En effet, des entreprises technologiques telles qu’OpenAI et Microsoft déploient leur arsenal pour entraîner leur modèle IA afin de devenir l’égal de l’homme.
Et à en croire la vitesse à laquelle l’IA se développe, il est certain que dans peu de temps, l’IA sera capable d’égaler, voire de surpasser les capacités humaines dans presque tous les domaines. De tels systèmes pourraient devenir impossibles à contrôler et représenter une menace existentielle.
Hinton avait déjà fait les gros titres en 2024 après avoir démissionné de son poste chez Google pour pouvoir s’exprimer librement sur les risques de l’IA. Il avait alors mis en garde contre la possibilité que des acteurs malveillants exploitent la technologie pour causer des dommages irréparables.
Une régulation gouvernementale : une indispensable plus que jamais !
Face à ces risques, Hinton a plaidé pour une régulation gouvernementale stricte de l’IA, affirmant que le « moteur du profit » des grandes entreprises ne suffirait pas à garantir un développement sûr. « La main invisible ne nous protégera pas », a-t-il averti, appelant les gouvernements à intervenir pour imposer des normes de sécurité rigoureuses.
Mais comme il existe différentes écoles dans le monde de l’IA, cette vision de Hinton contraste avec celle de Yann LeCun, directeur scientifique à la tête de la recherche de l’IA générative chez Meta. En effet, cet autre parrain de l’IA estime que cette technologie intelligente sauverait l’humanité de l’extinction et non le contraire.
Est-ce que nous devrions craindre l’IA d’ici 30 ans ?
Tout le monde n’a pas parié sur la vitesse fulgurante à laquelle l’IA s’est développée, même Hinton. « Je ne pensais pas que nous en serions là aujourd’hui. Je croyais que cela arriverait un jour, mais plus tard. », avait-il déclaré lors de cette interview.
Et comme si cette annonce n’était pas suffisante, il a ajouté qu’une IA beaucoup plus intelligente que l’homme pourrait être développé dans 20 ans. Ce qui vient de confirmer sa théorie comme quoi l’IA va anéantir l’humanité dans 30 ans. Je ne sais pas pour vous, mais personnellement, ce scénario m’effraye au plus haut point.
Des questions qui méritent réflexions pour une meilleure cohabitation entre IA et humain
Après avoir développé l’IA, Hinton nous met en garde contre ses potentiels dérives. Parmi les problèmes qui méritent réflexion celui concernant la garantie que cette technologie reste sous contrôle humain alors qu’elle se développe à une vitesse vertigineuse est en première ligne.
Quels sont les mécanismes de régulation à mettre en place pour éviter une utilisation abusive de l’IA ? Est-ce que l’IA tient ses promesses comme quoi elle va améliorer le monde dans lequel nous nous trouvons ? Comment équilibrer les avantages qu’on peut tirer de cette technologie d’un côté, et les risques qu’elle représente de l’autre.
Comme nous le savons déjà, 2025 sera une année décisive concernant la course à l’IA, et face à ces enjeux, il est plus qu’important de se rappeler l’importance d’une régulation de cette technologie. Je crois que pour le bien de l’humanité, l’IA doit être traitée avec prudence et responsabilité, sinon nous allons courir à notre perte. Espérons que cette année sera l’année où les entreprises technologiques trouveront un terrain d’entente concernant l’utilisation de l’IA pour le bien de l’humanité !
- Partager l'article :