in

L’IA toute puissante de Google respecte-t-elle l’éthique ?

Google développe une IA surpuissante, mais est-elle éthique ?

Avec le développement d’une IA surpuissante de , des questions sur le respect de l’éthique continuent d’émerger.

L’ permet aujourd’hui de résoudre des problèmes de tailles. Cela va de la prédiction des catastrophes naturelles au diagnostic des maladies les plus difficiles à détecter. Mais du point de vue de Google, toutes ces avancées ne vont pas encore assez loin. Avec l’algorithme qu’ils sont en train de développer, ils espèrent s’attaquer à des problèmes de plus grandes envergures.

Pathways, l’IA à usage générale

Les dernières décennies ont vu les performances de l’intelligence artificielle s’accroître considérablement. Ce sont principalement les progrès des réseaux neuronaux combinés à des puissances de calcul exponentielles qui expliquent cette ascension.

Cependant, lors de la conférence TED à Monterey, Jeff Dean, le responsable de l’IA chez Google, a déclaré que ces avancées ne sont que superficielles. Actuellement, Google serait en train de développer une IA plus agile et polyvalente. Cette solution, baptisée Pathways, permettra de centraliser les IA en un seul algorithme omniscient.

L’objectif, selon lui, est de s’attaquer aux plus grands problèmes de l’humanité. Autrement dit, Pathways améliorerait la conception de médicaments et les systèmes éducatifs. Par ailleurs, cette IA pourra s’attaquer au problème du changement climatique et même concevoir des solutions d’énergie propre.

Mais si Dean a clairement montré son optimisme sur la nouvelle IA de Google lors de la conférence, des préoccupations concernant l’éthique ont été abordées.

La position de l’IA de Google par rapport à l’éthique

Récemment, l’initiative de machine learning de Google a été remise en question par d’anciens membres de son équipe d’IA éthique. Jeff Dean a alors fait allusion à une collecte de données responsables, en présentant les principes de l’IA de Google en termes d’éthique. En outre, il a affirmé que les préoccupations relatives aux données ne sont qu’une partie de leurs responsabilités.

Xiaowei R. Wang, codeur et directeur de la création du magazine Logic, a participé à la conférence. Selon lui, en termes d’IA, c’est l’optimisme des utilisateurs et de la communauté qui compte vraiment, et non celle des entreprises et de ces porte-parole. D’autre part, par rapport aux conséquences des puissants systèmes de machine learning, les intervenants ont émis des théories sur la formation et le contrôle responsables.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *