in ,

OpenAI prend la mauvaise décision et dissout son équipe de surveillance

Dissolution de l'équipe de surveillance d'OpenAI

Prenant conscience du danger que présente l'IA, , dirigé par , a décidé de mettre en place un comité de sécurité et de sûreté et de dissoudre son équipe de surveillance. Les cadres de l'entreprise prendront de ce fait la direction de ce comité. À titre d'information, OpenAI a déjà créé un conseil de surveillance il y a deux semaines, mais il a été dissous par la direction. Quel sera alors le rôle de ce nouveau comité ?

D'après ce que Sam Altam a déclaré, ce comité va soutenir le conseil d'administration de l'entreprise dans sa prise de décision.

Son rôle est alors de conseiller le CA d'OpenAI quand il y a aura des décisions à prendre au niveau de la sécurité et de sûreté et de sécurité liés aux projets de l'entreprise.

Cette annonce intervient alors qu'OpenAI a révélé avoir commencé à entraîner sa prochaine génération de modèles.

Peut-on alors dire que l'objectif affiché est d'atteindre de nouveaux niveaux de capacités et se rapprocher de l'AGI aux performances égalant ou dépassant l'humain ?

En tout cas, le nouveau comité de sécurité sera composé de Sam Altman, Bret Taylor, Adam D'Angelo et Nicole Seligman, tous membres du conseil d'administration d'OpenAI.

YouTube video

La vérité derrière la dissolution de l'équipe de surveillance de l'IA d'OpenAI

La décision fait suite à la dissolution d'une précédente équipe dédiée aux risques à long terme de l'IA, dont les chefs Ilya Sutskever et Jan Leike ont récemment quitté l'entreprise.

Jan Leike avait critiqué le fait que la culture et les processus de sécurité d'OpenAI aient été relégués au second plan par rapport aux produits brillants.

Une mise en garde à laquelle Sam Altman a répondu qu'OpenAI avait beaucoup plus à faire sur ces questions.

Durant trois mois, ce comité de sécurité évaluera les processus et garanties d'OpenAI. Ce n'est qu'après qu'il soumet ses recommandations au conseil d'administration.

Néanmoins, OpenAI s'engage à communiquer ultérieurement sur les mesures adoptées. Et on vous mettra la puce à l'oreille dès qu'elles seront publiées.

Transparence, responsabilité, éthique: les clés de la gouvernance de l'IA selon Sam Altman

Un des principaux enjeux de la gouvernance de l'intelligence artificielle est de trouver le juste équilibre entre encourager l'innovation dans ce domaine prometteur. Cela tout en prévenant les risques potentiels associés à l'émergence d'une IA superintelligente.

Parmi ces risques figurent l'utilisation malveillante et les dérives d'une IA trop puissante. Ainsi que la possibilité qu'une IA agisse de manière non intentionnelle ou contraire aux objectifs escomptés.

La controverse persiste autour de plusieurs questions cruciales. Notamment la transparence requise sur les processus de développement de l'IA générative.

Mais aussi la responsabilité à attribuer pour les décisions prises par les systèmes d'IA. Ainsi que la nécessité d'aligner les actions de l'IA sur les normes éthiques et les valeurs sociétales en vigueur.

YouTube video

Trouver les bons garde-fous réglementaires et principes directeurs, sans entraver l'essor d'une technologie porteuse d'immenses bénéfices potentiels, représente alors un défi complexe que les instances de gouvernance devront relever.

Personnellement, j'ai trois questions à poser ! OpenAI a-t-il élaboré un mécanisme qui garantit la sûreté du développement de l'IA après avoir dissout son équipe de surveillance ?

Comment OpenAI compte-t-il intégrer la responsabilité et l'éthique dans la conception de ses futurs systèmes d'IA avancés ? Alors qu'elle a dissout son équipe spécifiquement chargée de ces aspects ?

Quelles sont les implications et les conséquences potentielles de cette décision d'OpenAI. En particulier pour les autres entreprises travaillant sur le développement d'une IA de pointe ?

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *