in ,

Il quitte OpenAI et développe une superintelligence sécurisée

Safe Superintelligence Inc. by Ilya Sutskever

Il était cofondateur d’. Il occupait le poste de scientifique en chef avant de lancer sa propre startup IA. Ilya Sutskever, l’homme en question, a dévoilé son projet secret baptisé Safe Superintelligence Inc. D’après ses déclarations, la startup vise à développer des IA plus sûres et plus performantes. Mais ce n’est pas la première fois que les entreprises promettent la sûreté et la puissance pour leurs clients.

SSI se présente d’ailleurs comme une jeune entreprise innovante adoptant une approche équilibrée entre développement et sécurité de l’intelligence artificielle.

Mais est-ce que cette stratégie leur permettrait vraiment d’accélérer l’évolution de sa IA tout en maintenant un haut niveau de sûreté ?

YouTube video

L’entreprise se démarque en tout cas des géants du secteur comme OpenAI, et en soulignant son indépendance face aux pressions externes.

Le Safe Superintelligence Inc. met également en avant sa capacité à se concentrer pleinement sur ses objectifs.

Et cela sans être entravée par les contraintes administratives ou les impératifs de commercialisation qui pèsent souvent sur les grandes entreprises.

Quand les dirigeants d’OpenAI et les experts d’ s’allient autour du Safe Superintelligence Inc.

SSI met en avant un modèle d’affaires qui priorise la sûreté, la sécurité et le progrès, les protégeant des contraintes commerciales à court terme.

C’est une approche qui leur permettrait d’évoluer sereinement, sans compromis sur leurs valeurs fondamentales.

L’entreprise elle-même est cofondée par trois experts reconnus dans le domaine de l’.

Dont Ilya Sutskever, ancien directeur scientifique d’OpenAI, Daniel Gross, qui a dirigé l’IA chez Apple, et Daniel Levy, ancien membre de l’équipe technique d’OpenAI.

Ilya Sutskever : source d’inspiration pour certains

Le parcours récent de Sutskever est particulièrement notable. Il a joué un rôle central dans la tentative d’éviction du PDG d’OpenAI, , en 2023.

Mais son départ d’OpenAI en mai dernier a été suivi d’allusions à un nouveau projet, qui se concrétise aujourd’hui avec SSI.

Le départ de Sutskever a coïncidé avec d’autres démissions significatives chez OpenAI. Jan Leike, chercheur en IA, a quitté l’entreprise en critiquant la prédominance des processus de sécurité au détriment de l’innovation.

Gretchen Krueger, chercheuse en politiques, a également évoqué des préoccupations liées à la sécurité lors de son départ.

YouTube video

Enfin une superintelligence sécurisée ?

Contrairement à OpenAI qui développe des partenariats avec des géants technologiques comme Apple et Microsoft, SSI semble adopter une approche radicalement différente.

Dans un entretien accordé à Bloomberg, Ilya Sutskever, cofondateur de SSI, a clairement défini l’objectif unique et ambitieux de l’entreprise : développer une superintelligence sûre.

À ce titre, on voit déjà que Safe Superintelligence Inc. Veut rompre avec les stratégies commerciales plus diversifiées de ses concurrents.

Aura-t-elle tort ou raison ? À vous de me répondre en commentaire !

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *