in , ,

Le code original d’AlexNet enfin disponible en open source

Le code source ayant déclenché l'essor de l'IA est maintenant disponible

Le Computer History Museum (CHM), en partenariat avec Google, a publié le code source d’AlexNet, réseau de neurones à l’origine de la révolution de l’apprentissage profond. Cette publication historique marque la reconnaissance officielle d’un tournant majeur en intelligence artificielle.

D’ailleurs, le code est désormais consultable sur la page GitHub du CHM. Il permet aux chercheurs, aux étudiants et aux passionnés d’examiner de près le modèle original qui a transformé la vision par ordinateur. Un geste à la fois symbolique et éducatif, 13 ans après sa création.

AlexNet, la naissance de l’IA moderne en 2012

Créé par Alex Krizhevsky, Ilya Sutskever et leur superviseur GeoffreyHinton, AlexNet a remporté en 2012 le concours ImageNet. Ceci en surpassant les approches classiques et en reconnaissant des objets avec une précision inédite. Il classait des images dans 1 000 catégories, de la fraise au bus scolaire, avec un taux d’erreur bien inférieur à celui des modèles précédents. Ce succès a prouvé que les réseaux neuronaux profonds pouvaient automatiser la reconnaissance visuelle avec une précision quasi humaine.

Un tournant salué par les plus grands experts de l’époque

Lors de la conférence de Florence, où AlexNet a été présenté, Yann LeCun s’est levé pour saluer un tournant clair et incontestable dans l’histoire de la vision par ordinateur. Cet enthousiasme reflétait l’impact immédiat du modèle sur le domaine. Comme le souligne le CHM, AlexNet symbolise la convergence de trois technologies clés : les réseaux neuronaux profonds, les GPU pour l’accélération du calcul, et les larges jeux de données comme ImageNet. Ensemble, ces éléments ont propulsé l’IA moderne.

YouTube video

Cinq ans de négociations pour une publication fidèle et vérifiée

Ce projet a été initié en 2020 par Hansen Hsu, conservateur du CHM, qui a contacté Krizhevsky pour obtenir le code authentique de 2012. Il s’agissait d’éviter les nombreuses reproductions inexactes circulant sur le web. Google, propriétaire de DNNresearch, la société de l’équipe fondatrice, a accepté de collaborer avec le musée. Pendant cinq ans, ils ont travaillé ensemble pour identifier et valider la bonne version du code original avant de l’ouvrir au public.

Un héritage à double tranchant pour l’ère de l’IA

Si AlexNet a posé les bases de nombreuses avancées, comme les outils médicaux, les assistants vocaux et les technologies d’accessibilité, il a aussi indirectement conduit à des usages controversés. On pense notamment aux deepfakes, à la surveillance automatisée ou encore aux risques sur l’emploi. Cependant, en 2012, ces dérives semblaient encore lointaines. L’impact immédiat était surtout l’émerveillement face à une machine capable de voir avec justesse. Aujourd’hui, le code source d’AlexNet offre une opportunité unique pour comprendre l’origine de cette révolution.

Une combinaison technologique inédite à l’origine de la révolution

AlexNet n’a pas révolutionné l’intelligence artificielle par une seule invention spectaculaire. Il a plutôt fusionné trois piliers technologiques déjà existants : les réseaux neuronaux profonds, les GPU (processeurs graphiques) et les jeux de données massifs. Ensemble, ils ont permis une avancée sans précédent. Le réseau utilisait une architecture convolutive à plusieurs couches, capable d’extraire automatiquement des motifs visuels complexes. Contrairement aux anciens modèles, qui exigeaient des règles manuelles, AlexNet apprenait directement à partir des images.

Un apprentissage supervisé à grande échelle via ImageNet

Le réseau a été entraîné sur ImageNet, une immense base de données d’images créée en 2006 par Fei-Fei Li, professeure à Stanford. Grâce à WordNet pour l’organisation des catégories et à Amazon Mechanical Turk pour l’étiquetage, ImageNet proposait des millions d’images classées. Alex Krizhevsky, l’un des créateurs du projet, a entraîné le modèle chez ses parents, avec deux GPU Nvidia. Ces puces, rendues programmables par CUDA dès 2007, étaient idéales pour effectuer les calculs massifs nécessaires à l’apprentissage profond.

YouTube video

Un moteur pour toute l’IA moderne, au-delà des images

L’impact d’AlexNet dépasse largement la seule vision par ordinateur. Aujourd’hui, les réseaux neuronaux profonds alimentent la synthèse vocale, la génération d’images, les jeux vidéo et les assistants IA. Ils sont présents dans presque tous les domaines numériques. Cependant, ils posent aussi de nouveaux défis éthiques. L’automatisation de la désinformation, les deepfakes ou encore la déformation des archives historiques illustrent les effets sociétaux de ces technologies.

Des architectures plus récentes pour des usages plus larges

AlexNet reposait sur des réseaux convolutifs (CNN) conçus pour traiter des données structurées comme les images. Mais depuis 2017, les modèles Transformer, inventés par Google Research, ont pris le relais dans des domaines comme le traitement du langage. Ces architectures modernes utilisent un mécanisme d’attention pour capter les relations longues dans le texte ou l’audio. C’est sur cette base que reposent désormais des IA comme ChatGPT ou Claude, devenues omniprésentes.

YouTube video

Une équipe fondatrice désormais au cœur de l’écosystème IA

Après leur succès avec AlexNet, Krizhevsky, Sutskever et Hinton ont fondé la société DNNresearch, rachetée par Google en 2013. Depuis, chacun a poursuivi son chemin dans l’écosystème de l’intelligence artificielle. Sutskever a cofondé OpenAI en 2015, avant de lancer récemment Safe Superintelligence (SSI), une startup qui a levé un milliard de dollars. De son côté, Krizhevsky a quitté Google en 2017 pour travailler chez Dessa sur de nouvelles méthodes d’apprentissage profond.

Un Nobel de physique pour Hinton et une pointe d’humour

Geoffrey Hinton, figure emblématique du projet, a quitté Google en 2023 pour alerter sur les risques futurs de l’IA. En 2024, il a reçu le prix Nobel de physique, aux côtés de John J. Hopfield, pour leurs contributions fondatrices à l’apprentissage automatique. Lors d’une présentation au Computer History Museum, Hinton a résumé les rôles du trio avec humour : « Il a pensé que nous devrions le faire, Alex l’a fait fonctionner et j’ai reçu le prix Nobel. »

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *