in

AI Expert | Alexandre Letard (Associate Professor, ESAIP)

Alexandre Letard

Dans le cadre de notre dossier « Expert I.A : La force des algorithmes pour résoudre les énigmes du futur. », Alexandre Letard, Associate Professor, AI major referent chez ESAIP, a accepté de faire un point sur l’année écoulée et sur les grands enjeux du secteur de l’IA.

Intelligence-artificielle.Com : Pouvez-vous vous présenter à nos lecteurs ? (Quel poste occupez-vous, dans quelle entreprise)

Alexandre Letard (ESAIP) : Je suis enseignant-chercheur et référent de la majeure à l’ESAIP, une école d’ingénieur dont le campus principal est basé à Angers. Mes thématiques de recherche portent sur les systèmes de recommandations, l’apprentissage par renforcement, l’optimisation multicritère et le méta-apprentissage.

Quelles sont les dernières avancées et innovations dans le domaine de l’IA qui ont retenu votre attention récemment 

Bien sûr, les récentes avancées dans le domaine de l’intelligence artificielle générative, notamment incarnées par des modèles tels que , se démarquent particulièrement. Je pense que ces innovations peuvent être assimilées, dans une certaine mesure, à la création d’internet. Leur polyvalence et leur applicabilité à travers une multitude de secteurs en font des outils d’une puissance considérable.

Parallèlement, le traitement vidéo par intelligence artificielle a connu des progrès remarquables, en grande partie grâce aux Generative Adversarial Networks (GANs). Il est désormais ardu de discerner les différences entre une vidéo authentique, filmée par des mains humaines, et un « deepfake » généré entièrement par intelligence artificielle à partir de quelques images d’entrée. Les nouveaux modèles intègrent des détails plus fins, tels que la luminosité ou des mouvements oculaires plus réalistes. Bien que les outils de détection de deepfakes aient également évolué, la vigilance des usagers quant à l’authenticité des informations communiquées demeure cruciale.

Bien que moins médiatisés, les récents travaux en apprentissage par renforcement inversé sont également très prometteurs. Ces méthodes visent à estimer, de manière mathématique, les objectifs d’un utilisateur ainsi que leur importance en observant ses actions. Une fois cette fonction objectif estimée, le modèle peut optimiser ses actions pour mieux satisfaire ces objectifs. Ces techniques ont trouvé une dans le domaine des véhicules autonomes, facilitant l’apprentissage de différents styles de conduite favorisant, par exemple, le confort, la sécurité, ou même des conduites plus sportives.

Enfin, l’ de sentiments par intelligence artificielle a connu une progression significative. Au-delà de la reconnaissance des émotions de base telles que la joie, la tristesse ou la colère, ces modèles ont gagné en précision pour identifier des comportements plus complexes tels que le sarcasme, l’ironie ou des nuances émotionnelles mixtes.

Comment voyez-vous l’avenir de l’IA et son impact sur la société 

L’IA, en raison de sa polyvalence, est appelée à jouer un rôle de plus en plus central dans tous les secteurs d’activité, transformant ainsi notre société, nos emplois et nos modes de vie. Son utilisation promet des gains significatifs en efficacité et en confort, mais soulève également des questions éthiques pour lesquelles trouver des réponses devient de plus en plus pressant.

En France, le développement de l’IA est entravé par une réglementation et une administration strictes qui visent à définir le cadre avant la mise en œuvre d’une innovation, ce qui contraste avec d’autres pays, comme les États-Unis, qui privilégient souvent une approche plus souple en mettant d’abord en œuvre les concepts avant d’en définir le cadre réglementaire. Bien qu’en amélioration, on observe également de fortes disparités dans l’accès aux moyens financiers et matériels pour la recherche entre les pays, exacerbant cet écart. Cette approche française peut entraîner des délais considérables dans l’innovation, malgré la qualité reconnue de nos ingénieurs et chercheurs. L’un des défis futurs réside dans la capacité de la France à maintenir ses valeurs éthiques tout en minimisant un éventuel retard technologique. Ce point porte sur l’ensemble des domaines de recherche de manière générale, mais devrait être notamment visible pour l’IA dans les années à venir.

Un autre obstacle au développement de l’IA réside dans l’incompréhension et la crainte du grand public. La démystification de l’IA et la sensibilisation aux avantages et aux risques potentiels peuvent contribuer à créer une acceptation. Cependant, cette résistance ne me semble pas être un frein majeur. L’histoire des innovations montre une réticence initiale qui diminue avec le temps. Il est humain de chercher la facilité et le confort, principaux avantages fournit par l’IA aux utilisateurs finaux. Ce processus est également facilité par la nature progressive des avancées de l’IA, qui s’intègrent progressivement dans notre quotidien. Les nouvelles générations, élevées dans cet environnement technologique, seront probablement plus enclines à accepter ces changements.

En résumé, bien que l’IA promette d’apporter des avantages considérables à la société, les défis actuels liés à la réglementation, à la perception publique et à l’éducation nécessitent une approche réfléchie pour garantir une bonne intégration dans notre quotidien.

Quel est votre avis sur l’impact qu’a et qu’aura l’IA sur l’emploi en France ?*

C’est une opinion davantage personnelle qu’étayée par une recherche scientifique, mais je pense qu’il faut garder à l’esprit que l’IA est essentiellement un axe de progrès. Tous les progrès technologiques ont des impacts sur l’emploi et font évoluer les professions. De la même façon que le travail à la chaîne ou les outils modernes ont fortement réduit le nombre de salariés nécessaires pour une production équivalente, voire supérieure par le passé, l’IA fait partie des innovations qui va transformer la nature du travail dans de nombreux secteurs d’activités, à l’heure actuelle et à l’avenir.

Si l’on regarde la courbe d’évolution du chômage en France (INSEE), avec un spectre assez large, on peut observer qu’elle est restée majoritairement entre 8 et 10 % de 1983 à aujourd’hui. Si l’IA est de plus en plus déployée dans les industries, cette accélération s’observe surtout après 2010 -2015, grâce à l’augmentation du volume de données et des capacités de calcul. Or, depuis 2015, le taux de chômage en France semble plutôt décroissant, ce qui va dans le sens d’une transformation des emplois davantage que de leur suppression. Bien sûr, d’autres facteurs sont en jeu, je ne dis pas que l’IA favorise la réduction du taux de chômage. Mon propos est plutôt que l’IA engendre aussi la création de nouveaux emplois et redéfinit les contours des professions. Cette évolution constante des métiers, façonnée par les avancées technologiques, trouve en l’IA une expression contemporaine de ces transformations.

Est-ce que l’IA pourra un jour réaliser l’intégralité des emplois nécessaires à notre société ? La réponse demeure essentiellement incertaine. Les récents progrès des IA conversationnelles et de l’analyse des sentiments suggèrent une capacité croissante à traiter des tâches complexes, même dans des domaines traditionnellement humains. Néanmoins, les limites éthiques, les évolutions culturelles, ainsi que l’acceptation sociale et les cadres législatifs, exerceront une influence déterminante. La société actuelle, en France et ailleurs, ne me semble pas encore prête à accepter cette idée.

Quels sont les principaux défis éthiques liés à l’IA et comment les abordez-vous dans votre travail ?

Il existe de nombreux défis éthiques liés à l’IA. Notamment, la gestion des dilemmes et la répartition des responsabilités sont toujours sujets à débat. Un exemple très connu de ce genre de problème est le cas de la voiture autonome : dans une situation où l’algorithme doit choisir entre sacrifier son passager, ou causer la mort d’un enfant ou d’une personne âgée, quel choix est éthiquement correct ? Qui est responsable de la décision entre le passager, le vendeur du véhicule ou le concepteur de l’algorithme ? Dans des scénarios moins extrêmes, ces dilemmes soulèvent également des implications conséquentes en matière d’assurance.

Pour revenir à des préoccupations plus proches de mon métier, en tant que professionnel de l’IA, la conception responsable est au cœur de ma philosophie. Je souligne l’importance de résister aux pressions externes dans le développement de l’IA, incitant les étudiants à maintenir une éthique rigoureuse même face à des incitations contraires. Anticiper les conséquences de chaque décision et intégrer une perspective à long terme sont des valeurs cruciales que je cherche à inculquer à mes étudiants.

L’une de mes principales recommandations pour les futurs ingénieurs en IA est de privilégier le développement de systèmes d’IA plutôt que de poursuivre l’objectif d’une IA forte. Cette approche consiste à créer des systèmes spécialisés, conçus pour des tâches spécifiques dont le cadre, même si complexe, peut être aisément maîtrisé, plutôt que de viser une intelligence générale omnipotente. Cela permet non seulement de rendre les systèmes plus compréhensibles et explicables, mais aussi de mieux gérer les défis éthiques.

Dans le cadre des cours de la majeure IA à l’ESAIP, les étudiants sont exposés et sensibilisés à ces considérations éthiques. Plus spécifiquement, des heures de cours sont dédiées à l’éthique afin de développer leur réflexion autour de ces sujets. En tant qu’enseignant, je considère que ma responsabilité va au-delà de la transmission des compétences techniques, s’étendant à la formation d’une nouvelle génération d’ingénieurs conscients des enjeux et capables de respecter leurs valeurs morales dans leurs projets d’intelligence artificielle.

Quelles sont, selon vous, les opportunités et les défis futurs pour les experts en IA, notamment en ce qui concerne l’évolution de la et de la réglementation ?

À mon sens, les progrès observés avec les modèles d’IA générative tels que ChatGPT marquent un tournant similaire à la création d’internet, ne serait-ce que concernant la relation à la connaissance. Avant l’ère d’internet, l’accès à la connaissance était souvent réservé à ceux qui la possédaient, conférant ainsi une valeur considérable à cette possession. Aujourd’hui, grâce à internet, la connaissance est largement accessible, permettant à quiconque de consulter des travaux scientifiques de célèbres auteurs, qu’ils soient américains, chinois, ou d’ailleurs. Cependant, avec l’avènement de modèles génératifs tels que ChatGPT, l’acquisition et l’usage de la connaissance semblent être encore simplifiés : une simple requête permet d’obtenir des connaissances, une autre de les mettre en œuvre… Mais quid si l’une ou l’autre des réponses est erronée ? L’expert disposant des connaissances saura reconnaître et corriger l’anomalie rapidement, celui ne les possédant pas commettra des erreurs, probablement sans même le réaliser.

À mon sens, le principal défi pour les étudiants actuels, appelés à devenir les experts de demain, est de résister à la tentation de se fier exclusivement à ces outils. En négligeant le développement de compétences individuelles et d’un sens critique aiguisé, nous risquons des pertes majeures en expertise, dissimulées derrière la qualité des outils. Il est impératif, plus que jamais, que tous les utilisateurs, quelle que soit leur activité, cultivent et entretiennent leurs compétences spécifiques tout en conservant un sens critique aiguisé face aux réponses formulées par de tels outils.

Pour les experts actuels et futurs, le défi crucial sera d’assurer la qualité des réponses générées par ces modèles. Parmi l’abondance d’informations disponibles, notamment sur internet, comment limiter l’apprentissage à ce qui est correct ? Certains experts ont noté une décroissance progressive dans la qualité des réponses fournies par ChatGPT, phénomène pouvant s’expliquer par la difficulté à déterminer la « bonne réponse » dans des modèles probabilistes, la bonne réponse n’étant pas nécessairement la plus fréquente.

D’un point de vue éthique et sur un plan plus large, se pose la question de savoir comment garantir qu’un modèle d’IA ne devienne pas discriminatoire. Il est important de reconnaître que l’IA ne possède ni conscience ni esprit critique ; elle se contente d’observer les données et d’en déduire les probabilités d’une réponse attendue. La prolifération de propos discriminatoire ou des effets néfastes de l’Homme sur internet présente un risque pour les préoccupations éthiques souvent évoquées dans la science-fiction. La mise en œuvre des verrous prévenant ce genre de situation fait également partie des défis à relever.

En résumé, l’intégration croissante de l’IA dans notre quotidien suscite des réflexions cruciales sur la manière dont nous la concevons, l’alimentons et l’utilisons. L’éducation, la vigilance critique, et le développement éthique sont essentiels pour naviguer dans ce nouveau paradigme et maximiser les avantages tout en minimisant les risques.

Quels conseils donneriez-vous à ceux qui souhaitent se lancer dans une carrière dans l’IA ?
Il existe aujourd’hui de nombreux métiers liés à l’IA et pour chacun d’eux des spécificités et conseils différents. Mais, pour ceux désirant travailler avec les algorithmes, que ce soit dans l’industrie ou pour la recherche, je recommanderai un développement de leurs compétences en deux temps.

1— Acquérir une connaissance générale du domaine. Quelles sont les principales familles de techniques ? Quel est leur principe de fonctionnement ? À quoi servent-elles ? Quelles sont leurs forces et faiblesses ? Plutôt que de se plonger immédiatement dans les aspects mathématiques complexes, je recommande de se concentrer sur les librairies qui facilitent la mise en œuvre rapide des modèles. L’objectif ici est d’obtenir une vue d’ensemble du paysage de l’IA.

2— Se spécialiser. Parmi les techniques explorées, trouver celle qui intéresse le plus l’individu, et l’étudier sous toutes les coutures. C’est à ce stade que les mathématiques deviennent essentielles. L’un des objectifs à satisfaire lors de cette étape est de savoir, à chaque instant de l’utilisation, comment et pourquoi l’algorithme utilisé produit tel résultat ou comportement.

D’une part, le domaine de l’IA est très large et progresse très vite, il est impossible aujourd’hui de devenir expert (et le rester) dans l’ensemble des techniques, la maîtrise en profondeur apportée par la spécialisation confère une valeur ajoutée plus importante.

D’autre part, il est essentiel de noter que les attentes de l’industrie ont également évolué. Jusqu’à récemment, les industries avaient un intérêt prononcé pour les experts capables de déployer rapidement un modèle pertinent. Aujourd’hui, avec l’aide des IA génératives telles que ChatGPT, identifier le bon modèle sera suffisant pour satisfaire cette attente. A contrario, ce qui est désormais attendu des experts, c’est la capacité à optimiser les performances des modèles et à résoudre rapidement les problèmes en exploitation. Ces compétences exigent un haut niveau d’expertise dans la technique ciblée.

En conclusion, je suis convaincu que le jeune ingénieur ou chercheur ayant consacré l’effort nécessaire à cette spécialisation représentera une ressource inestimable pour l’industrie de demain, bien plus que l’individu s’étant arrêté à la première étape. Cette approche favorise non seulement une meilleure compréhension des algorithmes, mais elle facilite également l’adoption de nouvelles techniques si le besoin se présente à l’avenir.

 

Propos recueillis par Mathilde Flory.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *