in

Les chatbots IA et les IA génératives au sein des entreprises, interview avec Mathieu Changeat, co-fondateur de Dydu 

Mathieu Changeat nous emmène dans un échange passionnant sur l’utilisation des chatbots IA au sein des entreprises. Utilités, avantages, et sécurité, cette interview nous a permis d’en savoir davantage sur ces nouvelles technologies. 

Pouvez-vous vous présenter ainsi que votre entreprise et ses activités ?

Je suis Mathieu Changeat, un des cofondateurs de Dydu. Dydu, c’est avant tout une entreprise qui se positionne comme un éditeur de logiciels spécialisés dans les IA conversationnelles. Concrètement, nous proposons des chatbots, des voicebots et des callbots, conçus pour répondre aux besoins spécifiques des entreprises en matière de gestion des interactions avec leurs utilisateurs — que ce soient des clients, des prospects ou même des collaborateurs internes.

Mais l’ambition de l’entreprise va bien au-delà d’un simple outil de communication automatisée. Notre objectif est de transformer la manière dont les entreprises gèrent la relation avec leurs utilisateurs. Grâce à notre , nous cherchons à réduire considérablement la charge sur les centres d’appels. En effet, certaines demandes sont récurrentes, simples et répétitives. Les traiter manuellement, c’est perdre du temps et des ressources. Nous donnons aux entreprises la possibilité de confier ces tâches à des IA conversationnelles. L’humain peut ainsi se concentrer sur des cas plus complexes et plus stratégiques.

Un point particulièrement intéressant est que ces solutions ne sont pas figées. chatbots et autres outils d’IA ne sont pas des « boîtes noires ». Ils sont intégrés directement dans les systèmes d’information des entreprises, ce qui leur permet d’offrir une réponse personnalisée et contextuelle. Par exemple, un chatbot peut puiser dans la base de données de l’entreprise, comprendre l’historique d’un client ou d’un prospect, et répondre de manière extrêmement ciblée, avec un ton adapté à la situation. C’est cette adaptabilité qui fait la différence.

En plus, pour nos clients grands comptes, l’objectif est aussi de les aider à diminuer les coûts opérationnels tout en améliorant l’expérience utilisateur, parfois de manière insoupçonnée. En effet, une réponse rapide et cohérente d’un bot, même pour une question basique, peut transformer l’expérience client et réduire l’insatisfaction. Et ce, tout en allégeant la pression sur les équipes chargées de l’assistance.

Enfin, il est important de mentionner qu’avec Dydu, l’IA ne se limite pas à des réponses toutes faites. Nous misons sur une IA « intelligente » qui apprend et évolue avec les interactions. Cela permet aux bots d’améliorer leurs réponses au fil du temps, ce qui les rend encore plus efficaces et naturels dans leurs échanges. Cette capacité à évoluer de manière autonome est un vrai atout pour nos clients, car elle garantit que nos solutions deviennent progressivement plus performantes, sans nécessiter de développement continue.

Est-ce que vous pouvez nous dire ce qui distingue vos solutions de bot sur ce marché par rapport à vos concurrents ?

Chez Dydu, nous avons voulu développer une solution qui soit véritablement accessible à tous, même aux personnes qui n’ont pas de compétences techniques. Nous savons que, dans beaucoup d’entreprises, les équipes opérationnelles doivent pouvoir agir rapidement et efficacement sans attendre l’intervention d’un développeur. C’est pourquoi notre plateforme est pensée pour être intuitive et facile à utiliser. Un responsable opérationnel peut configurer et personnaliser le chatbot en fonction des besoins spécifiques de son entreprise, qu’il s’agisse de répondre à des questions fréquentes, de guider un utilisateur ou même de mener une action plus complexe. L’idée est de permettre à ces équipes de prendre en main l’outil de manière autonome, sans avoir à se plonger dans un code complexe.

Mais ce qui fait la vraie différence chez Dydu, c’est notre approche hybride. D’un côté, on intègre des technologies légères, faciles à déployer et à personnaliser, et de l’autre, on y superpose de l’IA générative, comme , pour rendre les réponses plus naturelles, fluides et intelligentes. L’IA générative, c’est vraiment un game changer. Elle permet au bot d’aller au-delà des simples réponses programmées et d’offrir des conversations plus humaines, plus engageantes, plus contextuelles. Cette combinaison des deux permet de bâtir des solutions puissantes, mais simples à utiliser.

Ce que l’on voit aujourd’hui, c’est qu’une solution purement légère a ses limites : elle peut rapidement se retrouver incapable de traiter des demandes plus complexes ou moins prévisibles. À l’inverse, une IA générative seule, bien qu’extrêmement puissante, risque de manquer de précision si elle n’est pas bien intégrée dans un cadre opérationnel précis. Chez Dydu, on a trouvé un équilibre. Nous utilisons les technologies les plus performantes pour offrir des capacités avancées, tout en restant dans un environnement où l’opérationnel reste maître du processus.

En plus de la solution logicielle, Dydu accompagne ses clients dans la mise en place et l’intégration sur le terrain. Nous assurons un suivi constant, de la configuration initiale à l’accompagnement post-déploiement. Parce qu’on sait qu’une solution, même la plus performante, n’est efficace que si elle est bien intégrée dans les processus de l’entreprise. Cela inclut des formations initiales, des ajustements réguliers, et un support constant pour maximiser la valeur ajoutée de notre technologie. C’est ce qui nous distingue : nous ne nous contentons pas de vendre un produit, nous accompagnons nos clients dans la transformation digitale de leur entreprise.

Est-ce que vous pensez que les micro-langages modèles, les MLM, sont une alternative durable et intéressante par rapport au LLM ?

Les grands modèles de langage, les fameux LLM (Large Language Models), sont très puissants, mais ils ont leurs limites. En plus de leur coût élevé et de leur consommation énergétique importante, ils ne sont pas toujours adaptés aux besoins très spécifiques des entreprises. C’est là que les modèles plus petits, dits micro-modèles, entrent en jeu. Ces modèles sont plus légers, moins coûteux et, surtout, beaucoup plus agiles pour des cas d’usage précis.

Prenons l’exemple des entreprises qui n’ont pas besoin d’un modèle générique capable de répondre à des millions de requêtes sur des sujets très divers. Ce qu’elles recherchent, ce sont des solutions qui fonctionnent sur leurs données spécifiques, et qui répondent à leurs besoins immédiats, sans le « brouillard » d’informations supplémentaires. Un micro-modèle peut être formé pour une tâche bien délimitée, comme la gestion de demandes clients sur un sujet particulier ou l’ de documents dans un domaine précis. Cela permet non seulement de gagner en précision, mais aussi d’être plus rapide et moins coûteux que d’utiliser un LLM tout-en-un.

De plus, les micro-modèles sont beaucoup plus économiques en termes de puissance de calcul. Étant moins gourmands en ressources, ils s’intègrent plus facilement dans des infrastructures existantes sans nécessiter des investissements lourds en matière de cloud ou d’équipements spécialisés. Et, en termes de performance, ils sont tout aussi performants pour leurs cas d’usage ciblés. Quand on parle de données à traiter en petite quantité mais avec une forte exigence de précision, ces modèles spécialisés sont souvent la meilleure option.

Comment répondez-vous aux exigences écologiques du développement des modèles LLM?

L’IA générative est clairement un atout majeur pour résoudre des problèmes complexes ou traiter des requêtes moins prévisibles, mais elle n’est pas la solution universelle. Dans notre approche, l’idée est de l’utiliser de manière très ciblée, en complément des bots plus classiques. Les bots traditionnels, qui sont souvent basés sur des règles simples ou des modèles de machine learning plus légers, sont extrêmement efficaces pour gérer les demandes répétitives, comme des questions fréquemment posées ou des tâches courantes. C’est environ 80 % des interactions qui sont de ce type.

En revanche, pour les cas plus complexes, quand la demande nécessite une compréhension plus nuancée, c’est là que l’IA générative entre en jeu. Mais, et c’est crucial, on évite de l’utiliser systématiquement. Pourquoi ? Parce qu’elle est plus coûteuse en termes de ressources et de consommation énergétique. Un des avantages majeurs de notre approche hybride est justement d’utiliser des solutions plus légères et plus efficaces pour les demandes simples et récurrentes. Cela permet non seulement de réduire les coûts pour l’entreprise, mais aussi de limiter l’empreinte écologique, un point de plus en plus pris en compte dans les choix technologiques d’aujourd’hui.

L’IA générative n’est donc pas un « outil tout-en-un » dans notre système. Elle n’intervient qu’en dernier recours, lorsque les bots plus simples n’ont pas les capacités nécessaires pour répondre correctement à une demande. 

Dans le secteur public et l’administration, est-ce que vous avez rencontré des obstacles particuliers et comment est-ce que vous avez surmonté cela ?

Dans le secteur public, la question de la souveraineté des données est effectivement un point crucial. Lorsqu’on parle de solutions comme ChatGPT, le principal obstacle qui se pose est la localisation des données. En France et dans d’autres pays européens, la législation sur la personnelles est extrêmement stricte, avec des règles comme le RGPD qui imposent une surveillance rigoureuse sur la manière dont les données sont collectées, stockées et traitées. Pour beaucoup d’administrations, utiliser des outils développés par des entreprises américaines, dont les serveurs sont souvent situés hors de l’Europe, soulève des inquiétudes légitimes en matière de confidentialité et de conformité.

Le risque, bien que faible dans la plupart des cas, est que des données sensibles puissent être transférées, ou même accessibles, par des entités extérieures. C’est un point de friction majeur. Si on prend l’exemple de ChatGPT, même si la solution est impressionnante en termes de capacités, le fait que les données soient traitées sur des serveurs américains et soumis à des législations comme le Cloud Act, qui peut obliger à divulguer des informations sous certaines conditions, est un frein pour de nombreux organismes publics.

Cependant, il y a un réel changement en cours. Des solutions européennes commencent à voir le jour et elles sont de plus en plus robustes. Ces solutions répondent spécifiquement aux exigences de souveraineté des données, et aux normes du RGPD. Cela permet de rassurer les administrations qui, sans compromis sur la sécurité et la confidentialité, peuvent adopter des technologies avancées tout en respectant les régulations locales.

L’émergence de ces alternatives européennes, souvent basées sur des partenariats entre entreprises technologiques et institutions publiques, commence à lever certains des freins les plus importants à l’adoption de l’IA dans le secteur public. De plus, ces solutions prennent en compte les besoins spécifiques des administrations en matière de sécurité des données et d’auditabilité, éléments essentiels pour garantir la confiance du citoyen dans l’utilisation des technologies publiques.

Que peut-on faire avec un modèle de langage sur des données de santé ? 

En fonction des secteurs, la gestion des données sensibles et la conformité avec des normes strictes peuvent varier considérablement. Prenons l’exemple de la santé, un secteur particulièrement sensible. L’intégration de données médicales dans des chatbots ou autres outils d’IA soulève des problématiques majeures en matière de conformité légale. Dans ce domaine, les données doivent être protégées à un niveau extrêmement élevé, notamment en vertu des législations telles que le RGPD, mais aussi des spécificités locales comme la loi de bioéthique en France. Cela rend l’utilisation de chatbots et d’IA générative plus complexe, car il existe un risque élevé de violation de la confidentialité des patients, ce qui peut avoir des conséquences juridiques et éthiques graves.

Par exemple, les informations de santé, telles que les antécédents médicaux, les diagnostics ou même les prescriptions, sont souvent classées parmi les données les plus sensibles. Leur collecte, leur traitement, et leur partage sont soumis à des régulations strictes, et intégrer ces données dans des systèmes automatisés, comme les chatbots, nécessite non seulement des mécanismes de sécurité renforcés, mais aussi des protocoles de consentement précis, ce qui n’est pas toujours simple à mettre en place dans des environnements à haut risque.

À côté de cela, on constate aussi que l’adoption de l’IA générative varie énormément d’un secteur à l’autre. Dans certains cas, l’IA générative est adoptée davantage pour son aspect « tendance » que pour répondre à un besoin concret. On observe une sorte de « buzzword » où l’IA est parfois intégrée dans les processus d’entreprise pour suivre une mode technologique, sans une réelle analyse des cas d’usage et des besoins spécifiques. L’IA générative est souvent perçue comme une solution miracle, mais dans de nombreux cas, elle n’apporte pas toujours la réponse la plus pertinente aux défis d’une organisation, surtout si elle n’est pas adaptée aux spécificités du secteur. Ce manque de discernement peut mener à des attentes irréalistes et, parfois, à une mauvaise utilisation de la technologie.

Chez Dydu, nous n’avons pas vocation à manipuler des données sensibles comme celles liées à la santé ou aux informations financières. Ce qui nous intéresse, ce sont principalement les données personnelles classiques – nom, adresse, préférences – qui sont nécessaires au bon fonctionnement des chatbots, voicebots, et autres solutions conversationnelles.

Nous sommes très attentifs à la protection de ces données. Pour ce faire, nous avons mis en place des partenariats avec des solutions de cloud de confiance, comme Azure , qui sont conformes aux standards de sécurité les plus stricts. Azure, par exemple, est une plateforme qui respecte pleinement les exigences du RGPD et permet de garantir que les données des utilisateurs sont traitées dans des environnements sûrs et contrôlés. Cela inclut des mécanismes de cryptage avancés et une gestion fine des accès, assurant que seules les personnes autorisées puissent traiter ou consulter ces informations.

Nous utilisons aussi des modèles comme ceux de , une solution européenne d’IA, pour s’assurer que la localisation des données reste conforme aux exigences légales en vigueur en Europe. Cela permet à nos clients de bénéficier d’une solution IA performante sans compromettre la confidentialité ou la souveraineté des données. Notre priorité est que les données soient stockées et traitées dans des infrastructures qui respectent les normes européennes, garantissant ainsi leur sécurité tout en restant dans un cadre légal adapté.

À quoi vont ressembler les assistants conversationnels de demain et quelles sont les innovations que l’on peut encore apporter dans ce secteur ? 

D’ici 2030, je suis convaincu que les assistants conversationnels deviendront bien plus que de simples outils de support. Ils deviendront de véritables points d’entrée uniques dans l’écosystème de l’entreprise. Leur rôle ne se limitera plus à répondre à des questions simples ou à effectuer des tâches de base. Ces assistants devront être capables de naviguer à travers l’ensemble des outils que l’entreprise utilise au quotidien : des applications mobiles aux bases de données, en passant par les systèmes de gestion des commandes, les ERP ou même les outils d’analyse de performance.

L’enjeu principal, c’est l’intégration. Il ne suffit pas que ces assistants soient performants sur un canal ou une , il faut qu’ils puissent interagir de manière transparente avec tous les systèmes existants. Cela implique des ponts technologiques solides, des API ouvertes et une gestion intelligente des flux de données pour garantir que l’utilisateur, qu’il soit client ou collaborateur, puisse obtenir des réponses en temps réel, peu importe l’outil qu’il utilise.

L’expérience de l’utilisateur doit être fluide, sans friction, comme s’il naviguait d’un système à un autre sans s’en rendre compte. Pour y parvenir, la mise en place d’architectures flexibles et interconnectées, capables d’intégrer ces assistants conversationnels à tous les niveaux de l’entreprise, sera essentielle. Ce sera un véritable défi, mais aussi une grande opportunité pour les entreprises qui souhaitent offrir une expérience client et utilisateur réellement unifiée.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *