in ,

Cette startup promet d’en finir avec les hallucinations de ChatGPT

Les hallucinations de l’IA posent de réels problèmes aux entreprises, avec des conséquences parfois lourdes.

Patronus AI, une start-up de San Francisco, vient de lancer la première API en libre-service conçue pour contrer les défaillances de l’IA en temps réel. Soutenue par un financement de série A de 17 millions de dollars, cette plateforme détecte et prévient les erreurs générées par les systèmes d’IA avant qu’elles n’atteignent les utilisateurs.

YouTube video

Patronus AI utilise une avancée de détection qui agit comme un correcteur orthographique pour les systèmes d’IA. Une étude de la société révèle d’ailleurs que même les modèles d’IA les plus performants, comme -4, reproduisent des contenus protégés dans 44 % des cas.

La solution de Patronus AI permet aux entreprises de définir leurs propres critères de sécurité, adaptés à leurs besoins. Grâce à une fonctionnalité appelée « judge evaluators », les clients peuvent écrire des règles claires en anglais. Ce système aide les entreprises à sécuriser leurs produits de manière précise. Il prend en compte la conformité réglementaire pour les services financiers et la confidentialité pour les prestataires de soins de santé.

Lynx, un modèle de détection pour l’ des erreurs d’IA

Lynx, le modèle central de Patronus AI, excelle dans la détection d’hallucinations. Il surpasse même GPT-4 en identifiant des erreurs médicales. Ce modèle dispose d’une version pour les analyses en temps réel et d’une autre plus approfondie, pour les contrôles hors ligne. Parmi les outils proposés, CopyrightCatcher et FinanceBench se démarquent. Ces derniers garantissent une protection contre le plagiat et les erreurs financières.

Le modèle de tarification flexible de Patronus AI commence à 10 dollars pour 1 000 appels d’API. Cette accessibilité pourrait attirer de nombreuses petites entreprises vers la surveillance de l’IA. Les premiers retours d’entreprises comme HP et AngelList montrent un engouement pour ce type de solution.

YouTube video

À mesure que les modèles d’IA comme GPT-4 deviennent plus sophistiqués, les risques d’hallucinations augmentent. La régulation s’intensifie, notamment avec les récentes directives américaines et européennes. Cela incitant les entreprises à garantir des systèmes d’IA fiables et conformes. La solution de Patronus AI pourrait ainsi devenir un outil essentiel pour assurer une sécurité continue. Cela va donc renforcer la confiance dans les systèmes d’IA.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *