in

IA portable : le collier Friend.com, symbole d’une urgence légale 

L’IA portable n’est plus une promesse lointaine, elle est une réalité déjà incarnée par des dispositifs comme le collier Friend.com. Si l’innovation promet de nouveaux horizons, elle confronte les entreprises et les utilisateurs à une urgence légale sans précédent. 

Face à ce « nomadisme extractif » de l’intelligence artificielle, l’heure n’est plus à l’expérimentation, mais à une conformité rigoureuse. Le Règlement Général sur la Protection des Données (RGPD) et l’AI Act imposent déjà des obligations. Les fabricants ne peuvent donc plus les ignorer, sous peine de sanctions massives et d’interdiction de marché. Calixte Descamps, experte en protection des données chez Adequacy, nous explique.

L’IA Portable, une rupture juridique et le défi du consentement des tiers IA

L’émergence de dispositifs d’intelligence artificielle nomades, capables de nous suivre dans tous nos déplacements, marque une véritable révolution dans notre rapport à la donnée. Loin des enceintes connectées sédentaires et réactives, l’IA portable comme le collier Friend.com pratique une “captation passive et continue”, comme le souligne Calixte. Cette transition du “salon à l’IA compagnon” transforme chaque interaction sociale en une potentielle collecte de données.

Le cœur du problème réside dansle consentement des tiers IA. Ces “tiers” sont toutes les personnes dont la voix, les propos ou l’image sont captés par l’appareil d’une autre personne. Ce qui se fait souvent à leur insu. “Nous assistons à une véritable inversion du paradigme de la vie privée : on passe d’une sédentarité réactive à un nomadisme extractif,” explique l’experte. Le consentement, socle de la vie privée, devient un défi quasi impossible. On ne peut le recueillir de manière systématique dans l’espace public ou lors d’échanges informels.

La voix, une donnée personnelle et biométrique sous haute protection

Au cœur de cette problématique se trouve la nature même de la voix. Le RGPD définit une donnée personnelle comme toute information permettant d’identifier, directement ou indirectement, une personne physique. La voix remplit pleinement cette condition. Plus encore, elle est fréquemment qualifiée de donnée biométrique

Calixte Descamps précise. “Au-delà de l’identification, la voix est une donnée biométriquecar elle résulte d’un traitement technique spécifique portant sur des caractéristiques physiques et physiologiques uniques.” Elle est le reflet d’une identité profonde, traduisant émotions, état de santé ou origines.

Cette classification n’est pas anodine. En effet, la capture de la voix, et a fortiori sa transformation en donnée biométrique, implique un niveau de protection très élevé. Et ce en vertu de l’article 9 du RGPD qui encadre strictement le traitement des catégories particulières de données.

La CNIL, l’autorité française de protection des données, a d’ailleurs confirmé que capter la voix revient à traiter une donnée biométrique. En conséquence, la captation impose une base légale très solide et une information transparente des personnes concernées.

Le Shadow AI et l’illusion de la responsabilité utilisateur

La captation continue et souvent invisible par ces dispositifs s’apparente à une forme de Shadow AI social. L’IA portable génère une masse de données intimes ou informelles, stockées sur des serveurs distants pour être analysées par des algorithmes. 

Face à la complexité de cette collecte, les fabricants tentent souvent de se décharger de leur responsabilité. Ils insèrent donc des clauses dans les Conditions Générales d’Utilisation (CGU). Les entreprises transfèrent la charge du consentement vers l’utilisateur final.

Cependant, cette approche est juridiquement intenable. Calixte Descamps est catégorique : “Légalement, ces clauses existent pour protéger le fabricant lors de l’achat. Cependant, au regard du RGPD et de l’AI Act, elles sont largement insuffisantes.” 

Elle ajoute que “le transfert de la charge du consentement vers l’utilisateur ne peut pas justifier le déploiement d’un dispositif conçu pour capter des tiers à leur insu.” La suspension du lancement européen de Friend.com atteste d’ailleurs que les “petites lignes” des CGU ne sauraient pallier un manque flagrant de Privacy by Design. Comme notamment l’absence d’indicateur lumineux d’enregistrement ou de bouton de coupure physique.

Les droits des tiers face à l’impossible exercice contre l’IA portable

Le RGPD garantit des droits fondamentaux aux individus, tels que le droit d’opposition ou le droit à l’effacement (souvent appelé droit à l’oubli). Cependant, leur exercice devient un véritable parcours du combattant dans le contexte de l’IA portable et du Shadow AI. 

“Si un tiers découvre a posteriori qu’il a été enregistré, son droit à l’oubli est très difficile à exercer si les données ont déjà été traitées ou utilisées pour entraîner des modèles dans le cloud,” explique Calixte Descamps. 

La difficulté matérielle est immense. Il faut prouver la captation, identifier le responsable et demander l’effacement de données potentiellement dispersées ou déjà intégrées à des bases d’apprentissage.

Pour pallier cette lacune, l’experte d’Adequacy évoque la nécessité d’une “étiquette sociale” de l’IA. Elle invite les utilisateurs à demander systématiquement l’autorisation ou à éteindre l’appareil dans les lieux privés. Mais elle insiste surtout sur la responsabilité des fabricants : “La technologie doit aider l’humain : des fonctions d’opt-out vocal immédiat ou des signaux visuels clairs devraient être la norme.”

L’AI Act sonne-t-il le glas pour les IA non conformes ?

Le dossier Friend.com est un signal fort pour l’ensemble du marché de l’IA portable. L’application progressive de l’AI Act européen renforce drastiquement le cadre réglementaire. 

Ce texte, pionnier au niveau mondial, classe les systèmes d’IA selon leur niveau de risque. Ainsi, ceux exploitant les vulnérabilités émotionnelles ou créant un attachement artificiel seront soumis à des exigences particulièrement strictes. Des sanctions massives sont prévues.

Pour Calixte Descamps, l’avenir de ces wearables est conditionné à un “pivot radical” des fabricants. “Ceux qui ne sauront pas intégrer une transparence réelle et une sécurité souveraine resteront des niches controversées ou se verront tout simplement interdire l’accès au marché européen par des autorités comme la CNIL.”

L’innovation ne peut plus se faire au détriment des droits fondamentaux des citoyens européens. Pour les acteurs B2B, il est impératif d’intégrer la conformité dès la conception (Privacy by Design et Security by Design) et d’évaluer scrupuleusement les risques liés à la collecte de données personnelles et biométriques de tiers, afin de garantir une adoption éthique et durable de ces technologies.

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !