Apple a récemment dévoilé ses nouveaux iPhone 16 lors de l’événement It’s Glowtime. Les promesses de l’intelligence artificielle générative, surnommée Apple Intelligence, étaient au cœur des annonces. Cependant, les premières fonctionnalités de cette IA ne seront disponibles qu’en version bêta à partir d’octobre.
Malgré les efforts pour intégrer l’IA et des puces A18 ultrarapides, les démos présentées ont semblé décevantes. Les acheteurs d’iPhone attendent des applications plus percutantes, comme des assistants conversationnels plus avancés, pour relancer les ventes.
L’IA sur appareil : une promesse complexe à tenir
L’idée de faire tourner l’IA sur des appareils plus petits, comme les smartphones, séduit de nombreuses entreprises. Toutefois, la réalité est plus complexe. Les grands modèles de langage (LLM) consomment énormément de ressources. Cela nécessite souvent des GPU puissants et coûteux. Leur exécution exige de grandes quantités d’énergie, de mémoire et de données. Ces paramètres rendent d’ailleurs leur intégration sur des appareils portables difficile.
Pour contourner ces limitations, les entreprises utilisent des versions plus petites et adaptées des LLM, capables de fonctionner sur des appareils edge. Ces modèles réduits offrent des réponses plus rapides et consomment moins d’énergie. L’objectif est de rendre les interactions avec l’IA aussi fluides et naturelles que possible. Mais même les versions les plus optimisées posent encore des défis, notamment en termes de performance et d’autonomie des batteries.
En attendant, Samsung et Microsoft ont pris de l’avance avec des fonctionnalités d’IA déjà intégrées dans leurs appareils. Le Galaxy S24 et les PC Windows Copilot+ exploitent l’IA générative de manière proactive. Ce marché reste pourtant largement ouvert, et Apple doit prouver que ses innovations en matière d’IA peuvent réellement conquérir les utilisateurs.
Des stratégies innovantes pour surmonter les défis de l’IA
Pour gérer la complexité des requêtes, Apple Intelligence propose une approche hybride. Les requêtes simples sont traitées directement sur l’appareil, tandis que les plus complexes sont envoyées au cloud. Ce système permet de profiter des capacités du cloud sans compromettre la confidentialité des données personnelles. Pourtant, cette méthode soulève des préoccupations chez les utilisateurs soucieux de la sécurité de leurs informations.
Les entreprises cherchent aussi des alternatives aux GPU énergivores, comme les unités de traitement neuronal (NPU). Qualcomm, par exemple, développe des NPU pour maximiser les performances par watt. Ceci rend d’ailleurs l’IA plus accessible et moins coûteuse. Ces puces, moins chères que les GPU, permettent d’équiper les appareils sans faire exploser les coûts. Mais le défi reste de taille : personne ne veut d’un téléphone aussi onéreux qu’un centre de données.
Un marché en pleine ébullition et des opportunités à saisir
L’intérêt pour l’IA sur appareil ne cesse de croître. Déplacer l’intelligence artificielle vers des appareils plus petits pourrait déclencher un supercycle dans les ventes de smartphones et d’autres gadgets. Cette tendance ouvre aussi la porte à de nouvelles applications et opportunités publicitaires. Les entreprises technologiques se lancent dans cette course pour prendre l’avantage sur un marché encore en pleine construction.
Bien que Nvidia domine le secteur des LLM basés sur le cloud, l’IA sur appareil reste un terrain où tout est possible. Aucune entreprise ne s’impose encore comme leader incontesté, ce qui laisse la place à des innovations et des développements rapides. Les futurs gagnants de cette révolution technologique pourraient bien être ceux qui parviendront à rendre l’IA pratique, abordable et réellement utile dans le quotidien des utilisateurs. Pour l’instant, l’IA sur appareil n’a pas encore atteint son plein potentiel, mais les perspectives sont prometteuses.
- Partager l'article :