Afin d’améliorer la qualité photographique des smartphones, Google s’est associé avec le MIT pour développer un algorithme capable de retoucher les photos en temps réel avant même qu’elles ne soient prises. Grâce au Machine Learning et à l’intelligence artificielle, les photos prises avec un smartphone seront bientôt dignes des clichés professionnels.
Pour créer ce nouvel algorithme de « computational photography », Google et le MIT ont utilisé le Machine Learning. Des réseaux de neurones ont été entraînés avec un ensemble de données regroupant plus de 5000 images créées par Adobe et le MIT. Chaque image a été retouchée par cinq photographes différents, et les algorithmes se sont basés sur ces données pour apprendre quelles améliorations apporter aux différentes photos. Par exemple, augmenter un peu la luminosité, réduire la saturation…
Google et le MIT ont créé un algorithme suffisamment léger pour être intégré à un smartphone
Utiliser le Machine Learning pour améliorer les photos a déjà été fait par le passé, mais ce nouvel algorithme révolutionnaire est suffisamment léger et efficient pour être intégré à un smartphone sans ajouter la moindre latence. Concrètement, le poids du logiciel ne dépasse pas celui d’une simple image, et pourrait permettre de traiter les images dans différents styles. En effet, en s’entraînant sur de nouveaux ensembles d’images, les réseaux de neurones pourraient apprendre à reproduire le style particulier d’un photographe, à la manière dont Facebook ou Prisma ont créé des filtres artistiques en s’inspirant de peintres célèbres.
Afin d’alléger les algorithmes au maximum, les chercheurs ont utilisé différentes techniques. Par exemple, les changements apportés à chaque photo ont été convertis en formule, et les images sont cartographiées grâce à un système de grille. Ainsi, les informations sur la façon dont les photos doivent être retouchées peuvent être exprimées de façon mathématique.
Le Google Pixel 2 pourrait être le premier smartphone à embarquer cette technologie de Machine Learning
Selon Jon Barron, chercheur de Google, cette technique pourrait être très utile pour l’amélioration en temps réel des images sur les plateformes mobiles. Jusqu’à présent, l’utilisation du Machine Learning pour la computational photography était limitée par les contraintes de puissance des appareils mobiles. Grâce à ce nouvel algorithme, cette contrainte peut être surmontée et les photos peuvent être améliorées en temps réel sans consommer la batterie du smartphone et sans ajouter de latence.
Il est probable que cet algorithme soit implémenté avec le prochain smartphone Google Pixel. Depuis le Nexus 6, la firme utilise des algorithmes HDR+ pour améliorer la qualité des photos prises dans des conditions de luminosité trop faible ou trop élevée. Il pourrait s’agir de la prochaine étape de la stratégie de Google pour créer le meilleur photophone. Cet algorithme s’inscrit également dans la lignée de l’intelligence artificielle développée par Google Deepmind, capable de créer des œuvres d’art, ou de NSynth, une IA capable de composer des musiques.
- Partager l'article :