in , ,

Google peut désormais retoucher vos photos avant que vous ne les preniez

Afin d’améliorer la qualité photographique des smartphones, s’est associé avec le MIT pour développer un algorithme capable de retoucher les photos en temps réel avant même qu’elles ne soient prises. Grâce au Machine Learning et à l’, les photos prises avec un seront bientôt dignes des clichés professionnels.

Pour créer ce nouvel algorithme de « computational photography », Google et le MIT ont utilisé le Machine Learning. Des réseaux de neurones ont été entraînés avec un ensemble de données regroupant plus de 5000 images créées par Adobe et le MIT. Chaque image a été retouchée par cinq photographes différents, et les algorithmes se sont basés sur ces données pour apprendre quelles améliorations apporter aux différentes photos. Par exemple, augmenter un peu la luminosité, réduire la saturation…

Google et le MIT ont créé un algorithme suffisamment léger pour être intégré à un smartphone

Utiliser le Machine Learning pour améliorer les photos a déjà été fait par le passé, mais ce nouvel algorithme est suffisamment léger et efficient pour être intégré à un smartphone sans ajouter la moindre latence. Concrètement, le poids du logiciel ne dépasse pas celui d’une simple image, et pourrait permettre de traiter les images dans différents styles. En effet, en s’entraînant sur de nouveaux ensembles d’images, les réseaux de neurones pourraient apprendre à reproduire le style particulier d’un photographe, à la manière dont Facebook ou Prisma ont créé des filtres artistiques en s’inspirant de peintres célèbres.

Afin d’alléger les algorithmes au maximum, les chercheurs ont utilisé différentes techniques. Par exemple, les changements apportés à chaque photo ont été convertis en formule, et les images sont cartographiées grâce à un système de grille. Ainsi, les informations sur la façon dont les photos doivent être retouchées peuvent être exprimées de façon mathématique.

Le Google Pixel 2 pourrait être le premier smartphone à embarquer cette de Machine Learning

Selon Jon Barron, chercheur de Google, cette technique pourrait être très utile pour l’amélioration en temps réel des images sur les plateformes mobiles. Jusqu’à présent, l’utilisation du Machine Learning pour la computational photography était limitée par les contraintes de puissance des appareils mobiles. Grâce à ce nouvel algorithme, cette contrainte peut être surmontée et les photos peuvent être améliorées en temps réel sans consommer la batterie du smartphone et sans ajouter de latence.

Il est probable que cet algorithme soit implémenté avec le prochain smartphone Google Pixel. Depuis le Nexus 6, la firme utilise des algorithmes HDR+ pour améliorer la qualité des photos prises dans des conditions de luminosité trop faible ou trop élevée. Il pourrait s’agir de la prochaine étape de la stratégie de Google pour créer le meilleur photophone. Cet algorithme s’inscrit également dans la lignée de l’intelligence artificielle développée par Google Deepmind, capable de créer des œuvres d’art, ou de NSynth, une IA capable de composer des musiques.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.