Apple a récemment lancé une fonctionnalité de nettoyage qui permet de supprimer des éléments indésirables d’une photo, suscitant un vif intérêt parmi ses utilisateurs. Cette fonctionnalité, disponible en Australie depuis décembre, est désormais accessible également aux clients de Nouvelle-Zélande, Canada, Irlande, Afrique du Sud, Royaume-Uni, et États-Unis.
L’outil utilise l’intelligence artificielle générative pour analyser une scène et proposer des éléments distrayants à supprimer, que l’utilisateur peut ensuite sélectionner pour les effacer. Ce processus repose sur l’IA pour créer un remplacement logique en fonction de l’environnement photographié.
Une facilité déconcertante pour tromper
Bien que des applications de retouche photo existent depuis plus d’une décennie, l’intégration de telles fonctionnalités dans l’application photo par défaut des smartphones d’Apple facilite l’accès à la manipulation d’images. Des outils similaires, comme l’éditeur magique de Google pour Android ou les options de retouche de Samsung, permettent également de modifier des images sans avoir à télécharger d’applications tierces.
Cette accessibilité pose des questions sérieuses sur la fiabilité des photographies et des vidéos. Les utilisateurs s’appuient sur ces visuels pour des preuves dans des contextes variés, allant des caméras de surveillance aux réclamations d’assurance. Si la technologie érode notre confiance dans ces images, il devient urgent de redéfinir ce que signifie vraiment faire confiance à nos yeux.
Des usages variés, parfois discutables
La possibilité de retirer des éléments indésirables peut sembler attrayante, notamment dans des lieux touristiques bondés. Cependant, l’utilisation de ces outils va au-delà de la simple amélioration esthétique. Certains utilisateurs retirent des filigranes, protégeant ainsi leur travail des utilisations non autorisées. D’autres modifient des preuves, par exemple en présentant un article endommagé comme étant en bon état avant l’expédition.
Au fur et à mesure que ces technologies se répandent, la liste d’applications douteuses s’allonge. Les générateurs d’IA peuvent créer de faux reçus réalistes, que des individus pourraient tenter de soumettre à leur employeur pour des remboursements fictifs.
La confiance envers les visuels s’effrite
Face à ces développements, la question de la “preuve visuelle” devient cruciale. Les anomalies créées par des outils comme Clean Up peuvent parfois être détectées à l’œil nu, mais il est généralement plus simple de manipuler une seule image que plusieurs prises du même lieu. Demander à voir plusieurs angles d’une scène représente une stratégie de vérification utile.
Bien que voir quelque chose de ses propres yeux soit la meilleure approche, cela n’est pas toujours réalisable. Effectuer des recherches supplémentaires peut également s’avérer bénéfique. Par exemple, dans le cas d’un reçu frauduleux, il est essentiel de vérifier si le restaurant existe, s’il était ouvert le jour indiqué, et si le menu correspond aux articles prétendument vendus.
Une vigilance accrue nécessaire
La vérification manuelle de ces éléments prend du temps, ce qui rend les systèmes de vérification automatisés d’autant plus attrayants à mesure que les risques liés à la manipulation d’images augmentent. Les régulateurs ont également un rôle à jouer pour s’assurer que la technologie de l’IA n’est pas mal utilisée. En Europe, le déploiement des fonctionnalités d’Apple, y compris l’outil Clean Up, a été retardé en raison d’incertitudes réglementaires.
L’IA peut simplifier nos vies, mais comme toute technologie, elle peut être exploitée pour le bien ou le mal. Être conscient de ses capacités et développer nos compétences en matière de médias est essentiel pour naviguer en tant que membre informé de notre monde numérique.