Gemini Flash 2.0 de Google supprime les filigranes d’images protégées – NEURA KING

Gemini Flash 2.0 de Google supprime les filigranes d'images protégées

Google a récemment lancé son nouvel outil de génération d’images, Gemini Flash 2.0, qui a la capacité de retirer les filigranes des images protégées par des droits d’auteur, selon des utilisateurs sur les réseaux sociaux. Actuellement en phase “expérimentale”, cet outil est exclusivement accessible aux développeurs.

Le marché regorge déjà d’applications permettant d’éliminer des objets de photos et de combler les espaces laissés vides.

Les modèles d’IA générative récents ont considérablement amélioré ces capacités, et des entreprises comme Adobe mettent à jour leurs outils de suppression d’objets dans leurs éditeurs de photos. Par ailleurs, Apple propose un outil dénommé “Clean up” sur iOS et macOS, permettant cette fonctionnalité sur des appareils compatibles.

Un post sur X illustre l’efficacité de Gemini Flash 2.0 dans la suppression d’objets, suscitant des réactions mitigées.

Traditionnellement, les modèles fermés, tels que ceux développés par Google et OpenAI, sont “nerfés”, c’est-à-dire qu’ils possèdent des restrictions significatives pour éviter des complications juridiques. Par exemple, le modèle d’images Dall-E d’OpenAI refuse de générer des images de personnages protégés par des droits d’auteur.

Récemment, Microsoft a poursuivi un groupe d’individus ayant réussi à tromper ses modèles d’images pour générer du contenu inapproprié. Face à cela, Google semble également se préparer à réguler les suppressions de filigranes.

Cependant, certains experts soulignent qu’il est probablement impossible de restaurer entièrement la situation.

Les modèles ouverts peuvent avoir des garde-fous de sécurité qui peuvent être désactivés. En faisant preuve d’efforts pour prévenir les abus, Google se protège d’éventuelles responsabilités légales. Même les modèles ouverts peuvent être soumis à des accords de licence, et les forces de l’ordre ainsi que les tribunaux peuvent intervenir pour stopper les abus.

Fait intéressant, dans le cas de la suppression de filigranes, le modèle de Google appose sa propre marque sur les images modifiées ou générées par l’IA, afin de signaler clairement aux spectateurs qu’elles ne sont pas authentiques. Cela pourrait être perçu comme une allégorie de l’IA elle-même : prendre quelque chose appartenant à autrui, supprimer toute preuve de propriété, puis ajouter sa propre marque d’identification.

Flash info

Dépêches

Chroniques

IA et politique

Opinions

Decryptage

Retour en haut