Cet article est également disponible en : anglais

Ci-dessus : images générées par IA par Adobe pour promouvoir les améliorations de ses technologies.

Adobe dévoile la nouvelle version de Photoshop. Disponible en bêta, elle intègre une nouvelle version majeure du modèle d’IA générative Firefly, dont le modèle de génération d’images passe en version 3.
Voici un résumé des avancées, mais aussi des enjeux éthiques posés par cette nouvelle version.

Exemple d’image généré à l’aide d’une image de référence – exemple proposé par Adobe, issue d’IA générative

Dans les avancées apportées par le modèle Firefly Image 3 dans Photoshop, on note surtout :

un rendu plus photoréaliste, notamment sur les visages humains ; la possibilité d’utiliser des images de référence pour améliorer la génération de contenu ; la génération en texte en image à partir d’une toile totalement vide ; la fonction de génération de variantes, ce qui améliore le contrôle sur le résultat ; une fonction qui permet d’améliorer la netteté et la clarté des images.

Globalement, la mise à jour apporte donc à la fois des résultats plus précis et plus contrôlables. Ce deuxième point est un enjeu majeur de l’IA générative, le manque de contrôle de nombreux outils les rendant difficilement utilisables en production.

image générée à partir d’un projet vide, uniquement via un prompt – exemple proposé par Adobe, issu d’IA générative

Ethique et sources : la théorie

On le sait, Adobe s’est toujours positionné en acteur éthique de l’IA générative. Rappelons qu’un outil comme Midjourney a été entraîné à l’aide d’images glacées en masse sur le web sans autorisation des artistes et studios, ce qui se voit dans les images générées. A l’inverse, Adobe explique ainsi que Firefly a été entraîné sur des contenus Adobe Stock avec autorisation ainsi que sur des images libres de droits.
Avec ce choix, Adobe se prive volontairement de sources d’entraînement utilisées par la concurrence, ce qui peut avoir pour conséquence une IA générative moins avancée. Mais en contrepartie, Adobe peut parler « d’IA responsable avec les créateurs au centre » et d’images « commercialement sûres », autrement dit utilisables commercialement sans danger en termes de droit d’auteur pour les clients.

La démarche se poursuit avec la cofondation de la Content Authenticity Initiative (CAI), une coalition d’entités (entreprises, ONG, entités académiques), toujours pour aller dans le sens d’une plus grande transparence et chaîne de provenance dans les contenus numériques .
Conséquence directe de cette démarche, Adobe intègre un système de « content credentials » sur les images produites avec Firefly afin de proposer une chaîne claire et transparente sur la paternité des œuvres et l’implication ou non d’IA. Ce même système est également porté par des entreprises comme Microsoft, Leica, Publicis.

Bloomberg écorne l’image d’Adobe : une IA pas si éthique ?

Mais il y a quelques jours, Bloomberg a révélé que la pratique s’éloigne de la théorie. En effet, dans les images Adobe Stock utilisées pour entraîner Firefly, on retrouve… Des images créées avec des IA génératives tierces, comme Midjourney. Environ 5% des images d’entraînement seraient concernées, d’après les déclarations d’Adobe à Bloomberg.
Si Firefly n’est donc pas directement entraîné avec des images récupérées en ligne sans autorisation des artistes, c’est le cas de manière indirecte sur une partie faible mais non nulle des données.

L’article nous rappelle donc l’importance d’avoir un maximum d’informations sur les données d’entraînement des IA, les effets éthiques/légaux pouvant éventuellement se répercuter en cascade.

Et la version 3 ?

Cette information concerne la version 2 de Firefly. Nous avons donc posé trois questions à l’éditeur afin de connaître leur position sur la version 3 :

Bloomberg a récemment publié un article qui nous qu’apprend environ 5% des données d’entraînement de Firefly sont générées par IA via des outils comme Midjourney. Est-ce également le cas de la nouvelle version de Firefly ? Si oui, cela ne remet-il pas en question l’aspect « commercialement sûr » auquel sont sensibles une partie des studios et artistes, que ce soit pour des raisons légales, éthiques, commerciales ? Quelles sont les garanties d’Adobe sur cet aspect « commercialement sûr » ? Enfin, est-il envisagé de proposer une version plus restreinte de Firefly, qui ne serait pas entraînée avec des contenus générés par des IA tierces ?

Voici la réponse d’Adobe :

Adobe n’a pas obtenu de données de formation auprès d’autres fournisseurs d’IA générative.
Les modèles d’IA générative Firefly ont été formés sur du contenu sous licence, tel qu’Adobe Stock, et sur du contenu du domaine public dont le droit d’auteur a expiré.
Adobe Stock inclut du contenu Generative AI qui fait partie des offres Adobe Stock, dont certaines peuvent être utilisées pour former Adobe Firefly.
Les personnes qui soumettent du contenu à Adobe Stock doivent attester qu’elles disposent des droits nécessaires pour soumettre le contenu et doivent indiquer si elles ont utilisé Generative AI pour créer l’élément qu’elles soumettent.
Vous pouvez trouver plus d’informations dans les liens suivants :

En clair et en français, Adobe confirme que même si Adobe n’a pas directement fait appel à d’autres sociétés pratiquant l’IA générative, il n’en reste pas moins qu’indirectement, des images issues de ces plateformes sont bel et bien dans la base d’entraînement de Firefly. Et Adobe n’annonce ni changement pour la nouvelle version 3, ni version de Firefly qui serait expurgée de ces images issues d’IA tierces.

Sachez donc, si vous utilisez cette version bêta de Photoshop avec Firefly, qu’elle pose le même type de questions que Midjourney sur le plan éthique.

Notons en revanche que lors de la conférence de presse, Adobe a réaffirmé proposer un produit « commercialement sûr ». En parallèle, la marque continue également de communiquer sur l’équipe de modération d’Adobe Stock, dont une des missions est d’éliminer les visuels qui ne respectaient pas les règles de la plateforme : présence de marques, logos, références à des noms d’artistes, personnalités connues, propriétés intellectuelles reconnaissables.
Autrement dit, Firefly ne devrait pas ajouter dans vos projets ce types d’éléments, qui poseraient des problèmes légaux très directs.

Les questions demeurent

Reste désormais à voir comment agiront les studios, artistes qui utilisaient la technologie Adobe Firefly face aux révélations de Bloomberg.

3DVF continuera évidemment à suivre de près les évolutions du secteur de l’image numérique face à l’essor des IA génératives. Nous aurons l’occasion, d’ailleurs, de vous en reparler d’ici quelques jours.



Source link

Shares:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *