L’usage de l’I.A favorise t’il le plagiat?
Tant qu’on y est, autant poser cette question à CHAT GPT (Open AI), et c’est ce que j’ai fait promptement :
« Est-ce que l’usage régulier de l’I.A générative type Midjourney ou Dall-E favorise le plagiat involontaire
dans le domaine de la création publicitaire? »
(image d’illustration réalisée sur Midjourney). Sa réponse est étonnamment juste et précise. Elle m’a interpellé dans le sens où l’I.A ne cherche pas à esquiver ses limites actuelles (en termes de vérification d’antériorité). Si plagiat il y a, elle a même tendance à en faire porter la responsabilité aux humains. Voici sa réponse éclairante (et très légèrement complétée) :
L’usage régulier de l’IA générative, type Midjourney ou DALL·E, peut potentiellement favoriser le plagiat involontaire dans le domaine de la création publicitaire, bien que ce ne soit pas une conséquence inévitable.
Voici quelques raisons pour lesquelles cela pourrait se produire :
1. Apprentissage basé sur des données existantes :
Les IA génératives sont formées sur de vastes ensembles de données, qui incluent souvent des images et des créations protégées par des droits d’auteur. Bien que ces systèmes n’aient pas accès à des œuvres spécifiques de manière directe, ils peuvent apprendre des styles, des compositions, et des éléments visuels qui sont courants dans ces œuvres. Lorsqu’une IA génère une nouvelle image, elle peut, sans intention, créer quelque chose de très similaire à des œuvres existantes, ce qui pourrait être perçu comme du plagiat.
2. Manque de conscience contextuelle :
Contrairement aux créateurs humains, les IA n’ont pas de compréhension contextuelle ou d’intention artistique. Elles ne peuvent pas évaluer si une création est trop similaire à une autre ou si elle enfreint des droits de propriété intellectuelle. Cela signifie que l’IA pourrait produire des images qui rappellent fortement d’autres œuvres sans le savoir.
3. Risque de génération de contenu similaire :
Les algorithmes d’IA, en particulier ceux qui génèrent des images basées sur des prompts textuels, peuvent produire des contenus qui, même s’ils ne sont pas identiques à des œuvres existantes, ressemblent suffisamment à celles-ci pour créer des problèmes de plagiat. Ce risque est accentué lorsque les prompts utilisés par les utilisateurs sont basiques ou basés sur des descriptions d’œuvres bien connues.
4. Dépendance accrue des créatifs sur l’IA :
Si les créateurs publicitaires s’appuient trop sur l’IA pour générer des idées ou des contenus visuels, il y a un risque de standardisation et de manque d’originalité, où des créations similaires émergent à partir de différentes agences ou créateurs. Cette dépendance pourrait également diminuer la diligence que les créateurs humains mettent à s’assurer que leur travail est original.
Quelles sont les bonnes pratiques à adopter?
Pour éviter le plagiat involontaire dans l’utilisation des IA génératives :
- Vérification des œuvres générées : Les créateurs doivent vérifier soigneusement les œuvres générées par l’IA pour s’assurer qu’elles ne ressemblent pas trop à des créations existantes. Si la difficulté de la recherche excède leurs compétences ou si un besoin d’aide se fait sentir devant l’ampleur ou la complexité de la tâche, ils peuvent faire appel à Anterity, un service dont Joe La Pompe est partenaire exclusif et pour lequel il est consultant.
- Diversification des prompts : Utiliser des prompts détaillés et créatifs qui s’éloignent des descriptions génériques peut aider à générer des œuvres plus uniques.
- Mélange d’éléments créatifs : Les créateurs peuvent combiner les éléments générés par l’IA avec leurs propres contributions artistiques pour assurer une plus grande originalité.
- Sensibilisation aux droits d’auteur : Les professionnels de la création doivent être formés aux lois sur les droits d’auteur et comprendre comment l’IA fonctionne pour éviter des problèmes de propriété intellectuelle.
En somme, bien que l’utilisation de l’IA générative comporte des risques de plagiat involontaire, ces risques peuvent être gérés avec une utilisation responsable et consciente.
Dans cet exemple, l’image de droite à été générée par une intelligence artificielle. Celle-ci a permis aux créatifs d’avoir rapidement un rendu professionnel bluffant pour leur visuel WWF. Par contre, le logiciel d’IA générative utilisé n’a pas été en mesure et n’a pas été conçu pour leur signaler que c’était un plagiat (sans doute inconscient), mais relativement problématique d’une annonce Norvégienne parue 4 ans auparavant pour une ONG concurrente (visuel de gauche).
J’ai fait l’exercice de soumettre l’annonce WWF à ChatGPT avec cette question
« Peux-tu me dire si il existe des publicités déjà exploitées avec un visuel similaire? » et voici sa réponse :
Pour vérifier si une publicité avec un visuel similaire a déjà été exploitée, il faudrait comparer l’image avec des bases de données de publicités existantes, des plateformes comme Ads of the World, ou utiliser des outils de recherche d’images inversées comme Google Images ou TinEye. Ces outils permettent de rechercher des visuels similaires en ligne et de vérifier s’ils ont été utilisés dans un contexte publicitaire ou créatif. Une vérification manuelle avec recherche d’image est nécessaire pour obtenir une réponse précise.
Même problématique avec cette annonce WWF de 2024 (à droite) dont l’image a été générée par une A.I, qui une fois de plus n’a pas détecté le plagiat involontaire d’une campagne Chilienne de 2007 au concept visuel similaire pour la Fundacion Ecoeduca.
En conclusion, à l’heure actuelle, seule une recherche d’antériorité réalisée par un professionnel (humain) aurait été capable de déceler ces problèmes de plagiat involontaire. C’est pourquoi je me suis engagé aujourd’hui comme partenaire exclusif d’ANTERITY pour donner aux agences et aux créatifs le pouvoir d’éviter au maximum les risques de plagiat involontaire.
N’hésitez pas à faire appel à nous!