L’Impact de l’IA Générative sur le Marketing : Lutte Contre les Biais
Depuis l’émergence de l’IA générative il y a environ deux ans, une préoccupation majeure a persisté parmi les professionnels du marketing : le biais.
Solutions Innovantes pour Renforcer la Confiance des Clients
Des agences telles que DDB, Monks et Huge, ainsi que la plateforme de marketing IA Pencil, s’efforcent d’apaiser les inquiétudes de leurs clients grâce à une combinaison de corrections humaines et de solutions techniques. Récemment, Pencil a présenté une série de nouvelles fonctionnalités destinées à rassurer les clients et à offrir des solutions concrètes aux problèmes de biais.
Introduction de la Fonctionnalité « Bias Breaker »
Pencil, qui fait partie du groupe de services marketing Brandtech, a introduit une fonctionnalité appelée « Bias Breaker » dans sa suite d’outils d’IA. Cette fonctionnalité vise à aider les clients à élaborer des politiques éthiques et juridiques sur mesure concernant l’IA, tout en intégrant des unités anti-biais dans son programme de formation.
Rebecca Sykes, partenaire du groupe Brandtech et responsable des technologies émergentes, a souligné que bien que ces nouvelles solutions ne puissent pas éliminer complètement le biais humain dans les décisions créatives, elles offrent un meilleur point de départ pour les marketeurs.
Comprendre les Risques de Biais dans les Modèles d’IA
Le logiciel de Pencil s’appuie sur plusieurs modèles d’entraînement d’IA, tels que Llama de Meta, Imagen de Google et Firefly d’Adobe. Cependant, les biais présents dans les ensembles de données de ces modèles peuvent entraîner la création de contenus marketing reflétant des préjugés raciaux, de genre ou d’âge. Par exemple, si la majorité des images de dirigeants d’entreprise dans un modèle d’entraînement montrent des hommes blancs en costume, une requête pour illustrer un directeur des opérations pourrait ne montrer que des hommes d’un certain profil démographique.
Mécanisme de Fonctionnement de « Bias Breaker »
En termes simples, « Bias Breaker » est une fonctionnalité d’ingénierie de prompt qui génère une ligne supplémentaire à ajouter à une requête d’IA, demandant d’inclure des caractéristiques diverses telles que l’âge, le genre ou la race, selon une approche probabiliste. Sykes utilise la métaphore d’un lancer de dés pour expliquer ce processus, où chaque dé représente un aspect d’inclusivité ou de diversité.
Une Étape Vers une Utilisation Éthique de l’IA
Une fois le « lancer de dés » effectué et l’ajustement appliqué, l’utilisateur peut formuler une requête plus sophistiquée. Bien que cela ne soit pas une solution définitive, Sykes estime que cela devrait apaiser les préoccupations des clients concernant le biais. « C’est un premier pas vers un déploiement responsable de l’IA, avec l’éthique au premier plan », a-t-elle déclaré.
Les Préoccupations Persistantes des Marketeurs
Les préoccupations concernant le statut légal des actifs médiatiques dérivés de l’IA, ainsi que les risques de biais, sont des sujets de discussion fréquents parmi les marketeurs depuis que l’IA est devenue un investissement viable, notamment après le lancement de ChatGPT fin 2022. Bien que Sykes ait noté que les questions sur la légalité des outils d’IA générative aient diminué, le biais reste un sujet de préoccupation majeur.
Approches Personnalisées pour Atténuer les Biais
Geert Eichhorn, directeur de l’innovation chez Monks, a mentionné que son agence aborde les préoccupations liées aux biais par des méthodes personnalisées. Par exemple, pour une bibliothèque d’images mise à jour, ils ont utilisé des données de recensement pour générer 200 personnes dans 200 lieux différents, en tenant compte du genre, de l’ethnicité et des handicaps.
L’Importance de l’Intervention Humaine
À DDB, Strakhov a souligné qu’une approche centrée sur l’humain pour prévenir les biais serait plus efficace que de s’appuyer uniquement sur la technologie. « Si vous investissez du temps pour affiner et construire des systèmes de sécurité supplémentaires, alors ce n’est plus un problème », a-t-il déclaré.
Conclusion : L’IA comme Outil Complémentaire
Alex Dalman, responsable de l’innovation chez VCCP, a également exprimé que l’IA ne remplace pas l’expérience humaine, mais doit être utilisée avec précaution. De même, Huge s’efforce de créer des modèles d’entraînement sur mesure pour ses clients, en intégrant des tests intensifs et des garde-fous techniques pour minimiser les biais.
Bien que Pencil ait confiance en sa fonctionnalité « Bias Breaker » pour atténuer les risques, Sykes reconnaît que l’intervention humaine reste essentielle. « Nous ne croyons pas en l’automatisation à 100 % de quoi que ce soit », a-t-elle conclu.