La Sécurité des Marques à l’Ère de l’IA : Un Nouveau Rapport Soulève des Questions Cruciales

Un rapport récent d’Adalytics remet en question l’efficacité des technologies de sécurité des marques alimentées par l’intelligence artificielle, suscitant des interrogations parmi les professionnels du secteur sur leur fonctionnement, leur fiabilité et les coûts engagés par les annonceurs.

Ce rapport de 100 pages, publié mercredi, a analysé la capacité des technologies de sécurité des marques proposées par des entreprises telles que DoubleVerify et Integral Ad Science à détecter en temps réel des contenus problématiques et à empêcher les publicités d’apparaître à côté de discours haineux, de références sexuelles ou de contenus violents.

Suite à la surprise des annonceurs face aux résultats, DV et IAS ont défendu leurs solutions en critiquant la méthodologie du rapport. Dans un article de blog, IAS a affirmé être « guidée par une mission unique : devenir la référence mondiale en matière de confiance et de transparence dans la qualité des médias numériques. »

« Nous nous engageons à exceller dans la mesure et l’optimisation des médias, » a déclaré IAS. « Nous innovons constamment pour dépasser les normes élevées que nos clients et partenaires méritent afin de maximiser leur retour sur investissement et de protéger l’équité de leur marque à travers les canaux numériques. »

Dans sa déclaration, DoubleVerify a souligné que le rapport d’Adalytics manquait de contexte approprié et a mis en avant les options de paramétrage disponibles pour les annonceurs. Cependant, des sources au sein des secteurs de la technologie publicitaire, des marques et des agences ont affirmé que le rapport identifiait avec précision des problèmes clés. Malgré leurs engagements, ces sources ont indiqué que DV et IAS n’avaient pas encore fourni suffisamment de transparence pour apaiser les inquiétudes concernant les outils d’IA, ce qui pourrait aider l’industrie à mieux comprendre et tester ces outils, ainsi qu’à aborder des préoccupations plus larges.

Un expert a comparé la situation à une scène de Star Wars où Obi Wan Kenobi utilise le contrôle mental pour rediriger des stormtroopers, en déclarant : « Si jamais il y avait un moment de type ‘ce ne sont pas les droïdes que vous cherchez’, c’est celui-ci en matière de sécurité des marques. »

Plus tôt cette semaine, Digiday a envoyé des questions à DV et IAS que les annonceurs et les experts en technologie souhaitaient voir abordées avant la publication du rapport. Les questions portaient sur l’application de la technologie de sécurité des marques, le processus du modèle d’IA pour analyser et évaluer la sécurité des pages, et si les pages étaient explorées de manière occasionnelle ou en temps réel. D’autres questions concernaient l’analyse au niveau des pages et si le contenu généré par les utilisateurs était évalué différemment du contenu d’actualités. Ni DV ni IAS n’ont répondu directement à ces questions.

« Il est clair qu’il existe des lacunes dans le système où des erreurs évidentes se produisent, » a déclaré Laura Edelson, professeur à NYU. « Si j’étais un client, la première chose que je voudrais, c’est plus d’informations sur le fonctionnement de ce système. »

Sans transparence, un rapport comme celui d’Adalytics « détruit vraiment la confiance, » car « sans confiance, il n’y a pas de fondation, » a ajouté Edelson.

Vers une Transparence Accrue : Quelles Solutions ?

Alors, à quoi pourrait ressembler la transparence ? Quelles informations les annonceurs devraient-ils obtenir de la part des fournisseurs ? Et comment les outils de sécurité des marques alimentés par l’IA peuvent-ils mieux traiter les problèmes affectant le contenu et les publicités sur Internet ?

Rocky Moss, PDG et co-fondateur de la startup DeepSee.io, une plateforme de recherche sur la qualité des éditeurs, a soutenu que les entreprises de mesure devraient fournir des données plus détaillées sur l’exactitude et la fiabilité de la catégorisation au niveau des pages. Les annonceurs devraient également interroger les fournisseurs sur d’autres problématiques : comment la technologie de préenchère des fournisseurs réagit lorsqu’une URL n’est pas catégorisée ou lorsqu’elle est derrière un mur payant ; comment ils gèrent une éventuelle dépendance excessive aux évaluations agrégées ; et le risque de suppression d’enchères pour des URLs non catégorisées. Il estime également que les fournisseurs devraient partager des informations sur la manière dont ils évitent les faux positifs et le temps qu’ils consacrent chaque jour à examiner le contenu signalé sur des sites d’actualités très fréquentés et établis.

« Cela dit, les modèles de catégorisation seront toujours probabilistes, avec des faux négatifs et des faux positifs attendus en (espérons-le) petites quantités, » a déclaré Moss. « Si le produit est vendu sans divulguer cela, c’est malhonnête. Si quelqu’un achète une protection contre les contenus inappropriés en croyant qu’elle est parfaite, je connais des bots Twitter avec des NFT à leur vendre. »

La distinction entre la sécurité des marques et la sécurité des utilisateurs devient de plus en plus floue, selon Tiffany Xingyu Wang, fondatrice d’une startup discrète et co-fondatrice d’Oasis Consortium, une organisation à but non lucratif axée sur la technologie éthique. Elle estime que les entreprises incitées à traiter ces deux questions méritent de meilleurs outils pour la sécurité des utilisateurs, la pertinence des marques et la publicité alignée sur les valeurs.

« Nous devons nous éloigner d’une approche axée sur les listes de blocage, » a déclaré Wang, qui était auparavant CMO de l’entreprise de modération de contenu par IA OpenWeb. « Ce n’est plus suffisant pour les annonceurs, compte tenu de l’environnement de plus en plus complexe. »

Chez Seekr, qui aide les annonceurs et les utilisateurs à identifier et filtrer la désinformation et d’autres contenus nuisibles, chaque contenu entrant dans son modèle d’IA est mis à disposition pour révision. Cela inclut des articles d’actualités, des épisodes de podcasts et d’autres contenus. Au lieu de classer le risque de contenu par des systèmes mesurés sur une échelle de « faible », « moyen » ou « élevé », Seekr évalue le contenu sur une échelle de 1 à 100. Il montre également ce qui est noté, comment cela est noté, ce qui est signalé et pourquoi cela est signalé.

La transparence aide également les entreprises à prendre de meilleures décisions commerciales, a déclaré Pat LaCroix, vice-président exécutif des partenariats stratégiques chez Seekr. Il a également noté que la performance et la pertinence ne devraient pas être mutuellement exclusives : « Cela ne devrait pas être considéré comme un fardeau ou une taxe que vous payez, mais comme quelque chose qui stimule des indicateurs clés. »

« Les gens doivent changer de perspective, et tout le monde doit aller plus loin pour savoir comment évaluer le contenu. C’est trop opaque, trop générique, » a déclaré LaCroix, qui a précédemment travaillé dans des agences et en interne pour des marques comme Bose. « En fin de compte, le CPM reste un indicateur réel auquel les acheteurs sont soumis et les annonceurs recherchent toujours les prix les plus bas, et c’est pourquoi cela continue de se produire. »

Autres Nouvelles et Annonces sur l’IA

  • La Commission irlandaise de protection des données a pris des mesures contre X pour avoir prétendument utilisé les données des utilisateurs de l’UE sans consentement pour former le modèle d’IA Grok de X.
  • Un nouveau rapport de Check My Ads examine les dommages causés par les nécrologies générées par l’IA.
  • La FCC a ouvert une nouvelle période de commentaires alors qu’elle cherche à établir de nouvelles règles pour l’utilisation de l’IA dans la publicité politique.
  • Un nouveau rapport de Dentsu a révélé que le pourcentage de directeurs marketing doutant de la capacité de l’IA à créer du contenu est passé de 67 % en 2023 à 49 % en 2024.
Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *