Tendances 2026 : les données au cœur de toute stratégie de marketing digital

Onclusive vient de publier une étude « RP, communication & Marketing : Horizons 2026« . Celle-ci comprend trois parties, une enquête sur les professionnels des relations presse, une enquête sur les professionnels du marketing et des contributions d’experts. Et à ce titre un article reproduit ci-après de votre serviteur est intégré.

L’information a toujours été source de pouvoir. La quantité d’information produite sur Terre double pratiquement selon la loi de Moore qui est empirique, c’est-à-dire tous les 18 ou 24 mois. Elle se vérifie depuis l’apparition des micro-processeurs en 1971. La bonne information conduit à la meilleure décision possible que ce soit dans la sphère professionnelle ou la sphère personnelle. Ceci lui donne un intérêt stratégique. Or avec l’irruption des IA génératives, la prolifération d’information, les fake news, les informations orientées et les manipulations de l’opinion dans tous les sens, les erreurs, il convient plus que jamais de faire preuve de discernement. C’est un processus qui s’apprend et qui demande de la culture et de la vigilance. Les données sont ainsi devenues le nouvel or transparent. Mais encore faut-il les récupérer et traiter celles qui ont une valeur ajoutée et délaisser les autres puis les raffiner, les enrichir et les contextualiser.

Les catégories de données

On pourrait considérer 10 catégories de données avec des oppositions comme suit :

  • données produites par l’homme vs données générées par des IA
  • données structurées (dans des bases de données de type SQL) vs données non structurées (textes, images, sons, vidéos)
  • données globales vs données locales (pour le géomarketing)
  • données quantitatives (chiffres, statistiques) vs données qualitatives (textes, sentiments avec l’écoute des réseaux sociaux)
  • données historiques ou stables (lois, définitions) vs données fraîches (peuvent être périssables ou ont une durée de vie comme relatives à la météo)
  • données factuelles (neutres et informatives) vs données orientées ou biaisées (influencées par des modèles, des contextes)
  • données publiques (open data) vs données propriétaires ou confidentielles (utiles en matière d’intelligence économique)
  • données vérifiées (sources fiables) vs données incertaines (hypothèses, prévisions ou extrapolations)
  • données en temps réel vs données archivées
  • données exactes vs fake news ou données erronées

Ceci est représenté dans ce polygone à 10 côtés qui suit sachant qu’une donnée peut appartenir à plusieurs catégories. Nous pouvons imaginer d’autres oppositions comme données de contenu vs métadonnées (données décrivant des données, par ex. pour un document Word, des métadonnées associées sont l’auteur, la date de création, de dernière modification, le nombre de caractères), données descriptives vs données prescriptives, données brutes vs données enrichies ou encore données personnelles vs données anonymisées ou synthétiques (générées à partir de vraies données pour remplacer toutes données personnelles).

Les différents types ou catégories de données

La difficile question reste celle de la valorisation de la donnée qui nécessite des travaux de recherche pointus[1].

Une autre considération réside dans les limites à la course à la puissance des IA génératives. D’une part, cela nécessite beaucoup d’énergie. De l’autre, il est nécessaire de disposer de quantités colossales de données. Pour ChatGPT5, les données humaines disponibles sont à ce stade insuffisantes. Cela amène à deux hypothèses, soit se nourrir de données générées elles-mêmes par des IA génératives avec un risque de dégénérescence ou de « soleil vert des données »[2], soit disposer de données synthétiques imitant de vraies données mais anonymisées. En outre subsistent toujours les biais, les hallucinations, la grossièreté de la mention des sources (on dispose de l’adresse de la page d’accueil du site mais non de l’URL précis), la non-compréhension pratique.

La montée de l’IA générative, du prompt engineering au context engineering et au-delà des LLM

Tout métier du marketing ou de la communication ne peut se passer de l’utilisation des IA génératives. Encore faut-il les utiliser à bon escient. Les pratiques évoluent depuis l’apparition de ChatGPT en novembre 2022. Désormais on passe du prompt engineering – qui est l’art de prompter, c’est-à-dire de formuler de façon précise et détaillée une requête à une IA pour avoir une réponse à valeur ajoutée – au context engineering. Ceci vise à optimiser la façon dont les outils d’IA comprennent et utilisent les informations communiquées avec le bon contexte afin de produire des réponses les plus pertinentes et fiables. C’est une transition de la formulation de la requête vers tout ce qui est autour de la requête : données, documents, historique de recherche, métadonnées, etc. Les prompts sont enrichis avec des données spécifiques à l’utilisateur ou à la marque pour permettre une plus grande personnalisation et tenir compte de l’environnement marketing et métier.

Pour le marketing digital, on a ainsi la possibilité de :

  • Générer du contenu prévu pour le référencement sur les moteurs de recherche, Google en particulier (SEO), ciblé pour des niches spécifiques. Même si les recherches effectuées via l’IA progressent et si l’audience des sites a baissé, avoir un site de bonne qualité dans ces conditions reste un challenge à ne pas occulter ;
  • Personnaliser des méls dans le cadre de campagnes marketing et selon le comportement des utilisateurs ;
  • Créer des scripts publicitaires en adéquation avec l’identité de la marque.

Aussi il convient de filtrer pour ne conserver ce qui est pertinent pour la tâche, de structurer le contenu pour rendre compréhensibles les données par le LLM utilisé mais aussi maximiser l’espace mémoire limité des LLM tout en diminuant les risques d’hallucinations.

Cette transition s’accompagne de l’émergence des SLM (Small Language Models), des LLM RAGisés (Retrieval-Augmented Generation) et de LLM propriétaires qui sont intégrés aux grandes organisations (par ex. LaPosteGPT). La clef reste l’exploitation optimale des données.

Les SLM, moins gourmands en ressources, sont une des réponses au défi énergétique posé par les IA génératives[3]. En les déployant localement, c’est une réponse à la confidentialité des données des entreprises. Par exemple les recommandations de produits et de services peuvent être produites directement sur un site e-commerce sans transférer les données vers des serveurs extérieurs à l’organisation.

Le recours au RAG pour les LLM devient incontournable pour réduire les hallucinations. En s’appuyant sur des bases de données sectorielles ou thématiques, les réponses peuvent être enrichies. Pour le marketing de contenu, il est alors possible de produire des articles ou des fiches produit grâce à des sources plus fiables et en étant cohérent avec les données de l’entreprise. Les LLM RAGisés à mort constituent pour l’heure actuelle une des solutions optimales.

Les LLM internes permettent de capitaliser sur les données propriétaires. Par exemple l’outil FIND développée chez Orange constitue une aide précieuse pour les téléconseillers. Au préalable des entraînements sont à effectuer sur des données internes (documents PDF ou autres, CRM avec des profils de clients et des historiques d’achat, historiques de campagnes marketing passées). Il est possible de générer des optimisations de campagnes commerciales en temps réel par exemple.

Ces changements permettent des évolutions vers des marketeurs augmentés : accélération du time to market et de la production de contenu, disposer d’insights contextualisés. Le temps gagné peut alors être réinvesti dans la stratégie et la créativité humaine propre aux métiers du marketing et de la communication.

du marketing et de la communication.

Vers du GenAIaaS[4] avec du A/B testing de qualité et des boucles de rétroaction

La transition vers le context engineering marque une évolution des usages qui tend vers des IA générative as a Service que l’on pourrait baptiser GenAIaaS. Il s’agit d’une boucle d’amélioration continue où nous avons une juste collaboration entre l’humain, qui reste à l’initiative du prompt et de l’analyse des résultats délivrés, et les IA génératives choisies pour la tâche proprement dite.

On peut avoir rapidement disposer de variantes de messages, visuels, pages web grâce aux prompts et les marketeurs sont appelés à devenir des serial prompteurs. Ceci permet de remettre au goût du jour l’A/B testing avec des boucles de rétroaction rapides comme illustré dans le schéma qui suit. Et de tester pour le passage à l’échelle plusieurs cas de figure ou scénarios tout en ayant des personnalisations très rapides.

La boucle de rétroaction entre l’humain et la machine pour améliorer les résultats produits

À chaque itération, l’humain intervient pour juger le résultat et corriger le cas échéant ou le valider et passer à une autre tâche ou action. Les résultats peuvent aussi être mis en production, par exemple effectuer des tests grandeur nature pour évaluer au cours d’un parcours de vente, le taux de clic, de conversion, d’engagement. L’humain pourra alors interpréter les résultats dans leur contexte et prendre des décisions issues des commentaires et des retours des clients.

Il s’agit bien d’adopter une approche hybride entre humain et IA avec l’humain qui in fine est garant de la pertinence. Il est possible d’éventuellement recourir au n + 1 ou au n + 2 pour validation si les enjeux le justifient. L’IA propose, l’humain dispose.

Signaux faibles et signaux fIAbles avec ou sans IA

Il convient dans l’océan informationnel qu’est le web de pouvoir pêcher les signaux faibles et fIAbles.

Sur les réseaux sociaux, l’information circule rapidement tels les bancs de poissons dans un océan tourmenté. Certains sont visibles et viraux, les signaux forts, lesquels sont amplifiés par les algorithmes. D’autres sont plus en profondeur, plus difficilement visibles, les signaux faibles. Ils intéressent les professionnels du marketing pour repérer des futures tendances émergentes, identifier des micro-communautés d’adoption avec de futurs possibles ambassadeurs de la marque qui sont une alternative pertinence aux influenceurs ou des modes en devenir ou encore des buzz. C’est aussi pertinent dans le cadre de la veille stratégique et la gestion de crise.

Ceci demande du discernement et selon les 10+ catégories d’information présentées avant.

Le recours à des outils de social listening reste toujours possible (Talkwalker, Hootsuite, etc.) pour capter et analyser des micro-conversations, des tendances et disposer de données annonciatrices d’un bad buzz. Les IA peuvent aussi être des alliées pour l’analyse sémantique et le NLP (traitement automatique du langage naturel) en amont. Mais le plus intéressant est la réalisation de cartographies d’influenceurs et de communautés pour mieux comprendre le développement et la diffusion de signaux.

Là aussi ce sera le couplage outils utilisant des IA (ou non) et humain qui apportera des résultats probants. Il convient de pouvoir interpréter et croiser les sources pour filtrer les fake news ou les informations erronées.

Par exemple on peut avoir une frustration non-exprimée avec la récrimination d’un client mécontent sur un produit qui a peu été reprise sur les réseaux sociaux car il a peu d’abonnés. Celle-ci est potentiellement annonciatrice d’un défaut existant et qui pourrait affecter d’autres clients dont certains qui ont plus d’audience et d’influence sur les réseaux sociaux et de fait être à l’origine d’un bad buzz préjudiciable. Les signaux faibles s’inscrivent dans la démarche de prévenir plutôt que guérir avec un coût bien supérieur.

La différence entre signal faible et signal fiable et que ce dernier est validé, recoupé avec d’autres sources et peut tout autant être faible que fort.

Aussi il convient aux marketeurs et communicants de devenir pêcheurs éthiques et éclairés.

Mieux s’informer pour exister dans la société de l’information

Je livre 10 conseils dans mon livre Informez-vous ! comme :

  1. Varier ses sources d’information avec aussi des opinions contradictoires pour alimenter sa réflexion. Il s’agit de dompter les algorithmes et sortir des bulles de filtre ;
  2. Se méfier des deepfakes et vérifier toute image suspecte en effectuant des recherches croisées ;
  3. Faire parfois preuve de sérendipité dans la recherche d’information ;
  4. Se fixer des limites de temps passé derrière les écrans pour éviter le scrolling et les formes d’addiction :
  5. Ne pas hésiter si les enjeux le justifient de remonter à l’origine de la source et avoir un esprit critique.

À noter que dompter un algorithme n’est pas le hacker. C’est apprendre à jouer avec son fonctionnement de façon à mieux exploiter les données qu’il valorise. L’enjeu est de maximiser sa visibilité et son impact dans ses actions sur Internet qui ont des répercussions dans la vie physique.

Les algorithmes ne sont pas figés. Ils s’adaptent en fonction de plusieurs facteurs comme :

  • Le comportement des utilisateurs (temps passé, interactions, partages) ;
  • Le choix des formats (vidéos courtes, carrousels et threads sont aujourd’hui à privilégier) ;
  • Les signaux de qualité (taux de clics, commentaires, sauvegardes) ;
  • Mais aussi moins recourir à des liens sortants, les plateformes favorisant les interactions en leur sein plutôt qu’une audience qui la fuie !

Les algorithmes intègrent en outre des boucles de rétroaction : plus un contenu génère d’engagement, plus il sera diffusé, ce qui génère un cercle vertueux d’engagement. À l’inverse, un contenu peu commenté, aimé, partagé voit rapidement sa visibilité s’effondrer.

Il existe aussi des moments[5] qui sont plus propices aux publications et aux interactions. Le recours à des hashtags dans les tendances du moment (sur X notamment) ou le nombre d’occurrences d’utilisation (sur Instagram) sont utiles dans le choix de ceux-ci dans la rédaction des posts.

Ceci amène les community managers à penser par thread par exemple pour décrypter une actualité avec 4 ou 5 points clairs et un visuel synthétique plutôt que d’avoir un post isolé. L’analyse avec des KPI pour le suivi permet de tester, de modifier et d’être dans une démarche d’amélioration continue qui peut être épaulée par des outils d’IA générative.

Même si les algorithmes des outils et des plateformes évoluent, la logique reste la même. La prime va à la pertinence du post, à la régularité, à l’engagement. Il est important de connaître les règles dans l’utilisation des données (algorithmes et fonctionnement supposés) pour mieux les exploiter.

Une famille numérique en 2025 qui lit le livre Informez-vous au passage

[1] www.linkedin.com/pulse/valorisation-des-données-de-nos-organisations-jean-pascal-perrein 

[2] https://davidfayon.fr/2024/09/quand-intelligence-artificielle-generative-deraille-risques-soleil-vert-donnees

[3] On pourra aussi se référer au livre de Gilles Babinet, GreenIA, Odile Jacob, 2024.

[4] J’avais intuité ce terme. En faisant une recherche Google, on trouve une manifestation passée : https://aicongress.barcelona/en/genai-as-a-service-inetum-google

[5] https://sproutsocial.com/fr/insights/meilleurs-moments-publier-sur-reseaux-environnement-sociaux

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Captcha *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.