Et si l’Europe interdisait les algorithmes de classement sur les réseaux sociaux ? Ce scénario de fiction, de moins en moins fictif, oblige à repenser en profondeur ce que signifie « être visible » sur internet.
Cet article de prospective imagine les conséquences d’un tel scénario (pour l’instant fictif). Il peut sembler éloigné des sujets que l’on traite habituellement sur le blog de Badsender, et pourtant il me semble indispensable de parfois penser un peu plus loin que l’email. Peut-être que finalement, ces 20 dernières années étaient des anomalies et qu’avoir des réseaux décentralisés et ouverts pourrait redevenir la norme. Norme de laquelle l’email ne s’est jamais vraiment éloigné… malgré les tentatives de certains.
Quelles seraient les conséquences de ce changement radical pour l’écosystème de la communication numérique ? Est-ce que l’emailing a quelque chose à nous apprendre ? Quelles seraient les solutions émergentes et les changements de pratiques nécessaires ? Partons en voyage.
Le signal faible qui devient signal fort
En novembre 2025, le Parlement européen adoptait un rapport non législatif réclamant l’interdiction des algorithmes de recommandation basés sur l’engagement pour les mineurs. Infinite scrolling, autoplay, pull-to-refresh, reward loops : les eurodéputés votaient à 483 voix pour, 92 contre. Quelques semaines plus tard, le Commissaire aux droits humains du Conseil de l’Europe publiait une note appelant à « réguler les plateformes, pas les enfants », exigeant transparence algorithmique, audits indépendants et responsabilité structurelle, plutôt que des changement sur l’âge légal d’accès aux plateformes.
Cet article est en accès libre.
Il nous a demandé du temps et de l’expertise !
Ce mois-ci, merci à nos clients-sponsors : Actito, Puig France, Voyageurs du Monde, CMI France, Cegeka, BPI France, Citeo, FFT, Castor & Pollux, Clarins, Mews Group. Ils nous permettent de publier du contenu gratuit. Grâce à eux, Badsender remplit sa mission d’éduquer l’écosystème francophone de l’emailing et du CRM pour promouvoir un email responsable.
Avec plus de 10 000 lecteurs mensuels, si seulement 1% devenaient clients, nous continuerions cette mission encore longtemps ! Devenez client et bénéficiez de notre expertise tout en soutenant la production de connaissances ouvertes.
En Espagne, le Premier ministre Pedro Sanchez annonçait vouloir ériger la manipulation algorithmique en infraction pénale. En Australie, l’interdiction des réseaux sociaux pour les moins de 16 ans était entrée en vigueur en décembre 2025. En Allemagne, le SPD proposait une « version jeunes » des plateformes dépourvue d’algorithmes addictifs. En France, l’Assemblée nationale votait un projet de loi interdisant l’accès aux réseaux sociaux aux moins de 15 ans.
Ce n’est pas de la science-fiction. C’est l’actualité de ces derniers mois.
Projetons-nous maintenant un peu plus loin. Imaginons que la pression politique, sanitaire et citoyenne franchisse un seuil décisif. Imaginons que l’Union européenne, forte de son pouvoir d’influence réglementaire mondial, ce même pouvoir qui a imposé le RGPD à la planète entière, décide d’aller au bout de la logique : interdiction totale des algorithmes de classement des publications sur les réseaux sociaux. Retour au fil chronologique pur. Neutralité du classement de l’information.
Qu’est-ce que ça changerait ? Pour les plateformes ? Pour les marques ? Pour l’email ?
Spoiler : ça changerait absolument tout.
Pourquoi c’est plausible
Le chemin législatif existe déjà. Le Digital Services Act (DSA), applicable aux très grandes plateformes depuis août 2023 et pleinement en vigueur depuis février 2024, oblige ces dernières à évaluer les risques systémiques de leurs systèmes de recommandation, et à prendre des mesures « raisonnables, proportionnées et efficaces » pour les atténuer. Le Centre européen pour la transparence algorithmique (ECAT) fournit l’expertise scientifique et technique nécessaire à la supervision de ces algorithmes. Le Digital Fairness Act, en cours d’élaboration, va plus loin encore en ciblant les pratiques de design addictif et en renforçant la protection des consommateurs dans l’architecture même des services numériques.
La Commission Lancet Psychiatry a lancé en 2025 une initiative politique mondiale sur le « design addictif », appelant à des cadres réglementaires comparables à ceux encadrant le tabac ou les jeux d’argent. Une méta-analyse de 2022 estimait qu’environ 14% de la population mondiale présentait des signes d’addiction à internet, un chiffre en hausse constante et aggravé par la pandémie de COVID-19. Ces chiffres ne sont plus ignorés.
Les règlements européens ne laissent aucune marge de manœuvre aux États membres : c’est la même règle pour tout le monde, impossible de légiférer séparément. C’est précisément ce verrou qui explique que la bascule, si elle arrive, devra être européenne pour être effective. Et si elle est européenne, elle sera mondiale dans ses effets. La culture économique est américaine. L’innovation réglementaire est européenne.
À horizon 10-15 ans, selon l’évolution du contexte politique et les « accidents » qui ne manqueront pas de se produire (scandales sanitaires, crises démocratiques liées aux algorithmes, affaires judiciaires), ce scénario n’a rien d’absurde. Le RGPD aussi semblait « impossible » en 2008.
Le cadre fictif : qu’est-ce qui serait interdit, qu’est-ce qui resterait autorisé ?
Avant d’aller plus loin, précisons les contours de ce scénario fictif. C’est le cadre imaginaire dans lequel s’inscrit toute la réflexion qui suit.
Dans ce monde hypothétique, la législation européenne poserait un principe simple : le classement des publications sur les plateformes de réseaux sociaux doit être chronologique et neutre. Aucun algorithme ne peut décider qu’une publication sera plus visible qu’une autre sur la base de signaux d’engagement, de profils comportementaux ou d’intérêts déduits.
Ce qui serait interdit :
- Les algorithmes de recommandation basés sur l’engagement (likes, temps de visionnage, clics, commentaires)
- La personnalisation du fil d’actualité selon le profil comportemental de l’utilisateur
- L’amplification algorithmique de certains contenus au détriment d’autres
- Le tri automatique des publications par « pertinence » calculée par la plateforme
- Les systèmes de « boost » organiques liés aux métriques d’engagement
Ce qui resterait autorisé :
- La publicité payante clairement identifiée comme telle (distincte du flux organique)
- Les outils de catégorisation et de priorisation choisis manuellement par l’utilisateur
- Le filtrage anti-spam et anti-contenu illicite (avec des conditions strictes, voir plus bas)
- Les algorithmes de modération de contenus illégaux (haine, pédopornographie, terrorisme)
- Les moteurs de recherche internes aux plateformes (chercher un contenu spécifique reste possible)
Ce cadre fictif est volontairement radical, il s’agit d’une interdiction totale du classement algorithmique du flux. C’est ce choix de radicalité qui rend l’exercice intellectuellement intéressant : il force à penser toutes les conséquences. Dans la réalité il pourrait être plus souple en laissant le choix à l’utilisateur… mais ce serait moins marrant.
Phase 1 : La résistance des plateformes
La première réaction des plateformes serait prévisible : résistance juridique, lobbying intense, communication sur les « bienfaits » de la personnalisation. On entendrait des arguments sur la « liberté de choix » des utilisateurs, sur l’ »innovation » sacrifiée, sur la « compétitivité » européenne menacée. Elon Musk tweeterait quelque chose. Mark Zuckerberg enverrait des lobbyistes à Bruxelles.
Ce n’est d’ailleurs pas de la fiction : une enquête de Corporate Europe Observatory a documenté en février 2026 comment les géants du numérique se coalisent déjà pour torpiller le Digital Fairness Act, mobilisant lobbying agressif et alliés politiques.
Mais l’argument qui serait mis en avant avec le plus de vigueur, et le plus de mauvaise foi, serait celui de la liberté d’expression. Les plateformes présenteraient cette régulation comme une atteinte à la libre circulation des idées, un acte de censure déguisé, une façon pour les États de contrôler ce que les citoyens voient et lisent.
Cet argument est fallacieux, et il faut le dire clairement.
Ce que la réglementation interdirait, ce ne sont pas les expressions citoyennes. Chaque utilisateur resterait libre de publier ce qu’il souhaite (dans les limites du droit existant). Ce que la réglementation contraindrait, c’est la capacité des plateformes à décider elles-mêmes, de manière opaque et intéressée, quels contenus sont amplifiés au détriment des autres.
Aujourd’hui, un contenu qui génère de l’indignation sera algorithmiquement boosté parce qu’il génère de l’engagement. Un contenu nuancé, complexe, peu propice aux réactions épidermiques, sera invisibilisé.
Interdire cela, c’est précisément protéger la liberté d’expression réelle, celle de tous les contenus, des plus populaires aux plus confidentiels, dans un fil où chacun apparaît selon sa date de publication et non selon sa rentabilité publicitaire présumée.
Formulons-le autrement : aujourd’hui, la liberté d’expression sur les réseaux sociaux, c’est la liberté d’écrire dans un journal dont la direction éditoriale est un algorithme optimisé pour vendre de la publicité. L’interdire, c’est rendre le journal à ses auteurs et à ses lecteurs.
Bref, les plateformes défendent leur modèle économique, pas vos droits fondamentaux.
Mais soyons honnêtes sur ce que défendent ces plateformes. Un rapport d’Amnesty International et la Mission d’enquête des Nations Unies ont documenté comment l’algorithme de Facebook a promu la haine contre les Rohingyas en Birmanie, contribuant directement aux atrocités de 2017. AI Forensics a révélé des publicités politiques non modérées diffusées à grande échelle sur Meta. Une étude académique publiée fin 2025 dans la revue Science a montré que modifier le classement des publications pour réduire les contenus polarisants diminuait sensiblement l’hostilité partisane entre utilisateurs. Plus troublant encore : une étude publiée en février 2026 dans Nature a démontré que l’algorithme « Pour vous » de X déplaçait durablement les opinions politiques des utilisateurs, sans retour en arrière après désactivation.
Ce que les plateformes défendent, c’est leur modèle économique. L’algorithme n’est pas un service rendu à l’utilisateur. C’est un outil de maximisation du temps passé sur la plateforme pour vendre de la publicité ciblée. Rappelons-le à chaque fois qu’on entend parler de « expérience personnalisée ».
Phase 2 : Le modèle économique s’effondre (pour certains)
Vient ensuite la question fondamentale : sans algorithme d’engagement, les plateformes ont-elles encore un intérêt financier à investir en Europe ?
La réponse n’est pas la même pour toutes.
TikTok serait la grande victime. La plateforme est, dans son essence même, une construction algorithmique. Son algorithme de recommandation est son produit. Il analyse les micro-comportements (temps de visionnage, arrêts, replays) pour créer une boucle d’engagement. Sans cet algorithme, TikTok n’est qu’une succession chronologique de vidéos de gens inconnus. L’aspect addictif, qui est le modèle, disparaît avec la réglementation. Il est difficile d’imaginer TikTok trouver un modèle d’abonnement viable auprès d’utilisateurs dont l’engagement était précisément entretenu par la drogue algorithmique.
Instagram et Facebook (Meta) auraient les ressources pour pivoter, mais à quel coût ? Une partie de leur modèle repose encore sur les relations sociales réelles, famille, amis, qui survivraient à un fil chronologique. Mais l’économie de l’influence, les partenariats de marque, le reach organique boosté : tout cela s’effondre.
LinkedIn est un cas intéressant. La plateforme dispose d’une valeur professionnelle perçue indépendante de l’algorithme. Des millions d’utilisateurs paieraient probablement un abonnement modeste (5 à 10 euros par mois ?) pour conserver l’accès à un réseau professionnel mondial. LinkedIn pourrait survivre, et même y trouver une opportunité de se repositionner sur la qualité plutôt que le volume.
La troisième phase, après la résistance et les tentatives d’adaptation, serait pour plusieurs plateformes le renoncement au marché européen. Pas forcément une fermeture, mais une présence a minima, un désinvestissement progressif. Ce qui ouvrirait un espace considérable.
Ce scénario de retrait n’est d’ailleurs pas hypothétique : dès 2022, Meta avait explicitement menacé dans son rapport annuel de fermer Facebook et Instagram en Europe si les règles de transfert de données devenaient trop contraignantes. La menace n’a pas été exécutée, le marché européen est trop lucratif, mais elle révèle la logique des plateformes : le chantage au départ comme arme politique face à la régulation.
Phase 3 : Le fil chronologique crée un nouveau problème
Supposons que les réseaux survivent, en mode dégradé ou réformé. Un nouveau problème émerge immédiatement : le fil chronologique est ingérable à grande échelle.
Aujourd’hui, vous suivez peut-être 500, 1000, 2000 comptes. L’algorithme fait un tri brutal mais il vous évite la noyade. Sans lui, votre fil d’actualité devient un torrent ininterrompu où les publications de votre mère, d’un influenceur marketing et d’une marque de chaussures se succèdent sans hiérarchie.
Deux comportements émergeraient alors naturellement :
Le désabonnement massif. Une grande partie des comptes suivis ne l’étaient en réalité que parce que l’algorithme les poussait occasionnellement. Sans cette mise en avant artificielle, leur existence dans votre réseau devient visible, et inutile. On se désabonnerait en masse de comptes auxquels on ne pensait plus vraiment.
La catégorisation manuelle. Les plateformes seraient contraintes de créer leur propre système de priorisation. On peut imaginer plusieurs niveaux : Relations personnelles (personnes que je connais dans la vie réelle), Prioritaire (je veux être notifié de chaque publication), Important (je veux pouvoir retrouver leur contenu), Flux standard (je consulte si j’ai le temps).
Cela resemble drôlement à la logique d’une boîte email modernes, sauf que dans celles-ci la catégorisation n’est pas manuelle.
Cette logique de curation contrôlée par l’utilisateur a d’ailleurs déjà été explorée. Bluesky, le réseau social décentralisé construit sur le protocole AT, a déjà implémenté ce que sa fondatrice Jay Graber appelle un « marketplace d’algorithmes » : plutôt qu’un algorithme unique imposé à tous, les utilisateurs choisissent, installent et échangent des feeds créés par des développeurs tiers. À voir si ce cas d’usage resterait autorisé dans notre scénario fictif.
L’émergence des alternatives ouvertes. Et c’est ici que le scénario devient structurellement intéressant. Le désinvestissement des plateformes commerciales créerait un vide. Un vide que des alternatives déjà conformes à cette réglementation, parce que construites sans algorithme de classement, pourraient occuper. Le Fediverse avec Mastodon en tête, mais aussi PeerTube pour la vidéo, Pixelfed pour la photo ou de nombreux réseaux spécialisés, fonctionnent par défaut sur un fil chronologique. Ils n’ont pas d’algorithme d’engagement à supprimer, parce qu’ils n’en ont jamais eu.
Ce déplacement d’usage ne serait pas sans difficulté. La grande majorité des instances Mastodon sont gérées par des bénévoles ou des associations, avec des ressources très limitées. Une montée en charge soudaine de millions d’utilisateurs européens fuyant les plateformes commerciales serait un défi considérable de gouvernance et d’infrastructure. Mais le vide réglementaire et commercial créé par la fuite des grandes plateformes serait précisément la condition d’une masse critique que le Fediverse n’a jamais réussi à atteindre seul.
L’email aurait-il tout compris avant tout le monde ?
Google a lancé les onglets Gmail (Principale, Réseaux sociaux, Promotions) en 2013. La Priority Inbox existait depuis 2010. La fonctionnalité « Manage subscriptions », déployée en 2025, qui permet de visualiser d’un coup toutes ses inscriptions et de s’en désabonner facilement, est une réponse directe au problème de la surcharge de contenu.
Ce que Google a résolu pour l’email, les réseaux sociaux seraient contraints de le résoudre pour leurs flux : non pas par un algorithme opaque qui décide à votre place, mais par des outils de gestion manuelle qui remettent l’utilisateur aux commandes.
Mais soyons précis sur un point que l’industrie de l’email connaît bien : Gmail ne fait pas que « trier » les emails de façon neutre. Ce sont des algorithmes qui décident si votre email atterrit en boîte Principale, en onglet Promotions, en onglet Réseaux sociaux ou en spam. Ce n’est pas l’utilisateur qui prend cette décision, c’est Google, sur la base de signaux d’engagement, d’analyse de contenu et de réputation d’expéditeur. La délivrabilité email est précisément l’art de comprendre et de naviguer dans ces décisions algorithmiques opaques.
Et la situation s’est aggravée. Depuis septembre 2025, l’onglet Promotions de Gmail trie les emails marketing par « pertinence » plutôt que par date. Un email envoyé à 100 000 abonnés n’apparaît plus dans le même ordre pour tout le monde, Gmail décide qui voit quoi en premier, exactement comme un fil social.
Dans le scénario d’interdiction des algorithmes de classement, ces fonctionnalités devraient-elles être concernées ?
La réponse est oui, partiellement. Le tri promo/principale pose un problème évident de neutralité : une marque qui a obtenu votre consentement et respecté toutes les règles de délivrabilité ne devrait pas voir sa visibilité dépendre d’une décision opaque d’un algorithme Google. En revanche, le filtrage anti-spam est une protection légitime contre les communications non sollicitées, il ne classe pas des contenus consentis, il bloque des intrusions.
La frontière est là : algorithme de classement de contenus consentis = problème de neutralité. Algorithme de protection contre les contenus non consentis = service rendu à l’utilisateur.
Cette exception anti-spam n’est cependant pas sans complexité. Une législation qui interdirait les algos de classement tout en maintenant une exception pour l’anti-spam devrait définir des critères de transparence stricts sur le fonctionnement de ces filtres.
Or, cette transparence serait immédiatement exploitée par les spammeurs pour contourner les filtres. C’est le paradoxe fondamental de la délivrabilité : les filtres anti-spam fonctionnent en partie parce qu’ils sont opaques. Toute obligation de transparence totale serait un cadeau fait aux acteurs malveillants. La législation devrait donc distinguer finement entre transparence des critères généraux (acceptable) et divulgation des paramètres techniques précis (dangereux).
Ce que ça changerait pour les marques
Soyons directs : une grande partie des stratégies social media actuelles repose sur la manipulation algorithmique.
Vous connaissez les tactiques. « Écris KIKOULOL en commentaire pour recevoir mon livre blanc sur l’IA. » Les carrousels LinkedIn conçus pour maximiser le swipe rate. Les vidéos courtes pensées pour les 3 premières secondes de rétention. Les threads Twitter/X construits comme des cliffhangers.
Tout ça, c’est de l’optimisation pour un système qui décide à la place des utilisateurs ce qu’ils veulent voir. Ce n’est pas du marketing. C’est de la manipulation d’algorithme.
Sans algo, le nombre de followers, le niveau d’interaction artificielle et la puissance financière ne suffiraient plus à être visible. Les marques seraient renvoyées à une question fondamentale qu’elles évitent depuis des années : est-ce que mon contenu a une valeur intrinsèque pour mes audiences ?
La publicité payante resterait possible sur les plateformes commerciales qui subsisteraient, c’est différent de l’algorithme de classement organique. Mais sur les réseaux ouverts (type Fediverse, Mastodon), il ne resterait que trois leviers : la qualité éditoriale, le repartage par des comptes engagés, et l’espoir d’être « catégorisé » comme prioritaire par suffisamment d’utilisateurs.
La trinité souveraine : Email, Fediverse, Matrix
Dans ce monde post-algo, une nouvelle architecture de communication de marque émergerait autour de trois technologies décentralisées et ouvertes :
L’email, le canal de l’abonnement fort. L’email est un réseau décentralisé depuis plus de 40 ans. Vous possédez votre liste. Personne ne peut vous la retirer. Vous pouvez changer d’hébergement. Et (presque) personne ne décide de la visibilité de vos envois sans votre consentement (hors anti-spam). Dans un monde sans algorithme de classement sur les réseaux, l’email accentue encore sa position. Une évolution déjà à l’œuvre depuis quelques année avec toujours plus de newsletters éditoriales : des contenus longs, structurés, attendus, qui arrivent directement dans la boîte de l’abonné qui a choisi de vous suivre.
Le Fediverse, le flux social souverain. Mastodon, mais pas uniquement. Le Fediverse est un écosystème de serveurs interconnectés qui peuvent héberger du texte, de la vidéo, de l’image, de l’audio (podcasts), des articles de blog. Une marque peut monter son propre serveur Mastodon sans payer de redevance à personne, sans être soumise aux changements d’algorithme d’une plateforme tierce. Une fois sa communauté constituée sur le Fediverse, elle lui appartient vraiment. L’inconvénient par contre est qu’il faut que le Fediverse atteigne une masse critique. Mais si l’Europe crée les conditions réglementaires qui fragilisent les grandes plateformes, cette masse critique pourrait être atteinte… faute d’alternative conforme à la législation.
À lire, cet article d’Isabelle Mathieu (Emarketinglicious) sur l’intérêt du Fediverse pour les marques.
Matrix, la communauté de discussion. Matrix est le protocole décentralisé des messageries instantannées. Pour les marques, c’est l’équivalent souverain des groupes WhatsApp ou du social selling : discussions en direct avec des prospects ou clients, communautés de marque, support. Sans payer de redevance à Meta. Sans que vos données de conversation appartiennent à un tiers américain. Là encore, il faut atteindre une masse critique pour faire basculer le plus grand nombre.
💡Ce que l’email, le Fediverse et Matrix ont en commun : vos abonnés vous appartiennent
Ces trois technologies partagent une propriété fondamentale que les réseaux sociaux centralisés ont progressivement effacée : les abonnés appartiennent à la marque, pas à la plateforme.
Sur Instagram, vos 50 000 abonnés ne vous appartiennent pas. Meta peut fermer votre compte, changer ses conditions, modifier son algorithme, et vous vous retrouvez à zéro. Sur une liste email, sur votre serveur Mastodon, sur votre instance Matrix : vos abonnés sont les vôtres. Vous pouvez exporter vos données. Vous pouvez migrer vers un autre prestataire. Vous pouvez même héberger vous-même votre infrastructure, sans dépendre technologiquement de qui que ce soit.
C’est une indépendance non seulement éditoriale, mais technologique. Monter son propre serveur Mastodon ou Matrix ne requiert ni autorisation, ni contrat, ni redevance. Le code est open source. L’infrastructure vous appartient. Et si votre hébergeur ferme, vos données, vos abonnés et votre historique peuvent migrer ailleurs.
C’est exactement ce que les réseaux sociaux centralisés vous ont appris à ne plus exiger. Il est temps de s’en souvenir.
Le changement fondamental ? Les marques redeviendraient responsables de créer leur communauté, sans filet algorithmique. Plus de dépendance technologique à un opérateur de réseau social qui peut changer ses règles du jeu du jour au lendemain. La communauté construite sur ces canaux souverains serait stable, durable, et propriété de la marque.
Les vrais perdants : les plateformes elles-mêmes
Il serait tentant de plaindre les influenceurs, les agences social media ou les créateurs de contenu. Mais le grand perdant de ce scénario, c’est une entité beaucoup plus puissante : les plateformes elles-mêmes.
Aujourd’hui, Meta, TikTok, X, Google détiennent un double pouvoir considérable. Sur les marques d’abord : elles leur louent l’accès à leurs audiences, en changeant les règles tarifaires quand bon leur semble. Sur les citoyens ensuite : elles façonnent l’opinion publique, amplifient certains contenus au détriment d’autres, et contribuent, comme l’a documenté AI Forensics dans ses enquêtes sur les élections européennes, à des phénomènes de manipulation politique à grande échelle.
La disparition des algorithmes de classement, c’est la fin de ce double pouvoir. Les marques ne leur seraient plus captives. Et l’opinion publique ne serait plus mise en scène par des systèmes opaques optimisés pour l’engagement émotionnel.
Pour les influenceurs et créateurs de contenu, le tableau est plus nuancé. Ceux dont l’audience reposait sur l’amplification artificielle d’un buzz ponctuel seraient effectivement fragilisés. Mais ceux qui ont construit une vraie relation éditoriale avec leur communauté y gagneraient : une fois leur audience constituée sur des canaux souverains, ils ne seraient plus soumis aux caprices algorithmiques. La stabilité contre la dépendance.
Une remise à zéro des compteurs
Le contre-argument classique : sans algorithme, seuls les comptes déjà établis bénéficieraient d’une audience, rendant plus difficile l’émergence de nouveaux acteurs.
C’est en partie vrai. Mais c’est en partie déjà le cas aujourd’hui, les algorithmes d’engagement favorisent massivement les contenus qui génèrent déjà des réactions, créant leurs propres effets de concentration.
Dans un monde sans algos, ce serait d’abord une remise à zéro des compteurs. Les meilleurs contenus, ceux qui créent de la valeur réelle pour leurs lecteurs, construiraient les communautés les plus engagées. Le repartage humain et la catégorisation manuelle (« je mets ce compte en prioritaire ») seraient les nouveaux vecteurs d’émergence. Il suffirait que quelques comptes très suivis partagent sincèrement une publication pour qu’un nouvel acteur émerge aussi vite qu’aujourd’hui, mais par la curation, pas par la manipulation d’algorithme.
C’est un monde où la qualité reprend ses droits. Pas parfait. Mais honnête.
Conclusion
Cet article ne dit pas que l’interdiction des algorithmes de classement arrivera. Il dit qu’elle est de moins en moins improbable, que le chemin législatif existe, et que l’Europe a la capacité politique de l’emprunter si les circonstances l’y poussent.
Il dit aussi quelque chose de plus inconfortable pour l’industrie marketing : une grande partie de nos pratiques ne survivrait pas à ce monde. Le growth hacking, l’optimisation pour l’engagement artificiel, la dépendance aux plateformes comme unique canal de visibilité : tout cela reposerait sur du sable.
Les professionnels du marketing qui ont investi dans la qualité éditoriale, dans la construction de listes email engagées, dans la relation directe avec leurs audiences plutôt que dans la manipulation de métriques algorithmiques : eux, ils sont déjà prêts.
Laisser un commentaire