Étude de Cas #3

Au fil des ans, nous avons géré la réputation en ligne d’un grand nombre de cadres supérieurs. Et ce dans des domaines très différents, allant de la technologie, les start-up, l’édition, le BTP, la culture, la politique, le droit, etc. Mais la population la plus présente reste… le cadre supérieur dans la finance. Cette étude de cas porte sur l’un de ceux dont les problèmes comprenaient des articles dans La Tribune, Le Parisien et Le Point. Les noms et les circonstances ont été modifiés dans une certaine mesure pour protéger l’identité de notre client.

Industrie

Services financiers

Entité

Individu pouvant nuire à le-reputation de l'entreprise

Problème

articles de presse en ligne

Technique

Mixte. Dilution, suppression, protection

Durée

8 mois (changements dès 90 jours)

affaire

Enjeux

Notre client est un membre bien connu de la communauté financière de la place de Paris qui envisageait de se porter candidat à des fonctions politiques. En raison de la notoriété de ses clients, il était connu par les journalistes et les blogueurs et parfois même la cible d’associations. Il a été très impliqué dans les opérations de la société de services financiers dans laquelle il travaillait. Résultat : un journaliste d’investigation a écrit une enquête négative. Pour empirer les choses, l’attention des grands médias a été exacerbée par des blogueurs et d’autres personnes cherchant à nuire à sa réputation en ligne en affichant des avis négatifs concernant l’entreprise à laquelle il appartient…

Recherche & Benchmark

Notre première étape a été de faire des recherches auprès de notre client et d’autres personnes semblables. Nous avons développé pour lui un personnage qui comprenait un exemple de résultats de recherche « idéaux ». Nous lui avons demandé ce qu’une personne comme lui devrait avoir pour la représentation en ligne, puis nous avons comparé les résultats avec son profil de recherche actuel. Nous avons ensuite regardé ses pages à problèmes comme Le Parisien, Le Point et La Tribune. Aucun de ces articles ne peut normalement être supprimé à la source (de nombreuses publications le peuvent) s’il respecte la loi – dont le droit à l’information. Des options juridiques ont été envisagées, mais ont été jugées coûteuses et peu susceptibles de réussir. Comme les pages ne pouvaient être supprimées à la source par le biais de relations, de négociations ou de pressions juridiques, nous nous sommes penchés sur le retrait des pages des résultats de recherche.

Dans certains cas, les moteurs de recherche suppriment les résultats de recherche des résultats. Mais le contenu des pages ne correspondait pas aux critères de suppression des moteurs de recherche. Nous avons donc opté pour une campagne en trois étapes :

1

Dilution et contre-feux ;​

2

Suppression des résultats négatifs

3

Protection contre les éventuels problèmes futurs

Stratégie

Après avoir réalisé des recherches approfondies sur notre client et comparé son profil de recherche avec ceux de personnes similaires, nous avons découvert des lacunes dans les types de profils en ligne que les gens et les moteurs de recherche trouvent pertinents. Cela nous a permis d’offrir des possibilités de contenu et de développement technique qui pourraient aider notre client.

Nous avons également constaté que notre client, alors qu’il est connu dans sa profession, n’a pas bénéficié d’un « knowledge Graph »dans les résultats de recherche. Sous ce terme barbare se cache ce fameux encart en haut à droite des résultats de recherches. Il rassemble les connaissances pertinentes tirées de divers sites Web. Il occupe environ 40 % de l’espace en haut des résultats de recherche normaux. Nous savions qu’en se concentrant sur le knowledge Graph, on obtiendrait à la fois un contenu dilutif pour les résultats de recherche, une page Wikipedia et le contenu qui supporte une page Wikipedia. Cette approche est devenue le point de départ de la campagne de notoriété.

Résultats de l'ingénierie inverse

Pour obtenir l’affichage d’un Knowledge graph, on doit créer quelques informations. Les Knowledge Graph tirent une grande partie de ces dernières de Wikipedia et des métadonnées conservées comme WikiData, Virtual International Authority File, WikiNews et autres. Nous avons procédé à l’ingénierie inverse des knowledge graphs de personnes similaires et élaboré un plan de contenu, de publication et de développement basé sur les éléments constitutifs du graphique.

résultat

Exécution

Notoriété d’ingénierie

Une personne d’envergure peut généralement gagner une page Wikipédia si elle est connue, dispose d’un certain degré de notoriété et si elle dispose de réalisations qui peuvent être vérifiées par des références en ligne. Sans remplir ces critères draconiens, la page Wikipédia est immédiatement effacées par un robot. Notre client était bien connu. Pourtant, il n’avait pas tout à fait le niveau de notoriété documenté que nous estimions nécessaire pour obtenir une participation à Wikipédia. Nous en avons donc créé.

Presse

Nous avons sélectionné un média cible. Mais avant que le journaliste puisse être approché, notre client avait besoin d’une histoire suffisamment alléchante pour le séduire. Nous avons travaillé avec notre client pour créer une histoire et un communiqué de presse l’accompagnant. Nous l’avons ensuite lancé, obtenu des reprises sur les médias sociaux et fourni le communiqué de presse comme noyau nécessaire pour une histoire que nous avions construite pour le journaliste ciblé. L’auteur a écrit l’histoire selon les directives journalistiques du média et l’a publiée. Nous avons ensuite organisé le développement de quelques autres articles sur des sites tiers. En peu de temps, nous avons eu assez de matériel de référence pour créer la page Wikipédia.

wikipedia

Wikipédia

Nous avons travaillé avec un auteur de Wikipedia pour développer un profil de base, honnête et pertinent en utilisant du contenu existant et récemment créé par des tiers comme matériel de référence. Les pages wiki sont publiquement éditables et doivent toujours être créées en gardant cela à l’esprit, ainsi que les normes les plus élevées. Tout le contenu doit être vérifiable et vérifié. Nous avons réussi à créer une page Wikipédia, un contenu d’image Wiki Commons et plus encore.

Progrès réalisés

Avec la publication de l’article dans le journal en ligne et d’autres articles, la page Wikipedia et les images en ligne, les résultats de recherche ont commencé à changer. Nous avons ensuite renforcé ses profils sociaux sur LinkedIn, Facebook et Twitter. À ce stade, le knowledge graph n’avait pas encore fait ses débuts. Nous avons revisité Wikipédia, lié les propriétés web nouvelles et existantes, la presse et les médias sociaux, puis nous avons créé des métadonnées.

structure

Métadonnées

Les métadonnées sont des données qui décrivent d’autres données. Il résume l’information sur les données et permet aux moteurs de recherche de vérifier plus facilement la bonne information à inclure à de nombreux endroits. Nous avons commencé à implémenter des métadonnées dans les sites Web que nous avons créés pour nos clients afin que les informations qu’ils contiennent soient indexées plus efficacement par les moteurs de recherche. Nous avons également travaillé avec des sites Web moins connus, mais essentiels au fonctionnement des moteurs de recherche. Des sites précieux car ils décrivent les relations entre les données. Nous avons utilisé ces sites pour dessiner des cartes routières entre la page Wikipedia et d’autres données pertinentes pour nos clients. Google a suivi les signaux que nous avions préparés. Voilà, comment le knowledge graph est apparu !

Amélioration : Quatre mois

Metro, Le Point et Le Parisien avaient à ce stade baissé sur la première page des résultats de recherche. Ils avaient été remplacés par l’article du quotidien, Wikipedia, la page de direction de la société mère, une barre d’images représentant des images que nous avions placées sur divers sites de notre client, et plus encore. Mais les résultats négatifs, bien que beaucoup moins visibles, demeuraient sur la page. Le Point a vacillé entre la première et la deuxième page au fil du temps. En travaillant à la création du kowledge graph, nous avons créé tout un écosystème de contenu pertinent qui a été conçu pour réussir.

analyse

Deuxième phase

Les profils des médias sociaux restaient ancrés à la page deux. Nous avons donc redoublé d’efforts pour attirer des adeptes, rafraîchir le contenu et accroître la pertinence générale. En quelques mois, ces sites ont gagné du terrain, Facebook et LinkedIn sont apparus avec succès sur la première page des résultats de recherche et y sont restés. Metro avait été banni à la page trois et continuait de baisser. L’article du Parisien a été relégué au bas de la première page, et Le Point s’est estompé entre la première et la deuxième page.

Conclusion

Metro supprimé

Le Point supprimé

Le Parisien a réduit
la visibilité de 90 %

Knowledge Graph

Page Wikipédia

Le client contrôle maintenant directement 70% des 20 premiers résultats. 40% de la première page.  Trois sites extrêmement difficiles à déplacer ont été dilués, puis poussés vers le bas. Le graphique de connaissances très visible a été développé et domine maintenant les résultats de recherche. Les résultats de la recherche touchant la société mère sont tout à fait clairs, bien que certains problèmes persistent avec l’un des résultats négatifs.

D’autres personnes ont ajouté et édité la page Wikipedia qui est stable dans la position numéro deux juste en dessous de la page officielle de l’entreprise. Le profil LinkedIn du client se trouve sous la page Wikipedia suivie de nouveaux articles qui ont depuis remplacé l’article original du quotidien. Les résultats négatifs qui ont été vus à l’origine par 100 % des internautes sont maintenant vus par environ 5 % d’entre eux.

Le client est très satisfait des résultats et comprend que l’élimination totale de sites comme sur Le Parisien prendrait une autre année de développement.