Des applications dédiées aux réseaux sociaux pour mieux se positionner

le 23/02/2012 L'AGEFI Hebdo

Ces logiciels permettent aux banques d’effectuer une veille sur leur e-reputation avec l’objectif de disposer d’une analyse en temps réel.

Le volume des données informatiques dans le monde devrait être multiplié par 44 durant cette décennie, d’après le cabinet d’études IDC (International Data Corporation). Une des caractérisiques du « déluge des données », qui n’épargne pas l’industrie financière, est l’explosion des données dites « non structurées » : les conversations téléphoniques enregistrées, les e-mails, mais aussi les discussions sur internet via les blogs, les forums ou encore les réseaux sociaux. Pour maîtriser leur image, les entreprises en général, et les institutions financières en particulier, se sont lancées dans une course à l’information afin de récupérer les données « non structurées » circulant à leur sujet, d’en analyser la tonalité et d’y réagir le plus vite possible. L’appel d’Eric Cantona à retirer les dépôts bancaires, en octobre 2010 ou, plus récemment, la perte du triple A français sont des événements susceptibles de générer des réactions en masse de la part des internautes, qu’il est nécessaire de pouvoir mesurer promptement. « Depuis la crise de 2008, les banques font l’objet de nombreuses critiques du grand public, rappelle Christophe Asselin, manager chez l’éditeur de logiciels Digimind. Elles souhaitent assurer une veille efficace sur leur e-réputation, qu’elle concerne leur éthique, leurs dirigeants, leurs tarifs, ou encore leur positionnement par rapport aux concurrents. »

Le groupe Crédit Agricole a adopté ce logiciel il y a trois ans afin d’industrialiser sa veille sur internet. « La plate-forme est aujourd’hui utilisée dans la plupart des entités du groupe, de manière décentralisée », témoigne Gilles Bonabeau, responsable information et veille chez Crédit Agricole SA. Environ 80 cadres dans le groupe se servent de cet outil en mode collaboratif, à temps partiel pour la plupart (une demi-heure à une heure par jour). Deux responsables animent la plate-forme en central, à l’aide d’un outil intranet dédié. Au total, plus de 2.000 sources d’information sur internet sont décryptées tous les jours. « Digimind agit comme une base de données intelligente, qui sélectionne l’information en fonction de critères définis en amont », explique Gilles Bonabeau.

100 millions de pages web par jour

En pratique, l’application Digimind permet de collecter, sur diverses sources web dont les réseaux sociaux, les données concernant un secteur ou une entreprise, de les classer, de les analyser et de représenter les résultats sous forme graphique. Créé en 1998 par des étudiants, l’éditeur de logiciels dispose aujourd’hui d’un centre de recherche et développement à Grenoble et de bureaux à Paris, Rabat et Boston, employant au total près d’une centaine de personnes. Hébergée par la société elle-même sur des serveurs dédiés, la plate-forme exploite une base de 380.000 sources, en partenariat avec des acteurs comme Thomson Reuters. Des processeurs dépassant les 1.500 gigahertz traitent chaque jour plus de 100 millions de pages web pour le compte des clients de Digimind. La haute disponibilité des serveurs est assurée par la distribution de charge et la virtualisation. « Environ 45 téraoctets de données sont capitalisés chaque année, dont environ 7 téraoctets intéressent plus particulièrement les établissements financiers », souligne Mohammed El Haddar, directeur de la R&D (recherche et développement). L’offre de Digimind s’adresse, de facto, en priorité aux grands comptes. En fonction du degré de paramétrage et des fonctionnalités choisies, le prix annuel de l’abonnement va de 15.000 à plus de 200.000 euros. En France, les banques Crédit Agricole et Société Générale font partie des clients, mais aussi les principaux opérateurs mobiles, ou encore Microsoft.

Chez Crédit Agricole, les thèmes majeurs étudiés couvrent la concurrence sur les métiers, les tendances du secteur, la réputation ou encore les évolutions réglementaires. Dans les réseaux sociaux, c’est principalement la perception de la réputation et de la marque qui est décryptée. Quatre sites majeurs se distinguent par leur fréquentation : Facebook (20 millions d’utilisateurs fin 2010), Viadeo (4 millions), LinkedIn (2 millions) et Twitter (225.000).

La mise en place du module « réseaux sociaux » dans la banque verte a pris plus de trois mois. « Nous avons d’abord défini les thèmes de veille, le champ lexical et les sources d’information, précise Fabien Denais, chef de projet internet/e-reputation chez Crédit Agricole SA. Puis nous avons élaboré un plan de classement des informations et des graphiques types. Enfin, nous avons mis en place et automatisé une newsletter. » L’équipe continue à ajuster l’outil en continu, pour prendre en compte les nouvelles sources d’information et améliorer le champ lexical. Des exercices de gestion de crise ont aussi été menés.

Intervention humaine

En l’état actuel des technologies, l’industrialisation de la veille a toutefois ses limites. Ainsi Axa, qui a changé de prestataire en décembre, a décidé de renforcer l’intervention humaine dans le tri des données. « Certaines tonalités, comme l’ironie, étaient mal comprises par la machine », relate Marie-Christine Fontaine, social media manager chez Axa France. Selon la nouvelle procédure, le logiciel utilisé par la compagnie d’assurances propose une tonalité et une classification pour chaque nouvelle information, et c’est à l’utilisateur de valider ou d’infirmer cette affectation.

Pour 2012, l’assureur s’est donné pour priorité de réduire les temps d’actualisation, « voire d’atteindre le temps réel », confie Marie-Christine Fontaine. Objectif : pouvoir repérer le plus vite possible toute information erronée ou toute réclamation de client qui circulerait sur les réseaux sociaux, et ainsi gagner en réactivité sur leur traitement. « On peut jouer sur ce maillon de la chaîne », constate Marie Fontaine. Autre ambition : partager l’outil informatique entre toutes les personnes dans l’organisation ayant un intérêt à observer ce qui se dit dans les réseaux sociaux : CRM (gestion de la relation client), marketing, service qualité, etc.

Quant aux éditeurs de logiciels tels Digimind, AMI Software, Spotter ou Attensity (lire l’entretien), grâce à des investissements complémentaires en technologie et à des algorithmes plus poussés, ils tendent à accroître le volume de données traitées afin de rendre les analyses encore plus pertinentes. « Il y a un seuil minimal à atteindre pour obtenir des graphiques significatifs : de l’ordre de centaines de milliers de données », expose Christophe Asselin. En ligne de mire, l’analyse prédictive, qui « se pratique depuis longtemps dans d’autres secteurs ». Il s’agirait par exemple de détecter des nouvelles tendances de consommation à partir des citations des internautes.

A lire aussi