Les modes d’utilisation des données de marché se multiplient

le 16/12/2010 L'AGEFI Hebdo

Brique essentielle des activités financières, elles sont l’objet d’une rude bataille entre fournisseurs et utilisateurs.

La gestion des données de marché représente un budget minimum de 100 millions d’euros annuels au sein des grands groupes bancaires », évalue Charles Gastellu, responsable des données de marché de Crédit Agricole CIB et président du Cossiom (Commission des services et systèmes d’information destinés aux opérateurs de marché), un organisme qui se spécialise sur cette problématique. Le coût est de l’ordre de 25.000 euros par an et par poste de travail, mais c’est évidemment une moyenne, les traders ayant des besoins plus importants que les professionnels officiant en middle ou en back-office.

« La gestion des données de marché est davantage une problématique fonctionnelle que technique, résume Charles Gastellu. La technologie a simplifié l’accès aux données, l’information est redevenue importante. » Solutions en ligne, développements de connecteurs bien maîtrisés…, alimenter des systèmes d’information avec des données de marché n’est plus vraiment un problème technique effectivement, « même s’il faut adapter les formats des données aux logiciels, ce qui demande du paramétrage, donc du temps homme », relativise Charles Gastellu. Corollaire de ces avancées technologiques, l’explosion des besoins : conformité réglementaire, analyse des risques, multiplication des plates-formes de trading électroniques, analyse en temps réel toujours plus fine, valorisation de produits de gré à gré…, les utilisations se multiplient, tout comme les sources primaires. Un établissement financier de taille moyenne compte une centaine de fournisseurs de données, que ce soit les incontournables Bloomberg ou Thomson Reuters, ses différents courtiers, les multiples places sur lesquelles ses équipes traitent, les acteurs de niche pour l’évaluation de certains produits… « Les volumes et les consommations ne vont qu’en augmentant, alertait Antoine Meyers, market data category manager chez BNP Paribas Fortis, lors d’un colloque consacré à la gestion des données de marché en juin dernier. Avec la crise, la volatilité des marchés a exacerbé le phénomène : pour un même produit, trois sources différentes peuvent donner trois prix différents, ce qui implique des traitements supplémentaires pour savoir quelles données utiliser. » Et dans le même temps, les coûts explosent. « Les prix des données ont augmenté, notamment pour la récupération des flux, constate Séverine Carnot, responsable du Pôle Nexeo Financial Data. Il y a dix ans, on pouvait télécharger des données, les stocker afin de les réutiliser pour différents calculs. Désormais, les fournisseurs de données font payer des flux. » Et ces flux ne peuvent souvent servir que pour une seule application, renchérissant d’autant la facture.

Evaluer plus finement les besoins

Tous les établissements financiers de taille significative ont mis au point un processus de « golden copy » pour mettre en cohérence les données issues de différentes sources et enrichir celles qui doivent l’être. Les principaux outils comme ceux de Sungard, Asset Control ou Golden Source sont utilisés dans tous les grands groupes. « Ce sont des technologies assez lourdes à mettre en place, qui ont nécessité de nombreux paramétrages des règles de gestion pour répondre aux différentes questions : qu’est-ce qu’une bonne donnée, pourquoi est-elle bonne ? », souligne Charles Gastellu. Des outils indispensables car « les grands fournisseurs de données comme Thomson Reuters, Bloomberg, Markit ou Telekurs ne proposent pas directement ce type de solutions, poursuit le responsable des données de marché de Crédit Agricole CIB. Ils effectuent des contrôles en amont mais ne garantissent pas la qualité des données ». Cependant, pour Séverine Carnot, la « golden copy » n’existe pas réellement : « Les données qualifiées ne sont pas disponibles avant 10h, les marchés sont ouverts, les gérants ont déjà commencé à traiter et les données de marché ont forcément évolué », constate-t-elle. Selon elle, c’est le coût du dispositif qui serait en cause : « Un référentiel nécessite un profil technique qui vérifie l’arrivée des flux et un profil technique qui valide la qualité des données. Ces postes doivent être doublés pour des raisons de vacances ou d’indisponibilité comme la maladie, ce qui complexifie le dispositif. »

Aussi, ce poste budgétaire en constante expansion doit désormais être optimisé. Là encore, les grands établissements bancaires sont équipés de solutions logicielles, telles MDSL ou Infomatch, permettant de faire l’inventaire pour savoir qui utilise quoi et pourquoi. Crédit Agricole CIB, par exemple, a déployé Infomatch au niveau mondial il y a deux ans et demi. En outre, dans un souci d’économie, la banque d’investissement a remplacé Informa, fournisseur de commentaires de marché, par IFR au printemps dernier. Par ailleurs, un projet est en cours pour réduire le nombre de collaborateurs ayant à la fois un écran Bloomberg et un écran Reuters. « Nous voulons redéfinir précisément les besoins, confirme Charles Gastellu. Avant 2007, quand quelqu’un demandait un flux de données, il l’obtenait. Nous essayons désormais de réduire le nombre d’outils par utilisateur. »

Conflits avec les fournisseurs

Mais diminuer les coûts de structure ne suffit apparemment pas. Les établissements financiers doivent affronter les fournisseurs « qui sont en situation de monopole et en profitent pour gonfler les prix, tout en durcissant les conditions d’utilisation », souligne Séverine Carnot. L’agence de notation Standard & Poor’s, par exemple, veut taxer le code Isin qui est pourtant une norme internationale mais dont elle opère une partie en propre. Le Cossiom, entre autres, a porté plainte il y a 18 mois auprès de la Commission européenne. « Quant aux courtiers, ils veulent désormais faire payer leurs données, indique le président du Cossiom. Or nous nous y opposons car nous leur fournissons nos prix et eux génèrent le flux d’information. Aussi à qui appartient-elle ? » Son équivalent en Grande-Bretagne a fait plier le fournisseur du FTSE qui, il y a quatre mois, avait changé son modèle de prix pour la revente de son indice, entraînant une très forte hausse. Le sujet est devenu un enjeu important pour les plates-formes boursières, fortement concurrencées sur leurs activités de négociation. Ainsi, le London Stock Exchange réalise 27 % de son chiffre d’affaires dans la vente de données. Aussi le Cossiom a-t-il initié le projet Niagara, soutenu par de grandes banques comme UBS, Société Générale, BNP Paribas ou encore Crédit Agricole. Le portail Niagara a pour ambition de recenser, pour toutes les Bourses du monde, l’ensemble de leurs règles de gestion et de facturation de leurs données de marché, pouvant être sujettes à interprétation.

A lire aussi