Le projet européen Leads veut réconcilier les PME et le big data

Le web s'enrichit chaque jour d'une masse importante de données équivalente à 8 fois le catalogue total des bibliothèques américaines. Ainsi par exemple 35 heures de vidéos sont chargées sur YouTube à chaque minute. Mais pour pouvoir tirer profit de ces données, les PME doivent faire face à des coûts très élevés, car extraire et traiter ces informations nécessite de gigantesques capacités de stockage et de calcul.

Pour résoudre ce problème, le projet européen LEADS a été mis en place. Il est consacré à la gestion de grandes quantités de données du web à l'intention des petites et moyennes entreprises. Doté d'un budget total de 4,25 millions d'euros pour une durée de trois ans, il regroupe quatre universités et trois entreprises réparties sur 5 pays. Il est coordonné par l'Université de Neuchâtel depuis début octobre sous la responsabilité d'Etienne Rivière, maître-assistant à l'Institut d'informatique de l'Université de Neuchâtel (IIUN) au sein de l'équipe du Professeur Pascal Felber. Pour ce projet, l'IIUN touchera une subvention européenne de près de 750 000 euros.

Développement du chiffrement des données et fédération de micro-cloud

Inscrit dans l'esprit du cloud, la force de ce projet réside, selon le communiqué de l'Université de Neuchâtel, « dans sa capacité à assurer la confidentialité des données privées. Encryptées par une clé qui n'est pas connue de l'infrastructure LEADS, ces données pourront être soumises à des traitements et requêtes, qui sont eux-mêmes chiffrés.» Selon Etienne Rivière, « cet aspect est particulièrement novateur, car il met en oeuvre des techniques de cryptage qui n'ont été proposées que récemment ou qui seront développées au sein du projet. Ceci concerne typiquement des comparaisons, des tris, ou des extractions, qui constituent l'essence des opérations de traitement de grandes masses de données.»

En outre, le projet LEADS favorisera la fédération de micro-clouds distribués géographiquement pour que les opérations se déroulent dans des lieux proches des clients ou de la source des données. L'objectif est d'éviter d'effectuer un traitement dans la partie francophone du web et de stocker les données au Brésil par exemple, comme l'explique Etienne Rivière : «Ceci générerait d'énormes flux de données transatlantiques et très peu de connexions depuis l'Amérique latine. Situer ce même stockage dans une région à forte densité francophone serait nettement plus avantageux.» Les chercheurs de l'équipe du Professeur Felber vont donc étudier la prise en compte de la localité des accès et des traitements. Pour cela, ils utiliseront des serveurs offerts ce printemps à l'IIUN par la société Yahoo!, en association avec les infrastructures des autres membres du consortium.



Articles sur Leads

s'abonner
aux newsletters

suivez-nous

Publicité

Derniers Dossiers

Publicité