Document sans titre

 

Détail

L’univers numérique est en constante expansion. Lorsque le « Sloan Digital Sky Survey » a débuté en 2000, son télescope au Nouveau-Mexique a recueilli plus de données en 5 semaines que l’ensemble des informations collectées dans toute l'histoire de l'astronomie. A la fin 2011, il avait recueilli plus de 140 téraoctets d'information. Son successeur, le « Grand Synoptic Survey Telescope » au Chili, qui devrait entrer en service en 2016, sera capable d’acquérir la même quantité de données tous les cinq jours. Sur le marché EURONEXT, environ 1.5 millions de transactions sont enregistrées quotidiennement, dont environ 80% sont effectuées par trading algorithmique basé sur des modèles mathématiques permettant d’élaborer des stratégies haute fréquence. Google traite plus de 24 pétaoctets de données par jour, un volume qui est mille fois plus important que l’ensemble des documents imprimés rassemblés dans la Bibliothèque du Congrès américain. De l’astronomie aux sciences du vivant, du commerce à la santé, de la finance à l'Internet, les secteurs et les applications sont différents, mais pour tous, la même révolution est en train de se réaliser : la quantité de données dans le monde explose !

Le Big data marque le début d'une transformation majeure, qui va affecter de façon profonde l’ensemble des secteurs de l’économie et de la recherche scientifique. Tout comme le télescope nous a permis de comprendre l'univers et le microscope électronique la structure de la matière, les nouvelles techniques de collecte et d'analyse d'énormes quantités de données vont bouleverser nos sociétés d’une manière que nous commençons tout juste à entrevoir.

Les problèmes soulevés par la gestion de volumes sans précédent a fortement stimulé des domaines comme le stockage et le calcul distribué, l’analyse automatique de texte, l’extraction de connaissances et, au sens large, la fouille de données. L’analyse des données massives et souvent hétérogènes est un encouragement à l’émergence de nouvelles recherches porteuses d’innovation. Nous illustrerons ces problèmes par deux exemples de recherches, les systèmes de recommandations et les algorithmes stochastiques pour le traitement de données massives.

Ingénieur Général au corps interministériel des Mines, Eric MOULINES est diplômé de l'Ecole Polytechnique (Paris), et Docteur de l'Ecole Nationale Supérieure des Télécommunications (spécialité Traitement du Signal et des Images). Professeur à l'ENST, il reçoit la Médaille d’Argent du CNRS 2010, et le Prix France Télécom de l’Académie des Sciences 2011.

Depuis 2010, il est responsable du projet "MISSTIC" (méthodes d’inférence statistique pour lesSTIC). Membre de très nombreux comités et de réseaux scientifiques (Technical Committee de la société IEEE, réseau thématique pluridisciplinaire Mathématiques de l'Information, des Signaux et des Systèmes auprès de la Direction Scientifique STIC du CNRS, Comité National de la Recherche Scientifique, Comité d’Evaluation de l’INRIA), Eric Moulines est éditeur associé de nombreuses revues (revue IEEE Trans. on Signal Processing, revue ESAIM Probability and Statistics, revue Signal Processing, revue Bernoulli, revue de Statistique Appliquée, revue Stochastic Processes and Their Applications).

Le Professeur Eric Moulines est auteur de plus d'une centaine d'articles dans des revues internationales avec comité de lecture (Annals of Statistics, Annals of Applied Probability, Bernoulli, IEEE Transactions on Signal Processing) et aussi de plus d'une centaine de communications internationales.


 

Plan du site

L'Académie 

Activités 

Actualités

Publications 

Fonds documentaire 

Coopération 

Lien utiles 

 

Académie Hassan II des Sciences et Techniques
Km 4, Avenue Mohammed VI – Rabat
Tel : (212 5) 37 75 01 79 | 37 63 53 76 | 37 63 53 77
fax : (212 5) 37 75 81 71