Big data (Données de masse - mégadonnées)

De M82 - DIMA's wiki
Aller à la navigation Aller à la recherche

Terme qui désigne des volumes de données très importants générés ou agrégés par les systèmes d’information et qui dépassent les capacités de traitement des systèmes courants. Le problème des « big data » est donc à la fois lié au volume, mais également à la vitesse de création de nouvelles données et donc à terme, à la mémoire et aux besoins associés au stockage. Il est alors courant de caractériser les mégadonnées par l’expression « 6V », qui regroupe : Volume, Variété, Vitesse, Visibilité, Valeur et Véracité. L’expression « big data » s’applique également aux solutions de traitement de volumes importants d’informations. Il s’agit alors de développer des algorithmes et technologies qui permettent de parcourir le volume de données, leur variété et de supporter la rapidité de création et de modification. Cette capacité d’exploration et d’extraction est également appelée data minig*. Les grands groupes du web ont rapidement investi ce champ de recherche. Les technologies développées visent à réduire le temps de traitement sur les bases de données très importantes. On peut ainsi distribuer le traitement sur une infrastructure de serveurs, ce sont alors les traitements dits « massivement parallèles » et combiner avec des systèmes d’organisation de bases de données (NoSQL).

Voir SQL, data minig, base de données.