Liste des projets autour du big data

Un article de Wikipédia, l'encyclopédie libre.

Cette page regroupe les projets gravitant autour de l'univers big data et Hadoop.

Bases de Données[modifier | modifier le code]

Apache Hbase[modifier | modifier le code]

HBase est une base de données distribuée disposant d'un stockage structuré pour les grandes tables. Comme BigTable, HBase est une base de données orientée colonnes.

Site: http://hbase.apache.org/

Apache Cassandra[modifier | modifier le code]

Apache Cassandra est un système de gestion de base de données (SGBD) NoSQL. Le projet est Open source et porté par la Fondation Apache. Cassandra est conçue pour gérer des quantités massives de données réparties sur plusieurs serveurs (cluster), en assurant tout particulièrement une disponibilité maximale des données et en éliminant les points individuels de défaillance.

Site: http://cassandra.apache.org/

CouchDB[modifier | modifier le code]

Apache CouchDB est un système de gestion de base de données orienté documents, écrit en langage Erlang et distribué sous licence Apache. Conçu pour le Web, il fait partie de la mouvance NoSQL, et a été conçu pour pouvoir être réparti sur de multiples serveurs.

Site: http://couchdb.apache.org/

MongoDB[modifier | modifier le code]

MongoDB est un système de gestion de base de données orientée documents, répartissable sur un nombre quelconque d'ordinateurs et ne nécessitant pas de schéma prédéfini des données. Il est écrit en C++. Le serveur et les outils sont distribués sous licence AGPL, les pilotes sous licence Apache et la documentation sous licence Creative Commons2. Il fait partie de la mouvance NoSQL.

Site: https://www.mongodb.org/

Apache Accumulo[modifier | modifier le code]

Accumulo est un système de gestion de base de données créé par la NSA et légué à la fondation Apache en 2011. Le logiciel est écrit en Java et a été développé dès 2008. Il se classe dans la catégorie des bases de données NoSQL. Il est spécialisé dans la gestion de données de masse.

Site: https://accumulo.apache.org/

Accès aux données/ requetage[modifier | modifier le code]

Pig[modifier | modifier le code]

Pig est un plateforme haut niveau pour la création de programme MapReduce utilisé avec Hadoop. Le langage de cette plateforme est appelé le Pig Latin4. Pig Latin s'abstrait du langage de programmation Java MapReduce et se place à un niveau d'abstraction supérieur, similaire à celle de SQL pour systèmes SGBDR.

Site: http://pig.apache.org/

Hive[modifier | modifier le code]

Apache Hive est une infrastructure d’entrepôt de donnée infrastructure intégrée sur Hadoop permettant l'analyse, le requétage et synthèse de données.

Site: https://hive.apache.org/

Apache Livy[modifier | modifier le code]

Livy (d) Voir avec Reasonator

http://livy.io/

Data Intelligence[modifier | modifier le code]

Apache Drill[modifier | modifier le code]

Apache Drill est un framework logiciel open-source qui supporte les applications temps réel distribués pour l'analyse interactive des jeux de données à grande échelle. Site: http://drill.apache.org/

Apache Mahout[modifier | modifier le code]

Apache Mahout est un projet de la fondation Apache visant à créer des implémentations d'algorithmes d'apprentissage automatique distribués. D'abord développé au-dessus de la plate-forme Hadoop1,2, Mahout a ensuite utilisé Apache Spark. Mahout est encore en cours de développement ;

Site: http://mahout.apache.org/

H2O[modifier | modifier le code]

Site: http://www.h2o.ai/

Data Serialisation[modifier | modifier le code]

Apache Thrift[modifier | modifier le code]

Thrift est un langage de définition d'interface (IDL) conçu pour la création et la définition de services pour de nombreux langages. Il est utilisé en tant que framework RPC et a été développé par Facebook pour le « développement de services évolutifs multilangage ». Une pile logicielle est jointe à un moteur de génération de code, permettant la création de services fonctionnant plus ou moins efficacement et en continu entre C#, C++ (sur systèmes POSIX), Cappuccino, Cocoa, D, Erlang, Go, Haskell, Java, Node.js, OCaml, Perl, PHP, Python, Ruby, et Smalltalk. Bien que développé par Facebook, il est désormais un logiciel libre hébergé par la fondation Apache. L'implémentation a été décrite en avril 2007 dans un livre technique publié par Facebook, actuellement hébergé par Apache.

Site: https://thrift.apache.org

Apache Avro[modifier | modifier le code]

Site: http://avro.apache.org/

Data integration[modifier | modifier le code]

Cette Section regroupe les outils permettant l'import et l'export de données

Apache Sqoop[modifier | modifier le code]

Site: http://sqoop.apache.org/

Apache Flume[modifier | modifier le code]

Apache Flume est un logiciel de la fondation Apache destiné à la collecte et à l'analyse de fichiers de log. L'outil est conçu pour fonctionner au sein d'une architecture informatique distribuée et ainsi supporter les pics de charge.

site: http://flume.apache.org/

Apache Chuckwa[modifier | modifier le code]

http://chukwa.apache.org/

Requetage[modifier | modifier le code]

Presto[modifier | modifier le code]

Presto est un projet distribué sous licence Apache, il s'agit d'un moteur de requete SQL optimisé pour les interactions temps réel. Site: https://prestodb.io/

Impala[modifier | modifier le code]

Cloudera Impala est moteur de requête SQL open source de Cloudera (MPP) pour les données stockées dans des cluster d'ordinateurs exécutant Apache Hadoop http://impala.io/


Dremel[modifier | modifier le code]

Sécurité des données[modifier | modifier le code]

Apache Metron[modifier | modifier le code]

Site: http://metron.apache.org/

Sqrrl[modifier | modifier le code]

Site: https://sqrrl.com/

Calcul distribué[modifier | modifier le code]

Apache Tez[modifier | modifier le code]

Site: http://tez.apache.org/

MapReduce[modifier | modifier le code]

Spark[modifier | modifier le code]

Spark (ou Apache Spark) est un framework open source de calcul distribué, initialement développé à Berkeley par AMPLab et maintenant un projet de la fondation Apache. Contrairement a Hadoop qui utilise le patron d'architecture MapReduce sur des disques, Spark travaille en mémoire vive ce qui est potentiellement cent fois plus rapide.

Site: https://spark.apache.org/

Indexation de Documents[modifier | modifier le code]

Elasticsearch[modifier | modifier le code]

Elasticsearch est un moteur de recherche libre open source utilisant Lucene (un des projets de l'Apache Software Foundation).

Site: https://www.elastic.co/products/elasticsearch

Apache SolR[modifier | modifier le code]

Solr est une plateforme logicielle de moteur de recherche s'appuyant sur la bibliothèque de recherche Lucene, créée par la Fondation Apache et distribuée et conçue sous licence libre.

Site: http://lucene.apache.org/solr/

Non Classé[modifier | modifier le code]

cascalog[modifier | modifier le code]

site:http://cascalog.org/

Cascading[modifier | modifier le code]

Site:http://www.cascading.org/

Apache Hadoop[modifier | modifier le code]

Hadoop est un framework Java libre destiné à faciliter la création d'applications distribuées et échelonnables (scalables), permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google.

Site: http://hadoop.apache.org/

Tachyon[modifier | modifier le code]

Site: http://tachyon-project.org/faq/

Rhadoop[modifier | modifier le code]

Apache Mesos[modifier | modifier le code]

Alternative à Yarn

http://mesos.apache.org/

Apache Phoenix[modifier | modifier le code]

permet de requêter sur HBase

Apache Drill[modifier | modifier le code]

Site: http://drill.apache.org/

Apache Oozie[modifier | modifier le code]

Apache Oozie est un logiciel de la Fondation Apache servant à l'ordonnancement de flux dédié au logiciel Hadoop. Site: http://oozie.apache.org/

Apache Flink[modifier | modifier le code]

Site: https://flink.apache.org/

Apache Hama[modifier | modifier le code]

https://hama.apache.org/

Apache Zookeeper[modifier | modifier le code]

ZooKeeper est un logiciel de gestion de configuration pour systèmes distribués, basé sur le logiciel Chubby développé par Google. ZooKeeper est utilisé entre autres pour l'implémentation de HBase.

Site: https://zookeeper.apache.org/

Apache Ambari[modifier | modifier le code]

Le projet Apache Ambari vise à rendre la gestion de Hadoop plus simple en développant des logiciels pour le provisionnement, la gestion et la surveillance des clusters Apache Hadoop. Ambari fournit une interface utilisateur Web de gestion Hadoop, soutenue par ses API RESTful. Site: http://ambari.apache.org/

Hue(Cloudera)[modifier | modifier le code]

Hue est une interface web open-source sous licence Apache V2 prenant en charge Hadoop et son écosystème. Site: http://gethue.com/

Apache Storm[modifier | modifier le code]

Site: http://storm.apache.org/

Ganglia[modifier | modifier le code]

Site:http://ganglia.sourceforge.net/

Apache Giraph[modifier | modifier le code]

Giraph est un projet Apache destiné à réaliser du traitement de graphes sur des volumes importants de données. Giraph utilise l'implémentation de MapReduce réalisée par Apache Hadoop afin de traiter les graphes.

Site:http://giraph.apache.org/

Apache Samza[modifier | modifier le code]

Apache Druid[modifier | modifier le code]

HCatalog[modifier | modifier le code]

couche de gestion de métadonnées pour Hadoop

Apache Crunch[modifier | modifier le code]

http://crunch.apache.org/

Apache Kafka[modifier | modifier le code]

Apache Kafka est un projet open-source courtier de message développé par Apache Software Foundation écrit en Scala. Le projet vise à fournir un système unifié, temps réel à latence faible pour la manipulation de flux de données en temps réel. La conception est fortement influencée par transaction logs1.

Site: https://kafka.apache.org/

Kibana[modifier | modifier le code]

Site: https://www.elastic.co/products/kibana

Apache Bigtop[modifier | modifier le code]

http://bigtop.apache.org

Apache Nutch[modifier | modifier le code]

http://nutch.apache.org/

Apache S4[modifier | modifier le code]

http://incubator.apache.org/s4/

Apache Slider[modifier | modifier le code]

https://slider.incubator.apache.org/

spark ml[modifier | modifier le code]

Apache Kudu[modifier | modifier le code]

Apache Kudu complète la couche de stockage d'Hadoop pour permettre de développer des applications analytiques en temps réel https://kudu.apache.org/

Apache Kylin[modifier | modifier le code]

Apache Kylin est un moteur distribué analytique Open source conçu pour fournir une interface SQL et l'analyse multidimensionnelle (OLAP) sur Hadoop supportant des ensembles de données extrêmement volumineux, ce projet est issue d'eBay Inc. http://kylin.apache.org/

Apache Airflow[modifier | modifier le code]

https://airflow.incubator.apache.org/

Apache Sentry[modifier | modifier le code]

https://sentry.apache.org/

Divers[modifier | modifier le code]

http://www.confluent.io/