Liste des projets autour du big data

page de liste de Wikipédia

Cette page regroupe les projets gravitant autour de l'univers big data et Hadoop.

Bases de Données modifier

Apache Hbase modifier

HBase est une base de données distribuée disposant d'un stockage structuré pour les grandes tables. Comme BigTable, HBase est une base de données orientée colonnes.

Site: http://hbase.apache.org/

Apache Cassandra modifier

Apache Cassandra est un système de gestion de base de données (SGBD) NoSQL. Le projet est Open source et porté par la Fondation Apache. Cassandra est conçue pour gérer des quantités massives de données réparties sur plusieurs serveurs (cluster), en assurant tout particulièrement une disponibilité maximale des données et en éliminant les points individuels de défaillance.

Site: http://cassandra.apache.org/

CouchDB modifier

Apache CouchDB est un système de gestion de base de données orienté documents, écrit en langage Erlang et distribué sous licence Apache. Conçu pour le Web, il fait partie de la mouvance NoSQL, et a été conçu pour pouvoir être réparti sur de multiples serveurs.

Site: http://couchdb.apache.org/

MongoDB modifier

MongoDB est un système de gestion de base de données orientée documents, répartissable sur un nombre quelconque d'ordinateurs et ne nécessitant pas de schéma prédéfini des données. Il est écrit en C++. Le serveur et les outils sont distribués sous licence AGPL, les pilotes sous licence Apache et la documentation sous licence Creative Commons2. Il fait partie de la mouvance NoSQL.

Site: https://www.mongodb.org/

Apache Accumulo modifier

Accumulo est un système de gestion de base de données créé par la NSA et légué à la fondation Apache en 2011. Le logiciel est écrit en Java et a été développé dès 2008. Il se classe dans la catégorie des bases de données NoSQL. Il est spécialisé dans la gestion de données de masse.

Site: https://accumulo.apache.org/

Accès aux données/ requetage modifier

Pig modifier

Pig est un plateforme haut niveau pour la création de programme MapReduce utilisé avec Hadoop. Le langage de cette plateforme est appelé le Pig Latin4. Pig Latin s'abstrait du langage de programmation Java MapReduce et se place à un niveau d'abstraction supérieur, similaire à celle de SQL pour systèmes SGBDR.

Site: http://pig.apache.org/

Hive modifier

Apache Hive est une infrastructure d’entrepôt de donnée infrastructure intégrée sur Hadoop permettant l'analyse, le requétage et synthèse de données.

Site: https://hive.apache.org/

Apache Livy modifier

Livy (d)  

http://livy.io/

Data Intelligence modifier

Apache Drill modifier

Apache Drill est un framework logiciel open-source qui supporte les applications temps réel distribués pour l'analyse interactive des jeux de données à grande échelle. Site: http://drill.apache.org/

Apache Mahout modifier

Apache Mahout est un projet de la fondation Apache visant à créer des implémentations d'algorithmes d'apprentissage automatique distribués. D'abord développé au-dessus de la plate-forme Hadoop1,2, Mahout a ensuite utilisé Apache Spark. Mahout est encore en cours de développement ;

Site: http://mahout.apache.org/

H2O modifier

Site: http://www.h2o.ai/

Data Serialisation modifier

Apache Thrift modifier

Thrift est un langage de définition d'interface (IDL) conçu pour la création et la définition de services pour de nombreux langages. Il est utilisé en tant que framework RPC et a été développé par Facebook pour le « développement de services évolutifs multilangage ». Une pile logicielle est jointe à un moteur de génération de code, permettant la création de services fonctionnant plus ou moins efficacement et en continu entre C#, C++ (sur systèmes POSIX), Cappuccino, Cocoa, D, Erlang, Go, Haskell, Java, Node.js, OCaml, Perl, PHP, Python, Ruby, et Smalltalk. Bien que développé par Facebook, il est désormais un logiciel libre hébergé par la fondation Apache. L'implémentation a été décrite en avril 2007 dans un livre technique publié par Facebook, actuellement hébergé par Apache.

Site: https://thrift.apache.org

Apache Avro modifier

Site: http://avro.apache.org/

Data integration modifier

Cette Section regroupe les outils permettant l'import et l'export de données

Apache Sqoop modifier

Site: http://sqoop.apache.org/

Apache Flume modifier

Apache Flume est un logiciel de la fondation Apache destiné à la collecte et à l'analyse de fichiers de log. L'outil est conçu pour fonctionner au sein d'une architecture informatique distribuée et ainsi supporter les pics de charge.

site: http://flume.apache.org/

Apache Chuckwa modifier

http://chukwa.apache.org/

Requetage modifier

Presto modifier

Presto est un projet distribué sous licence Apache, il s'agit d'un moteur de requete SQL optimisé pour les interactions temps réel. Site: https://prestodb.io/

Impala modifier

Cloudera Impala est moteur de requête SQL open source de Cloudera (MPP) pour les données stockées dans des cluster d'ordinateurs exécutant Apache Hadoop http://impala.io/


Dremel modifier

Sécurité des données modifier

Apache Metron modifier

Site: http://metron.apache.org/

Sqrrl modifier

Site: https://sqrrl.com/

Calcul distribué modifier

Apache Tez modifier

Site: http://tez.apache.org/

MapReduce modifier

Spark modifier

Spark (ou Apache Spark) est un framework open source de calcul distribué, initialement développé à Berkeley par AMPLab et maintenant un projet de la fondation Apache. Contrairement a Hadoop qui utilise le patron d'architecture MapReduce sur des disques, Spark travaille en mémoire vive ce qui est potentiellement cent fois plus rapide.

Site: https://spark.apache.org/

Indexation de Documents modifier

Elasticsearch modifier

Elasticsearch est un moteur de recherche libre open source utilisant Lucene (un des projets de l'Apache Software Foundation).

Site: https://www.elastic.co/products/elasticsearch

Apache SolR modifier

Solr est une plateforme logicielle de moteur de recherche s'appuyant sur la bibliothèque de recherche Lucene, créée par la Fondation Apache et distribuée et conçue sous licence libre.

Site: http://lucene.apache.org/solr/

Non Classé modifier

cascalog modifier

site:http://cascalog.org/

Cascading modifier

Site:http://www.cascading.org/

Apache Hadoop modifier

Hadoop est un framework Java libre destiné à faciliter la création d'applications distribuées et échelonnables (scalables), permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google.

Site: http://hadoop.apache.org/

Tachyon modifier

Site: http://tachyon-project.org/faq/

Rhadoop modifier

Apache Mesos modifier

Alternative à Yarn

http://mesos.apache.org/

Apache Phoenix modifier

permet de requêter sur HBase

Apache Drill modifier

Site: http://drill.apache.org/

Apache Oozie modifier

Apache Oozie est un logiciel de la Fondation Apache servant à l'ordonnancement de flux dédié au logiciel Hadoop. Site: http://oozie.apache.org/

Apache Flink modifier

Site: https://flink.apache.org/

Apache Hama modifier

https://hama.apache.org/

Apache Zookeeper modifier

ZooKeeper est un logiciel de gestion de configuration pour systèmes distribués, basé sur le logiciel Chubby développé par Google. ZooKeeper est utilisé entre autres pour l'implémentation de HBase.

Site: https://zookeeper.apache.org/

Apache Ambari modifier

Le projet Apache Ambari vise à rendre la gestion de Hadoop plus simple en développant des logiciels pour le provisionnement, la gestion et la surveillance des clusters Apache Hadoop. Ambari fournit une interface utilisateur Web de gestion Hadoop, soutenue par ses API RESTful. Site: http://ambari.apache.org/

Hue(Cloudera) modifier

Hue est une interface web open-source sous licence Apache V2 prenant en charge Hadoop et son écosystème. Site: http://gethue.com/

Apache Storm modifier

Site: http://storm.apache.org/

Ganglia modifier

Site:http://ganglia.sourceforge.net/

Apache Giraph modifier

Giraph est un projet Apache destiné à réaliser du traitement de graphes sur des volumes importants de données. Giraph utilise l'implémentation de MapReduce réalisée par Apache Hadoop afin de traiter les graphes.

Site:http://giraph.apache.org/

Apache Samza modifier

Apache Druid modifier

HCatalog modifier

couche de gestion de métadonnées pour Hadoop

Apache Crunch modifier

http://crunch.apache.org/

Apache Kafka modifier

Apache Kafka est un projet open-source courtier de message développé par Apache Software Foundation écrit en Scala. Le projet vise à fournir un système unifié, temps réel à latence faible pour la manipulation de flux de données en temps réel. La conception est fortement influencée par transaction logs1.

Site: https://kafka.apache.org/

Kibana modifier

Site: https://www.elastic.co/products/kibana

Apache Bigtop modifier

http://bigtop.apache.org

Apache Nutch modifier

http://nutch.apache.org/

Apache S4 modifier

http://incubator.apache.org/s4/

Apache Slider modifier

https://slider.incubator.apache.org/

spark ml modifier

Apache Kudu modifier

Apache Kudu complète la couche de stockage d'Hadoop pour permettre de développer des applications analytiques en temps réel https://kudu.apache.org/

Apache Kylin modifier

Apache Kylin est un moteur distribué analytique Open source conçu pour fournir une interface SQL et l'analyse multidimensionnelle (OLAP) sur Hadoop supportant des ensembles de données extrêmement volumineux, ce projet est issue d'eBay Inc. http://kylin.apache.org/

Apache Airflow modifier

https://airflow.incubator.apache.org/

Apache Sentry modifier

https://sentry.apache.org/

Divers modifier

http://www.confluent.io/