Apache Kafka

Apache Kafka
Description de l'image Apache kafka.svg.

Informations
Développé par Apache Software Foundation et LinkedInVoir et modifier les données sur Wikidata
Première version [1]Voir et modifier les données sur Wikidata
Dernière version 2.6.0 ()[2]Voir et modifier les données sur Wikidata
Dépôt github.com/apache/kafka et gitbox.apache.org/repos/asf/kafka.gitVoir et modifier les données sur Wikidata
Écrit en Scala et JavaVoir et modifier les données sur Wikidata
Système d'exploitation MultiplateformeVoir et modifier les données sur Wikidata
Type Message-oriented middlewareVoir et modifier les données sur Wikidata
Licence Licence Apache version 2.0Voir et modifier les données sur Wikidata
Site web kafka.apache.orgVoir et modifier les données sur Wikidata

Apache Kafka est un projet à code source ouvert d'agent de messages développé par l'Apache Software Foundation et écrit en Scala. Le projet vise à fournir un système unifié, en temps réel à latence faible pour la manipulation de flux de données. Sa conception est fortement influencée par les journaux de transactions[3].

HistoireModifier

Apache Kafka a été initialement développé par LinkedIn et son code a été ouvert début 2011[4]. Le projet intègre l'incubateur Apache Incubator le . En , plusieurs ingénieurs créateurs de Kafka chez LinkedIn créent une nouvelle société nommée Confluent[5] avec pour axe le logiciel Kafka.

Les entreprises qui utilisent KafkaModifier

Voici une liste d'entreprises remarquables qui ont utilisé ou utilisent Kafka :

ApplicationsModifier

Kafka est utilisé principalement pour la mise en place de « data pipeline » temps réel mais ce n'est pas sa seule application possible dans le monde de l'entreprise. Il est aussi de plus en plus utilisé dans les architectures micro services comme système d’échange, dans la supervision temps réel et dans l’IOT[14]. Kafka apporte sa capacité à ingérer et diffuser une grande quantité de données, couplé à un framework de data stream processing, il permet le traitement complexe et en temps réel des données.

ArchitectureModifier

Kafka comprend cinq APIs de base :

  • Producer API permet aux applications d'envoyer des flux de données aux topics du cluster Kafka.
  • Consumer API permet aux applications de lire des flux de données à partir des topics du cluster Kafka.
  • Streams API permet de transformer des flux de données en topic de sortie.
  • Connect API permet d'implémenter des connecteurs qui récupèrent les données d'un système source ou d'une application vers Kafka ou qui poussent de Kafka vers une application.
  • AdminClient API permet de gérer et d'inspecter les topics, les brokers, et les autres objets Kafka .

Kafka StreamsModifier

Kafka ConnectModifier

Notes et référencesModifier

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Apache Kafka » (voir la liste des auteurs).

Articles connexesModifier

Liens externesModifier