Apache Kafka

From Wikipedia, the free encyclopedia

Apache Kafka est un projet à code source ouvert d'agent de messages développé par l'Apache Software Foundation et écrit en Scala. Le projet vise à fournir un système unifié, en temps réel à latence faible pour la manipulation de flux de données. Sa conception est fortement influencée par les journaux de transactions.

Créateur Neha Narkhede (en)Voir et modifier les données sur Wikidata
Première version (15 ans, 136 jours)
Dernière version 4.1.1 ()[1]Voir et modifier les données sur Wikidata
Faits en bref Créateur, Développé par ...
Apache Kafka
Description de l'image Apache Kafka logo.svg.
Informations
Créateur Neha Narkhede (en)Voir et modifier les données sur Wikidata
Développé par Apache Software Foundation et LinkedInVoir et modifier les données sur Wikidata
Première version (15 ans, 136 jours)
Dernière version 4.1.1 ()[1]Voir et modifier les données sur Wikidata
Dépôt github.com/apache/kafka et gitbox.apache.org/repos/asf/kafka.gitVoir et modifier les données sur Wikidata
Écrit en Java et ScalaVoir et modifier les données sur Wikidata
Système d'exploitation Multiplateforme (d)Voir et modifier les données sur Wikidata
Type Message-oriented middlewareVoir et modifier les données sur Wikidata
Licence Licence Apache 2.0Voir et modifier les données sur Wikidata
Site web kafka.apache.orgVoir et modifier les données sur Wikidata
Fermer

Histoire

Apache Kafka a été initialement développé par LinkedIn et son code a été ouvert début 2011[réf. souhaitée]. Le projet intègre l'incubateur Apache Incubator le . En , plusieurs ingénieurs créateurs de Kafka chez LinkedIn créent une nouvelle société nommée Confluent[2] avec pour axe le logiciel Kafka.

Les entreprises qui utilisent Kafka

Voici une liste d'entreprises notables qui ont utilisé ou utilisent Kafka :

Applications

Kafka est utilisé principalement pour la mise en place de « data pipeline » temps réel mais ce n'est pas sa seule application possible dans le monde de l'entreprise. Il est aussi de plus en plus utilisé dans les architectures micro services comme système d’échange, dans la supervision temps réel et dans l’IOT[15]. Kafka apporte sa capacité à ingérer et diffuser une grande quantité de données, couplé à un framework de data stream processing, il permet le traitement complexe et en temps réel des données.

Architecture

Kafka comprend cinq API de base :

  • Producer API permet aux applications d'envoyer des flux de données aux topics du cluster Kafka.
  • Consumer API permet aux applications de lire des flux de données à partir des topics du cluster Kafka.
  • Streams API permet de transformer des flux de données en topic de sortie.
  • Connect API permet d'implémenter des connecteurs qui récupèrent les données d'un système source ou d'une application vers Kafka ou qui poussent de Kafka vers une application.
  • AdminClient API permet de gérer et d'inspecter les topics, les brokers, et les autres objets Kafka.

Kafka Streams

Kafka Streams est une bibliothèque client pour la construction d'applications et de microservices, où les données d'entrée et de sortie sont stockées dans des clusters Kafka.

Kafka Connect

Notes et références

Articles connexes

Liens externes

Related Articles

Wikiwand AI