Stream processing

Un article de Wikipédia, l'encyclopédie libre.

Le Stream processing est un paradigme de programmation, équivalent à dataflow programming (en) et à la programmation réactive[1], qui permet à des applications d'exploiter une forme limitée de parallélisme. Ces applications peuvent utiliser des unités de calcul, tel que les FPUs sur un GPU ou FPGAs sans gestion explicite d'allocation, synchronisation ou communication entre eux.

Applications[modifier | modifier le code]

Une des applications courantes du stream processing est le traitement analytique des données en temps réel. À l’aide des technologies de messaging comme Apache Kafka et des frameworks de stream processing (comme Apache Flink, Apache Spark ou Kafka Stream par exemple), il est possible de créer des pipelines de traitement de données complexes produisant des résultats en temps réel sur des technologies scalables et résilientes[2].[anglicisme à remplacer]

Références[modifier | modifier le code]

  1. (en) « A SHORT INTRO TO STREAM PROCESSING »
  2. « Architecture data temps réel, par où commencer ? », sur Nexworld, (consulté le ).