Technology Know-How: Apache Flink

   page       attach   
abstract

Il mondo è fatto di dati. Noi stessi siamo un ammasso indeterminato di informazioni. Entro la fine del 2020 sono stati prodotti, raccolti, archiviati, copiati ed elaborati per diverse finalità più di 59 zettabytes di dati in tutto il pianeta.
La pandemia di Covid-19, sta contribuendo alla creazione di questo enorme volume di dati, variandone il mix, dando maggiore spazio alla comunicazione video e con un aumento deciso del consumo di contenuti in download e in streaming.
Anno dopo anno il mondo genera sempre più dati e per elaborarli abbiamo bisogno di strumenti migliori e più all'avanguardia. Tutto è iniziato nel 2011, quando è stata rilasciata la prima versione di Apache Hadoop. È qui che entrano in gioco i framework di elaborazione dei dati distribuiti.
Apache Flink (pubblicato a marzo 2016) è un nuovo volto nel campo dell'elaborazione distribuita dei dati. Flink è stato considerato come la prossima rivoluzione dell'elaborazione distribuita dei dati. E’ uno strumento di elaborazione dei big data moderno e di nuova generazione che merita un'elaborazione complessa dei dati in streaming e batch.

outcomes

Links