Wer sich in das Universum des Internets der Dinge begibt, muss damit rechnen, dass große Datenmengen zu bewältigen sind. Schnell sind hier Mengen erreicht, die einen Rückgriff auf Techniken wie Spark nötig machen – die allerdings eine hohe Lernkurve haben.
Mit Spring Cloud Dataflow steht eine Technologie bereit, mit der Java-Entwickler aus dem Enterprise-Bereich ihr Vorwissen ohne großen Aufwand in diesen Bereich einbringen können. Mit einer Microservice-Architektur können einfach Datenströme aus dem Internet der Dinge prozessiert werden.
Neben den Erfahrungen aus Kundenprojekten werden die Referenten an einer Live-Demonstration zeigen, wie man Sensordaten mit wenig Code maximal skalierbar verarbeiten kann.
Vorkenntnisse
Die Besucher sollten ein grundsätzliches Verständnis für die Verarbeitung großer Datenmengen und skalierbarer Infrastrukturen mitbringen. Darüber hinaus gehendes Wissen ist nicht zwingend erforderlich. Für das Verständnis der Beispiel sind Kenntnisse in Java und Spring hilfreich, aber nicht zwingend notwenden.
Lernziele
Nach dem Vortrag haben die Besucher die Architektur einer Spring-Cloud-Dataflow-Anwendung verstanden. Neben dem Wissen, wie eine solche Applikation skaliert werden kann, sind sie in der Lage zu entscheiden, ob das Framework einem Einsatz für einen gewählten Use Case in Frage kommt.
//
Nicolas Byl
@NicolasByl
sammelte bereits während des Studiums der Medizinischen Informatik erste Erfahrungen im Umfeld Java-basierter Webportale und entdeckte seine Leidenschaft für verteilte Systeme. Bei der codecentric AG beschäftigt er sich mit mit skalierbaren cloud-nativen Infrastrukturen für die Applikationsentwicklung und die Verarbeitung von Datenströmen