Dominik Riemer2: Unterschied zwischen den Versionen
Qr0241 (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{Veranstaltung |Titel DE=Dominik Riemer |Titel EN=Dominik Riemer |Beschreibung DE=folgt |Beschreibung EN=folgt |Veranstaltungsart=Graduiertenkolloquium |Start=20…“) |
Oj4206 (Diskussion | Beiträge) |
||
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
{{Veranstaltung | {{Veranstaltung | ||
− | |Titel DE= | + | |Titel DE=Methodik und Tools zur Entwicklung verteilter Echtzeit-Verarbeitungspipelines |
− | |Titel EN= | + | |Titel EN=Methodik und Tools zur Entwicklung verteilter Echtzeit-Verarbeitungspipelines |
− | |Beschreibung DE= | + | |Beschreibung DE=Die Erfassung und Verarbeitung von Ereignissen aus Sensorquellen oder Unternehmensanwendungen in Echtzeit ist wesentlicher Bestandteil vieler Anwendungsdomänen wie dem Internet der Dinge oder Industrie 4.0 und bietet dabei Anwendern den Vorteil, kontinuierlich über Leistungsdaten und aufkommende Probleme unterrichtet zu werden (Situational Awareness) oder Wartungsprozesse zustandsabhängig zu optimieren (Condition-based Maintenance). Derartige Einsatzgebiete verlangen aufgrund der Vielzahl, Frequenz sowie des Bedarfs nach echtzeitnaher Auswertung häufig den Einsatz verteilter Systeme. Technologisch existieren bereits Systeme, die in der Lage sind, komplexe Ereignismuster auf Basis räumlicher, zeitlicher oder kausa-ler Zusammenhänge auf Datenströmen zur erkennen (Complex Event Processing) und dabei die Rechenlast auf ein Cluster aus Verarbeitungsknoten verteilen (Distributed Stream Processing). Gleichzeitig sind heute verfügbare Systeme jedoch statisch, da die Erstellung und Anpassung der zu erkennenden Situationen auf-grund der technischen Komplexität der zugrundeliegenden Sprachen eine Entwicklungs- und Bereitstellungs-phase verlangt, was zu langsamen Entwicklungszyklen führt. Gerade diese Anwendungen weisen allerdings häufig eine hohe Dynamik in Bezug auf Veränderungen von Anforderungen der zu erkennenden Situationen, aber auch der zugrundeliegenden Sensordaten hinsichtlich Syntax und Semantik auf. |
− | + | ||
+ | In diesem Vortrag präsentieren wir eine neuartige Methodik, welche die Entwicklung echtzeitfähiger Anwen-dungen durch Fachanwender erleichtert. Diese beinhaltet eine semantische Beschreibungsebene, welche es Entwicklern ermöglicht, Ereignisproduzenten, Verarbeitungsknoten und Ereigniskonsumenten in Hinblick auf Schema-, Qualitäts- und Protokollinformationen sowie deren Ein- und Ausgabeanforderungen abstrakt zu beschreiben. Die Ebene wird in eine Systemarchitektur eingebettet, die es Fachanwendern schließlich erlaubt, Verarbeitungspipelines aus heterogenen Ereignisverarbeitungsknoten zu erstellen und automatisiert auszuführen. Die entwickelte Methodik wurde anhand mehrerer Fallbeispiele bei einem Automobilzulieferer sowie einem Dienstleister aus der Ölbranche implementiert und evaluiert. | ||
+ | |||
|Veranstaltungsart=Graduiertenkolloquium | |Veranstaltungsart=Graduiertenkolloquium | ||
− | |Start=2016/01/29 14: | + | |Start=2016/01/29 14:30:00 |
− | |Ende=2016/01/29 15: | + | |Ende=2016/01/29 15:30:00 |
|Gebäude=11.40 | |Gebäude=11.40 | ||
|Raum=231 | |Raum=231 | ||
− | |Forschungsgruppe=Wissensmanagement | + | |Vortragender=Dominik Riemer |
+ | |PDF=Riemer 29-01-2016.pdf | ||
+ | |Forschungsgruppe=Web Science und Wissensmanagement | ||
|In News anzeigen=True | |In News anzeigen=True | ||
}} | }} |
Aktuelle Version vom 19. Januar 2016, 08:48 Uhr
Methodik und Tools zur Entwicklung verteilter Echtzeit-Verarbeitungspipelines
Veranstaltungsart:
Graduiertenkolloquium
Die Erfassung und Verarbeitung von Ereignissen aus Sensorquellen oder Unternehmensanwendungen in Echtzeit ist wesentlicher Bestandteil vieler Anwendungsdomänen wie dem Internet der Dinge oder Industrie 4.0 und bietet dabei Anwendern den Vorteil, kontinuierlich über Leistungsdaten und aufkommende Probleme unterrichtet zu werden (Situational Awareness) oder Wartungsprozesse zustandsabhängig zu optimieren (Condition-based Maintenance). Derartige Einsatzgebiete verlangen aufgrund der Vielzahl, Frequenz sowie des Bedarfs nach echtzeitnaher Auswertung häufig den Einsatz verteilter Systeme. Technologisch existieren bereits Systeme, die in der Lage sind, komplexe Ereignismuster auf Basis räumlicher, zeitlicher oder kausa-ler Zusammenhänge auf Datenströmen zur erkennen (Complex Event Processing) und dabei die Rechenlast auf ein Cluster aus Verarbeitungsknoten verteilen (Distributed Stream Processing). Gleichzeitig sind heute verfügbare Systeme jedoch statisch, da die Erstellung und Anpassung der zu erkennenden Situationen auf-grund der technischen Komplexität der zugrundeliegenden Sprachen eine Entwicklungs- und Bereitstellungs-phase verlangt, was zu langsamen Entwicklungszyklen führt. Gerade diese Anwendungen weisen allerdings häufig eine hohe Dynamik in Bezug auf Veränderungen von Anforderungen der zu erkennenden Situationen, aber auch der zugrundeliegenden Sensordaten hinsichtlich Syntax und Semantik auf.
In diesem Vortrag präsentieren wir eine neuartige Methodik, welche die Entwicklung echtzeitfähiger Anwen-dungen durch Fachanwender erleichtert. Diese beinhaltet eine semantische Beschreibungsebene, welche es Entwicklern ermöglicht, Ereignisproduzenten, Verarbeitungsknoten und Ereigniskonsumenten in Hinblick auf Schema-, Qualitäts- und Protokollinformationen sowie deren Ein- und Ausgabeanforderungen abstrakt zu beschreiben. Die Ebene wird in eine Systemarchitektur eingebettet, die es Fachanwendern schließlich erlaubt, Verarbeitungspipelines aus heterogenen Ereignisverarbeitungsknoten zu erstellen und automatisiert auszuführen. Die entwickelte Methodik wurde anhand mehrerer Fallbeispiele bei einem Automobilzulieferer sowie einem Dienstleister aus der Ölbranche implementiert und evaluiert.
(Dominik Riemer)
Start: 29. Januar 2016 um 14:30
Ende: 29. Januar 2016 um 15:30
Im Gebäude 11.40, Raum: 231
Veranstaltung vormerken: (iCal)
Veranstalter: Forschungsgruppe(n) Web Science und Wissensmanagement
Information: Media:Riemer 29-01-2016.pdf