Auflistung nach Autor:in "Heinz, Christoph"
1 - 6 von 6
Treffer pro Seite
Sortieroptionen
- KonferenzbeitragAuf dem Weg zur allwissenden Fabrik – Vertikale Integration auf Basis kontinuierlicher Datenverarbeitung(Informatik 2007 – Informatik trifft Logistik – Band 2, 2007) Heinz, Christoph; Krämer, Jürgen; Riemenschneider, Tobias; Seeger, BernhardIn modernen Produktionsunternehmen gilt mehr denn je die Devise Zeit ist Geld. Daher ist eine zeitnahe Reaktion auf Vorfälle und Entwicklungen innerhalb der eigenen Produktion als auch auf marktwirtschaftliche Ereignisse unabdingbar. Im Rahmen dieses Berichts werden die wichtigsten an der Produktion beteiligten Softwaresysteme skizziert, anhand betriebswirtschaftlicher Zielsetzungen charakterisiert und die typischen Schwachpunkte aufgezeigt. Anschließend wird diskutiert, wie mit den Mitteln der vertikalen Integration und aktuellen Ergebnissen des Complex Event Processing diese Zielsetzungen effizienter umgesetzt werden können. Weiterhin wird gezeigt, wie diese Umsetzung mit unserer Java-Bibliothek PIPES und der Production-to-Business-Software i-Plant realisiert werden kann und welche Synergieeffekte daraus entstehen können.
- ZeitschriftenartikelBusiness Activity Monitoring mit Stream Mining am Fallbeispiel TeamBank AG(HMD Praxis der Wirtschaftsinformatik: Vol. 46, No. 4, 2009) Heinz, Christoph; Greiner, TorstenGeschäftsprozesse in ihrer Gesamtheit setzen die Geschäftsstrategie eines Unternehmens sicher, richtig und wirtschaftlich um. IT-Systeme unterstützen und optimieren dabei die Durchführung der Geschäftsprozesse. Es wird am Beispiel der browserbasierten easyCredit-Anwendung der TeamBank AG (Ratenkredit mit Online-Sofortzusage per Internet für Endkunden und verbundene Partnerbanken) eine echtzeitfähige, betriebswirtschaftlich orientierte Geschäftprozessüberwachung, auch Business Activity Monitoring (BAM) genannt, vorgestellt. Diese basiert zum einen auf Durchfluss-Kennzahlen und zum anderen auf aussagekräftigen statistischen Modellen, deren Berechnung in Echtzeit auf dem neuen Konzept des Complex Event Processing (CEP) beruht.
- KonferenzbeitragEvent-driven tracking of important sections of business processes(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Heinz, ChristophBusiness processes are crucial in today's companies. They define for the different departments of a company the execution order of tasks as well as their interaction. Typically specific sections within a business process are essential for its successful completion and therefore deserve special attention. Such a section is typically associated with a completion constraint, e.g., a credit application has to be processed within 24 hours in order to meet SLAs agreed with the customer. The business user is highly interested in a real-time monitoring of those sections and constraints as it allows him to immediately tackle potential problems during process execution. We present a novel approach for tracking important sections of a business process using Complex Event Processing coupled with an Event-Driven Architecture. While the business process is executed, we continuously monitor its processing status to determine whether such a section is completed and its associated constraints have been fulfilled or violated. To allow for a more proactive reaction of the business user, we also present an early warning system which raises an alert if a not yet completed section runs the risk of violating a constraint.
- KonferenzbeitragMaintaining nonparametric estimators over data streams(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Blohsfeld, Björn; Heinz, Christoph; Seeger, BernhardAn effective processing and analysis of data streams is of utmost importance for a plethora of emerging applications like network monitoring, traffic management, and financial tickers. In addition to the management of transient and potentially unbounded streams, their analysis with advanced data mining techniques has been identified as a research challenge. A well-established class of mining techniques is based on nonparametric statistics where especially nonparametric density estimation is among the essential building blocks. In this paper, we examine the maintenance of nonparametric estimators over data streams. We present a tailored framework that incrementally maintains a nonparametric estimator over a data stream while consuming only a fixed amount of memory. Our framework is memory-adaptive and therefore, supports a fundamental requirement for an operator within a data stream management system. As an example, we apply our framework to selectivity estimation of range queries, which is a popular use-case for statistical estimators. After providing an analysis of the processing cost, results of experimental comparisons are reported where synthetic data streams as well as real-world ones are considered. Our results demonstrate the accuracy of the results being produced by estimators derived from our framework.
- KonferenzbeitragPanel: ,,Big Data - Evolution oder Revolution in der Datenverarbeitung?“(Datenbanksysteme für Business, Technologie und Web (BTW 2015), 2015) Böhm, Alexander; Golombek, Mathias; Heinz, Christoph; Löser, Henrik; Schlaucher, Alfred; Ruf, ThomasDas Schlagwort Big Data hat in den letzten Jahren große Popularität gewonnen. Andererseits befassen sich Datenbanksysteme seit ihrer Entstehung mit großen Datenmengen, d.h. mit der Verwaltung von Datenmengen, die hart an der Grenze des technisch Be- herrschbaren liegen. Mit der Verschiebung dieser Grenzen nach oben und der Steigerung der Anforderungen an Verarbeitungskomplexität und geschwindigkeit entstanden in der Datenbankwelt immer neue Lösungsansätze und Konzepte, wie z.B. verteilte und föderierte Datenbanksysteme, NOSQL-Systeme, Hauptspeicherdatenbanksysteme, aktive Datenbanksysteme und Datenstromanalysesysteme usw. Ist die neue Aufmerksamkeit für das Thema Big Data also tatsächlich durch neue Aspekte gerechtfertigt, oder bekommt ein lange schon adressiertes Thema endlich die notwendige Aufmerksamkeit? Sind die vielbeschworenen 3-.5 V“ (volume, variety, velocity, ggf. auch veracity und value) ” tatsächlich revolutionär neue Gesichtspunkte? Muss man sich je nach Art der Daten (strukturiert, semistrukturiert, unstrukturiert) für andere Systeme entscheiden, oder gibt es für Big Data eine Gesamtlösung statt eines Zwangs zum entweder - oder“ bei der Wahl ” zwischen NOSQL, relationalem Datenbanksystem, Event Processing, usw.? Diese Fragen werden im Panel adressiert werden; Vertreter verschiedener kommerzieller Anbieter stellen sich der Diskussion.
- KonferenzbeitragSortierbasierte Joins über Datenströmen(Datenbanksysteme in Business, Technologie und Web, 11. Fachtagung des GIFachbereichs “Datenbanken und Informationssysteme” (DBIS), 2005) Cammert, Michael; Heinz, Christoph; Krämer, Jürgen; Seeger, BernhardDer effektiven Berechnung von Joins kommt auch in der Datenstromverarbeitung essentielle Bedeutung zu. In dieser Arbeit adaptieren wir daher die für eine Vielzahl verschiedener Joinprädikate geeignete sortierbasierte Joinverarbeitung von der passiven auf die aktive Datenverarbeitung. Wir zeigen auf, wie man das Problem der Verarbeitung potentiell unbegrenzter Datenströme mit Hilfe einer exakten Zeitfenstersemantik löst. Zu deren Realisierung stellen wir verschiedene Hauptund Externspeicheralgorithmen vor. Abschließend erweitern wir die vorgestellten Operatoren für die Berechnung mehrdimensionaler Joins und zeigen experimentell die Vorteile dieses Ansatzes gegenüber binär kaskadierten Joins auf.