D09 (2010) - Ausgezeichnete Informatikdissertationen
Dorothea Wagner et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-10
Bonner Köllen Verlag (2010)
Auflistung D09 (2010) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 36
Treffer pro Seite
Sortieroptionen
- TextdokumentSynthese Verteilter Systeme(Ausgezeichnete Informatikdissertationen 2008, 2009) Schewe, SvenVerteilte und parallele Systeme haben einen stetig wachsenden Einfluß auf unser Leben, ob versteckt, wie in der Steuerung unseres Airbags oder ABS, oder offen, wie in Transaktionssystemen. Fehlerhafte Systeme gefährden oft Leben oder Gesundheit und können erhebliche Kosten verursachen. Für die Informatik ergibt sich daraus das zentrale Ziel, eine mathematische Fundierung für die Entwicklung solcher Systeme zu schaffen. Die vorgestellte Arbeit liefert hierzu einen zentralen Beitrag: Sie löst das Syntheseproblem für verteilte Systeme. Synthese ist das klassische Wunschziel der Informatik, eine Implementierung automatisch aus ihrer Spezifikation abzuleiten. Die Wurzeln des Syntheseproblems für verteilte Systeme reichen ein halbes Jahrhundert auf Alonzo Churchs berühmtes Lösbarkeitsproblem zurück. Die vielen seit damals entstandenen Arbeiten bieten Lösungsansätze für spezielle Systemarchitekturen, etwa Pipelines oder Ringe, und eingeschränkte Spezifikationssprachen wie zum Beispiel temporale Logiken; gleichzeitig wurde für einzelne Architekturen gezeigt, dass verteilte Synthese unentscheidbar ist. Aber die fundamentale Frage nach den tieferen Ursachen für die Unentscheidbarkeit, und eine damit mögliche Charakterisierung aller Systemarchitekturen, für die das Syntheseproblem grundsätzlich lösbar ist, blieb offen. Meine Dissertation gibt eine vollständige Charakterisierung der Systemarchitekturen, für die automatische Synthese möglich ist, das Information-Fork Kriterium, und stellt eine uniforme Entscheidungsprozedur für alle entscheidbaren Fälle vor.
- TextdokumentDokumentverifikation mit Temporaler Beschreibungslogik(Ausgezeichnete Informatikdissertationen 2008, 2009) Weitl, FranzEs wird ein neues formales Framework für die automatische Prüfung inhaltlich-struktureller Vorgaben an Dokumente vorgestellt. Aus der Hard- /Softwareverifikation bekannte Model-Checking Verfahren werden mit Methoden zur Repräsentation von Ontologien kombiniert, um sowohl die Struktur des Dokuments als auch inhaltliche Zusammenhänge bei der Prüfung von Konsistenzkriterien berück- sichtigen zu können. Als Spezifikationssprache für Konsistenzkriterien wird die neue temporale Beschreibungslogik ALCCTL vorgeschlagen. Grundlegende Eigenschaften wie Entscheidbarkeit, Ausdruckskraft und Komplexität werden untersucht. Die Ergebnisse übertreffen bekannte Ansätze wie symbolisches Model-Checking in Performanz und Ausdruckskraft hinsichtlich der prüfbaren Kriterien.
- TextdokumentAn Efficient and Flexible Implementation of Aspect-Oriented Languages(Ausgezeichnete Informatikdissertationen 2008, 2009) Bockisch, ChristophAspekt-orientierte Programmiersprachen werden zunehmend in der Industrie eingesetzt, da sie die Strukturierung des Quellcodes und damit dessen Wartbarkeit verbessern. Implementierungen dieser Sprachen compilieren den Quelltext allerdings zu einer Intermediate-Repräsentation, die nicht auf Aspekt-orientierte Sprach-Konzepte ausgerichtet ist, wodurch effiziente Laufzeit-Optimierungen für diese verhindert werden, wie sie für Objekt-orientierte Sprache-Konzepte üblich sind. In dieser Arbeit wird eine Architektur für die Implementierung Aspekt-orientierter Sprachen vorgeschlagen, die deren Konzepte in der Intermediate-Repräsentation erhält. Darauf aufbauend wurden spezielle Laufzeit-Optimierungen für Aspekt-orientierte Konzepte entwickelt, die deren Effizienz bis zu 1000-fach gegenüber existierenden Implementierungen Aspekt-orientierter Sprachen steigern.
- TextdokumentEreignisgesteuerte Ausfallvorhersage: Ein Mustererkennungs-Ansatz(Ausgezeichnete Informatikdissertationen 2008, 2009) Salfner, FelixMit "Proactive Fault Management" werden Fehlertoleranzverfahren bezeichnet, die versuchen, auf drohende Systemausfälle bereits zu reagieren, noch ehe der Ausfall wirklich aufgetreten ist. In dieser Arbeit wird ein Verfahren zur Vorhersage von Ausfällen vorgestellt, das auf der Erkennung von Fehlermustern basiert. Die Vorhersage basiert auf einer Erweiterung von Hidden-Markov-Modellen zu Hidden-Semi-Markov-Modellen, die es ermöglicht, die Zeit zwischen zwei aufgetretenen Fehlern in die Vorhersage mit einzubeziehen. Experimente mit Daten einer kommerziellen Telekommunikationsplattform haben gezeigt, dass das Verfahren eine wesentlich genauere Vorhersage als die bislang bekannten Verfahren ermöglicht und so die Grundlage für eine neue Generation von Fehlertoleranzmechanismen schafft.
- Textdokument
- TextdokumentComputing Crossing Numbers: Berechnen von Kreuzungszahlen(Ausgezeichnete Informatikdissertationen 2008, 2009) Chimani, MarkusIn diesem Artikel betrachten wir das Problem der sogenannten Kreuzungszahl eines Graphen, d.h. die Anzahl von Kantenkreuzungen die unbedingt notwendig ist wenn man einen Graphen zeichnet. Das Problem ist NP-schwer und hat sich in den letzten Jahrzehnten auch als äußerst herausfordernd aus Sicht der graphentheoretischen und algorithmischen Forschung, sowie der Praxis, herausgestellt. Dennoch zeigen wir, dass sich Verfahren entwickeln lassen, die das Problem für viele praxisrelevante Graphen in annehmbarer Zeit beweisbar optimal lösen. Der Schlüssel dazu ist eine geschickte Kombination aus Graphentheorie, kombinatorischer Algorithmik, sowie algebraischen Methoden, insbesondere der Mathematischen Programmierung.
- TextdokumentRandomisierte Protokolle für die Verteilung von Information(Ausgezeichnete Informatikdissertationen 2008, 2009) Sauerwald, ThomasDie in diesem Beitrag zusammengefasste Dissertation befaßt sich mit der Entwicklung und Analyse von zufälligen Algorithmen für das Verteilen von Information in Netzwerken. Zunächst wird das Problem der Verbreitung von Nachrichten (Rumor Spreading) betrachtet. Wir analysieren zunächst eine klassische, vollständig zufällige Variante (Randomized Rumor Spreading) und geben für verschiedene untersuchte Graphklassen verbesserte Laufzeitschranken an. Zudem untersuchen wir die Beziehung von Randomized Rumor Spreading und Irrfahrten. Wir geben zwei Parameter von Irrfahrten an, mit denen sich die Laufzeit von Randomized Rumor Spreading sowohl nach oben als auch nach unten abschätzen lässt. Neben der Analyse von diesen klassischen Algorithmen entwickeln wir auch eine neue Variante für das Verteilen von Nachrichten. Überraschenderweise können wir zeigen, daß diese neue Variante trotz reduzierten Zufalls dieselben oder sogar leicht bessere Ergebnisse als die klassische Variante erzielt. Schließlich beschäftigen wir uns mit der Balancierung von Lasteinheiten. Wir geben ein sehr einfaches Netzwerk an, das unter Zuhilfenahme von Zufall beliebige Eingangslasten bis auf einen kleinen additiven Faktor balanciert. Hierbei ist die benötigte Zeit nahezu optimal und gleichzeitig der additive Faktor unabhängig von der Gesamtlast und der initialen Balanciertheit.
- TextdokumentInformationsverarbeitung im Informationsmanagement: Modellierung von Aufgaben und verarbeiteten Informationen am Beispiel der Information Technology Infrastructure Library (ITIL)(Ausgezeichnete Informatikdissertationen 2008, 2009) Ißler, LutzDas Informationsmanagement im Gesundheitswesen entwickelt Informationssysteme von Krankenhäusern und medizinischen Organisationen weiter. Dazu benötigt es Informationen, die ihm vom Informationsmanagement-Informationssystem (IMIS) bereitgestellt werden. Dieses IMIS muss ebenfalls zielgerichtet weiterentwickelt werden. Die Grundlage für die Bewertung und Konstruktion eines IMIS ist ein Modell der Informationsverarbeitung im Informationsmanagement. Diese Arbeit entwickelt eine Formalisierung der Informationsverarbeitung und darauf aufbauend Kriterien für Modelle der Informationsverarbeitung im Informationsmanagement im Gesundheitswesen sowie Modellierungsregeln und ein Vorgehen zur Modellierung. Die Angemessenheit der entwickelten Formalisierung und der Kriterien, der Regeln und des Vorgehens zeigt der Autor mit der Modellierung der Informationsverarbeitung in den neun Kernprozessen der Information Technology Infrastructure Library (ITIL), einer Sammlung von Empfehlungen für das Management von IT-Dienstleistungen. Aufbauend auf einer erweiterten Version dieses Modells kann ein IMIS für das Gesundheitswesen konstruiert werden.
- TextdokumentAutomatisierte Programmierung von Robotern für Montageaufgaben(Ausgezeichnete Informatikdissertationen 2008, 2009) Thomas, UlrikeIn dieser Arbeit wird eine automatisierte Prozesskette von der Spezifikation der Montageaufgaben über die Planung der Montagereihenfolgen bis hin zur Planung elementarer sensorbasierter feiner Roboterbewegungen vorgestellt. Als Eingaben dienen sehr genau modellierte zu montierende Objekte in Form von CAD-Daten und die durch den Anwender ausgewählten symbolisch-räumlichen Relationen. Aus dieser Spezifikation werden durch das hier vorgestellte neue Montageplanungssystem Montagereihenfolgen generiert und unter Berücksichtigung verschiedener Kriterien bewertet. Für die Ausführung der berechneten Pläne muss jede darin enthaltende Montageaufgabe in elementare Roboteranweisungen, so genannte Aktionsprimitive, umgesetzt werden. Hierfür wird ein neuer Algorithmus vorgestellt. Insgesamt ermöglichen die hier vorgestellten Verfahren eine automatisierte Programmierung von Robotern für Montageaufgaben.
- TextdokumentContent Extraction: Bestimmung des Hauptinhaltes in HTML Dokumenten(Ausgezeichnete Informatikdissertationen 2008, 2009) Gottron, ThomasAußer dem Artikel der den eigentlichen Hauptinhalt darstellt enthalten die meisten HTML Dokumente im WWW zusätzliche Inhalte, wie beispielsweise Navigationsmenüs, gestalterische Elemente oder Werbung. Für verschiedene Anwendungen ist es nötig die Unterscheidung zwischen Haupt- und zusätzlichen Inhalten automatisch vorzunehmen. Content Extraction und Template Detection sind Verfahren, die diese Aufgabe lösen. Während der Forschungsarbeit auf diesem Gebiet sind einige interessante Beiträge entstanden. Drei davon sollen hier kurz vorgestellt werden. Dazu gehört der neu eingeführte Content Code Blurring Algorithmus, derzeit der leistungsfähigste Ansatz zur Inhaltsextraktion. Der zweite Beitrag liegt in der Entwicklung objektiver Maße zur Bewertung der Leistung von Algorithmen zur Inhaltsextraktion. Dadurch ließen sich bestehende Verfahren erstmals überhaupt miteinander vergleichen. Eine Analyse verschiedener Methoden zur Gruppierung von Webdokumenten bezüglich der ihnen unterliegenden Templates stellt den dritten größeren Beitrag dieser Arbeit dar. In Kombination mit einer lokalen Websuche kann dieses Templateclustering für die automatische Erstellung von Trainingsdatensätzen zur Templateerkennung eingesetzt werden. Da das Verfahren vollautomatisch ablaufen kann, ermöglicht es im Prinzip Template Detection auf einzelne Dokumente anzuwenden. Damit lassen sich die Vorteile aus Content Extraction und Template Detection verknüpfen.