D13 (2012) - Ausgezeichnete Informatikdissertationen
Steffen Hölldobler et al. (Hrsg.)
GI-Edition - Lecture Notes in Informatics (LNI), D-13
Bonner Köllen Verlag (2012)
Auflistung D13 (2012) - Ausgezeichnete Informatikdissertationen nach Erscheinungsdatum
1 - 10 von 32
Treffer pro Seite
Sortieroptionen
- TextdokumentVerteiltes Dokumenten-orientiertes Prozessmanagement im Gesundheitswesen(Ausgezeichnete Informatikdissertationen 2012, 2013) Neumann, Christoph P.In Situationen die eine organisationsübergreifende Zusammenarbeit über regionale Grenzen hinaus erfordern ist es notwendig die Systemfunktionalitäten zur Prozessunterstützung von den bestehenden Anwendungssystemen zu entkoppeln. In dieser Arbeit wird ein Ansatz für verteilte Fallführung vorgestellt, der Ad-hoc-Kooperationen mit Hilfe von aktiven Dokumenten ermöglicht ohne zuvor die lokalen Anwendungssysteme zu integrieren. Eine verteilte Fallakte wird dazu eingesetzt zusammenarbeitende Prozessbeteiligte zu koordinieren. Als aktives Dokument führt das Fallakten-Artefakt sein eigenes Anzeige- und Steuer-Programm eingebettet mit sich. Die Fallakte beinhaltet beliebige elektronische Dokumente mit medizinischem Inhalt, die zwischen den Beteiligten ausgetauscht werden. Außerdem beinhaltet sie die Prozessstruktur für einen organisationsübergreifenden Therapieplan in Form einer gemeinsamen Arbeitsliste. Zur Veranschaulichung des Konzepts dient ein organisationsübergreifender Anwendungsfall, dazu dient der kooperative Behandlungsprozess für Brustkrebs-Patientinnen.
- TextdokumentAnalyse von Zeitreihen unter Verwendung orthogonaler Polynome am Beispiel der Online-Motivsuche und ihrer Anwendungen(Ausgezeichnete Informatikdissertationen 2012, 2013) Gruber, ThiemoDie Analyse von Zeitreihen umfasst ein weites Spektrum an Zielsetzungen wie etwa die Zuordnung zu bereits bekannten Gruppen, die Suche nach einem enthaltenen und vorab festgelegten Muster oder die Erkennung neuer und bisher unbekannter Verläufe. Aufgrund der immer stärker zunehmenden Datenmengen sind insbesondere Effizienz und Geschwindigkeit der dabei eingesetzten Verfahren von zentraler Bedeutung. Bei einer Online-Analyse besteht die Herausforderung speziell in der Notwendigkeit, zu jedem Zeitpunkt eine Entscheidung treffen zu können, auch wenn die zu verarbeitenden Daten noch nicht vollständig vorliegen. Durch eine Ermittlung ähnlich wiederkehrender charakteristischer Abschnitte, sogenannter Motive, und die Überprüfung ihrer An- oder Abwesenheit in gegebenen Zeitreihen ist eine Vielzahl von Problemstellungen adressierbar. In der diesem Beitrag zugrundeliegenden Dissertation werden neuartige Lösungsansätze für alle notwendigen Schritte einer Online-Motivsuche basierend auf einer Approximation der Zeitreihen mit orthogonalen Polynomen vorgestellt. Die Besonderheit in der Verwendung orthogonaler Polynome besteht dabei in der Möglichkeit der Anwendung sehr schneller Approximationsverfahren sowie der besonderen Interpretierbarkeit der ermittelten Ergebnisse.
- TextdokumentExakte Algorithmen für Erfüllbarkeitsprobleme(Ausgezeichnete Informatikdissertationen 2012, 2013) Moser, Robin A.Die Erfüllbarkeitsprobleme SAT und CSP dürfen mit Fug als die "natürlichsten" aller NP-vollständigen Probleme bezeichnet werden. Die vorliegende Arbeit befasst sich mit deren algorithmischen Behandlung. Sie besteht aus zwei Teilen. Der erste Teil befasst sich mit Erfüllbarkeitsproblemen, deren Lösbarkeit aus dem bekannten Lovász Local Lemma folgt. Während seit dessen Entdeckung im Jahre 1975 durch Paul Erdős und Lászlo ́ Lovász feststeht, dass Erfüllbarkeitsprobleme mit einer nirgends zu dichten Konzentration an Klauseln immer eine erfüllende Belegung zulassen, war ein algorithmisches Verfahren zur tatsächlichen Bestimmung dieser Lösung lange nicht bekannt. Wir verfeinern frühere Ansätze, das Local Lemma algorithmisch zu machen und präsentieren schliesslich einen Polynomialzeitalgorithmus, der für beinahe alle bisher bekannten Anwendungen des Local Lemma einen konstruktiven Beweis liefert. Im zweiten Teil verlassen wir die Klasse der in polynomieller Zeit lösbaren Probleme und betrachten stattdessen den von Uwe Schöning im Jahre 1999 vorgeschlagenen und analysierten randomisierten Exponentialzeitalgorithmus für allgemeine Klauselerfüllungsprobleme. Als Hauptbeitrag neben weiteren Aspekten verfeinern wir frühere Ansätze, diesen Algorithmus zu derandomisieren und präsentieren schliesslich die erste deterministische Variante, welche gegenüber dem Zufallsalgorithmus nicht an Effizienz einbüsst.
- TextdokumentKulturelle Vielfalt für virtuelle Charaktere(Ausgezeichnete Informatikdissertationen 2012, 2013) Endrass, BirgitIn dieser Dissertation wurden kulturspezifische Verhaltensweisen unterschiedlicher Modalitäten für die Verwendung in Multiagentensystemen aufbereitet. Dabei wurde ein hybrider Ansatz verfolgt, der sowohl generalisierbare Modelle auf Grundlage der Literatur aus den Sozialwissenschaften implementiert als auch Verhaltensweisen auf Grundlage eines Videokorpus simuliert. Kulturelle Unterschiede im Verhalten wurden für die deutsche und japanische Kultur exemplarisch dargestellt und in eine Simulation mit virtuellen Charakteren integriert. In Evaluationsstudien wurde die Wahrnehmung der einzelnen Verhaltensaspekte von Nutzern der beiden Zielkulturen untersucht.
- TextdokumentMessungen und Datenanalyse in Anbetracht von Rauschen und komplexem Bias – Fortschritte aus verbesserten bioinformatischen Algorithmen(Ausgezeichnete Informatikdissertationen 2012, 2013) Łabaj, Paweł P.Die hier vorgestellte kumulative Dissertation im Bereich der Bioinformatik spiegelt die Bandbreite dieses Gebiets wieder und spannt einen Bogen von der direkten Auswertung von Meßergebnissen, über die Detektion von Signalen in einem komplexen Hintergrund, bis zur Frage der optimalen dynamischen Ressourceallokation bei der Exekution mehrstufiger Analyseabläufe. In jedem der Bereiche werden beispielhaft Fortschritte durch moderne bioinformatische Ansätze präsentiert. Insbesondere zeige ich (1) wie Genexpressionsmessungen aus Sequenziermethoden der nächsten Generation verbessert werden können, (2) wie empirische anwendungsspezifische Hintergrundmodelle die Entdeckung neuer funktionaler Proteinsequenzmotive auch in Proteinregionen von starkem kompositionellen Bias erlauben, und (3) erste Schritte auf beider Überwachung von Ressource bedarf in heterogenen Analyseabläufen in der Cloud.
- TextdokumentLiveShift: Ein Ansatz für zeitversetzte P2P Multimedia-Übertragungen(Ausgezeichnete Informatikdissertationen 2012, 2013) Hecht, Fabio V.Der Peer-to-Peer (P2P) Ansatz verbessert die Skalierbarkeit und verringert die Infrastruktur-und Verwaltungskosten von Multimedia-Übertragungen, weil die Nutzer sich an der Bereitstellung des Dienstes beteiligen. Dieser Dissertationsabriss führt LiveShift ein, einen neuartigen Ansatz, der die nahtlose Kombination von P2P-Direktübertragungen und zeitversetzter Übertragungsfunktionalität in einem einzigen System ermöglicht und der die dafür notwendigen Protokolle und Regeln umsetzt. LiveShift erfüllt die Anforderungen der Netzwerk- und Dienstverwaltung, indem neue Dienste in voll dezentralisierter Art und Weise und mit minimaler Beeinflussung des Betreibers angeboten werden. Drei Kernaspekte, die sich aus dem Ermöglichen eines solchen neuartigen Anwendungsfalles ergeben, werden genauer betrachtet: (a) Ein voll verteiltes P2P-Protokoll für den Austausch von direkten wie von zeitverögerten Video-Übertragungen, (b) die Untersuchung von passenden Regelsätzen zur Wiedergabesteuerung in verschiedenen Szenarien und unter Berücksichtigung verschiedener Parameter, und (c) der Entwurf und die Auswertung eines neuartigen, vollständig verteilten P2P-Trackers, der gleichermassen Effizienz und Lastausgleich verbessert. Das Aufzeigen der Brauchbarkeit der erwähnten Mechanismen durch deren Integration in einer einzigen, offen und frei verfügbaren Anwendung.
- TextdokumentRandomisiertes Rumor Spreading auf Sozialen Netwerken und Vollständigen Graphen(Ausgezeichnete Informatikdissertationen 2012, 2013) Fouz, MahmoudNicht zuletzt wegen dem Einfluss des Internets ist die Analyse der Verbreitung von Informationen in komplexen Netzwerken ein wichtiger Forschungsbereich. In meiner Dissertation beschäftigen wir uns mit zwei Problemstellungen in diesem Zusammenhang. Im ersten Teil untersuchen wir die Verbreitung von Informationen in sozialen Netzwerken. Hierzu benutzen wir das "Preferential Attachment"-Graph Modell. Wir beweisen, dass ein natürliches Protokoll zur Verbreitung von Informationen sublogarithmische Zeit benötigt in der Größe des Netzwerks, um eine Nachricht von einem Knoten zu allen Knoten zu verbreiten. Im Gegensatz dazu benötigt das Protokoll auf allen vorher untersuchten Netzwerktopologien mindestens logarithmische Zeit. Im zweiten Teil betrachten wir die Verbreitung von Informationen auf vollständigen Gra- phen. Wir führen ein neues Protokoll ein, das eine Laufzeit von (1 + o(1)) log2 n erreicht. Dies ist asymptotisch optimal unter allen Protokollen, bei denen nur informierte Knoten an der Nachrichtenübertragung aktiv beteiligt sind und zudem in jedem Schritt höchstens einen Nachbarknoten informieren können. Dabei braucht es lediglich O(nf(n)) Nachrichten, wobei f(n) = ω(1) beliebig ist.
- TextdokumentVon überwachten zu unüberwachten Support-Vektor-Maschinen und Anwendungen in der Astronomie(Ausgezeichnete Informatikdissertationen 2012, 2013) Gieseke, FabianEin bekanntes Problem des maschinellen Lernens ist die Klassifikation von Objekten. Entsprechende Modelle basieren dabei meist auf Trainingsdaten, welche aus Mustern mit zugehörigen Labeln bestehen. Die Erstellung eines hinreichend großen Datensatzes kann sich für gewisse Anwendungsfälle jedoch als sehr kosten- oder zeitintensiv erweisen. Eine aktuelle Forschungsrichtung des maschinellen Lernens zielt auf die Verwendung von (zusätzlichen) ungelabelten Mustern ab, welche oft ohne großen Aufwand gewonnen werden können. In diesem Beitrag wird die Erweiterung von sogenannten Support-Vektor-Maschinen auf solche Lernszenarien beschrieben. Im Gegensatz zu Support-Vektor-Maschinen führen diese Varianten jedoch zu kombinatorischen Optimierungsproblemen. Die Entwicklung effizienter Optimierungsstrategien ist daher ein erstrebenswertes Ziel und soll im Rahmen dieses Beitrags diskutiert werden. Weiterhin werden mögliche Anwendungsgebiete der entsprechenden Verfahren erläutert, welche sich unter anderem im Bereich der Astronomie wiederfinden.
- TextdokumentAnalyse molekularbiologischer Daten mittels Self-organizing Maps(Ausgezeichnete Informatikdissertationen 2012, 2013) Wirth, HenryDie Molekularbiologie sieht sich gegenwärtig mit enormen Datenmengen konfrontiert, welche durch moderne Hochdurchsatzmessungen wie Microarrays oder Sequenzierung erzeugt werden. Etablierte Methoden zur Datenanalyse erweisen sich zumeist als ungeeignet für solch hochdimensionale, komplexe und meist verrauschte Daten. Wir stellen hier kurz unsere Analysestrategie vor, welche essenzielle Methoden wie Dimensionsreduzierung, Clustering, multidimensionales Skalieren und Visualisierung vereint und zudem eine in hohem Maße intuitive Sicht auf die Daten erlaubt.
- TextdokumentEin Einheitliches Rahmenwerk für Multi-Level Modellierung(Ausgezeichnete Informatikdissertationen 2012, 2013) Kennel, BastianMulti-Level Modellierung hat sich in den vergangenen Jahren als mächtiges Werkzeug zur Abbildung der Klassifizierungsbeziehungen der realen Welt erwiesen. Die bisherigen Formalisierungen haben aber wesentliche Anwendungsfälle von Modellierungen ausgeblendet und dadurch die künstliche Barriere zwischen der Softwareentwicklung auf der einen Seite und der Wissensmodellierung (zB. im Umfeld der künstlichen Intelligenz, aber auch Ontologie Modellierung) auf der anderen Seite eher vergrößert als abgebaut. Diese Arbeit definiert eine Formalisierung für Multi-Level Modellierung, die beide Anwendungsfälle ermöglicht und dadurch nicht nur die Anwendungsbarriere zwischen beiden Domänen senkt, sondern durch die Kombination der Möglichkeiten neue Wege der Modellierung ermöglicht.