Auflistung nach Autor:in "Mandl, Peter"
1 - 10 von 10
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAgiles Informationsmanagement(HMD Praxis der Wirtschaftsinformatik: Vol. 44, No. 3, 2007) Bauer, Nikolai; Mandl, PeterDie Möglichkeiten der Informationsbeschaffung sind durch das Internet erheblich verbessert worden, allerdings gibt es heute im Internet und in den Intranets von Unternehmen so viele Daten, dass man den «Wald vor lauter Bäumen nicht mehr sieht». Hinzu kommt, dass man sich durch die Dominanz der IT-Systeme mit ständig wechselnden Informationen konfrontiert sieht. Dies ist gerade für Führungskräfte eine Herausforderung, da diese besonders auf eine optimale Informationsversorgung angewiesen sind. Aktuelle Ansätze im Bereich Informationsmanagement konzentrieren sich in der Regel auf strategische Aspekte, die zweifelsohne wichtig sind, aber der Agilität des Informationsbedarfs meist nicht gerecht werden. p]In diesem Beitrag werden Ansätze für erweiterte Möglichkeiten der Informationsversorgung in Unternehmen skizziert, und es wird auch diskutiert, welche Technologien und Konzepte aus dem Kontext Web 2.0 hier eine Rolle spielen können. Das Management der Bereitstellung allgegenwärtiger, dynamischer Informationen, die auf eine ganz bestimmte Person in einem Unternehmen zugeschnitten sind, bezeichnen wir in diesem Beitrag als agiles Informationsmanagement.
- ZeitschriftenartikelDie Verwertung von Online-Musiknutzungen – Herausforderungen für die IT(HMD Praxis der Wirtschaftsinformatik: Vol. 53, No. 1, 2016) Mandl, Peter; Bauer, Nikolai; Döschl, Alexander; Grimm, Markus; Wickertsheim, LarsDie Online-Nutzung von Musik ist inzwischen ein wichtiges Geschäftsmodell der Musikbranche geworden und entwickelt sich ständig weiter. Die Zeit der CDs und DVDs wird wohl bald Geschichte sein. Musik wird in Zukunft immer mehr über Online-Anbieter konsumiert, die kontextsensitiv auf persönliche Präferenzen der Konsumenten eingehen. Der Prozess der Lizenzierung und Verwertung der Musiknutzung im Internet ist jedoch ein komplexes Problem, das aus Sicht der Informatik bisher noch wenig untersucht wurde und im Online-Markt eine neue Herausforderung für alle Beteiligten darstellt. Konnte die Abrechnung der Musiknutzungen bis heute über klassische IT-Verfahren überwiegend in Batchprozessen und Datenbank-gestützt erfolgen, so reichen womöglich in Zukunft diese Ansätze nicht mehr aus. Die Komplexität liegt hier neben dem Zusammenspiel der beteiligten Partner vor allem in der laufend wachsenden Datenmenge, die bedingt durch die Online-Nutzung verarbeitet werden muss. So liegt es nahe, für diese Aufgabe Technologien zu untersuchen, die sich für die Verarbeitung großer Datenmengen (Big Data) eignen. Im Rahmen des Forschungsprojekts MPI (Massively Adhoc Processing in the Internet) der Hochschule für angewandte Wissenschaften München wird der Verarbeitungsprozess in Zusammenarbeit mit der GEMA eingehend untersucht. In diesem Beitrag werden erste Projektergebnisse vorgestellt, die für Teilaspekte des Verwertungsprozesses neue Lösungsansätze auf Basis aktueller Technologien erkennen lassen.
- ZeitschriftenartikelEin hybrider Empfehlungsdienst für Handelspartnerschaften im E-Commerce(HMD Praxis der Wirtschaftsinformatik: Vol. 52, No. 2, 2015) Forster, Johannes; Häusl, Martin; Mandl, Peter; Weiß, Johannes; Bresolin, SandroKaufempfehlungen werden für den Online-Handel in Zukunft zu einem immer entscheidenderen Instrument, um Kunden zu binden. Für kleinere Online-Händler ist die Entwicklung und Pflege komplexer Empfehlungssysteme nicht machbar. Zudem verfügen sie meist über ein vergleichsweise kleines Sortiment und können daher kaum Empfehlungen generieren. In diesem Beitrag soll daher die Idee eines Empfehlungsdienstes vorgestellt werden, welche die Möglichkeiten sozialer Vernetzung nutzt und auch kleineren Online-Anbietern erlaubt, sich in Netzwerken zu organisieren. Der in diesem Beitrag vorgestellte RaaS-Prototyp („Recommendation as a Service“) implementiert auf Basis von Apache Mahout für diesen Anwendungsfall einen hybriden Empfehlungsalgorithmus als Kombination der Auswertung von personenbezogenen Daten aus Facebook und der Einbeziehung von Produktdaten.
- ZeitschriftenartikelEinsatz von ACID-Transaktionen im Wandel der Zeit(HMD Praxis der Wirtschaftsinformatik: Vol. 57, No. 2, 2020) Mandl, PeterDie ACID-Transaktion ist ein starkes Konzept für die Entwicklung von Anwendungen, bei denen die Konsistenz der Daten essentiell ist. Es hat seinen Ursprung in der klassischen Transaktionsverarbeitung der 70er und 80er Jahre des letzten Jahrtausends im Kontext von Datenbanken und Transaktionsmonitoren, insbesondere für stark interaktive und nebenläufige betriebliche Anwendungen. Zunächst etablierte sich das Konzept für Anwendungen, die nur eine einzige, später auch mehrere Datenbanken in lokalen Transaktionen nutzen. Ab Mitte der 80er Jahre entwickelte man das Konzept dann für verteilte Anwendungen mit mehreren Datenbanken oder Message Queuing Systemen (allgemein als Ressourcenmanager bezeichnet) weiter. Es wurde damit allerdings auch weit komplexer und fehleranfälliger. Verteilte Koordinationsprotokolle, auch als Commit-Protokolle bezeichnet, wurden in Middleware-Lösungen integriert. Die Schwächen von Commit-Protokollen wegen der Notwendigkeit der zentralen Koordination erschwerten oft die praktische Nutzung verteilter Transaktionen. Trotzdem versuchte man das Konzept auch für serviceorientierten Architekturen, insbesondere für Webservices zu adaptieren. Umfangreiche Spezifikationen wurden erstellt. In den letzten Jahren ging man im praktischen Einsatz der Transaktionsverarbeitung wieder zurück zu den Wurzeln, wie insbesondere bei Microservice-Architekturen beobachtet werden kann. Aber auch das Saga-Transaktionsmodell wird für Microservice-Architekturen in Erwägung gezogen. Auch der dedizierte Einsatz von ACID-Transaktionen bei stark replizierten Lösungsansätzen insbesondere bei NoSQL-Datenbanken ist aktuell im Kommen. The ACID transaction is a powerful concept for developing applications where data consistency is essential. It has its origins in the classical transaction processing of the 70s and 80s of the last millenium in the context of databases and transaction monitors, especially for highly interactive and concurrent business applications. Initially, the concept established itself for applications that use only a single database in local transactions, and later several databases as well. From the mid-1980s, the concept was further developed for distributed applications with multiple databases or message queuing systems (commonly referred to as resource managers). However, it also became far more complex and error-prone. Distributed coordination protocols, also known as commit protocols, were integrated into middleware solutions. The weaknesses of commit protocols due to the need for centralized coordination often hampered the practical use of distributed transactions. Nevertheless, attempts were also made to adapt the concept for service-oriented architectures, in particular for web services. Extensive specifications were developed. In recent years, the practical use of transaction processing has returned to its roots, as can be observed in microservice architectures in particular. But the Saga transaction model is also being considered for microservice architectures. The dedicated use of ACID transactions for highly replicated solutions, especially for NoSQL databases, is also currently on the rise.
- ZeitschriftenartikelErkennung von Duplikaten in Big Data am Fallbeispiel der digitalen Musiknutzung(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 3, 2018) Lindner, Tobias; Mandl, Peter; Bauer, Nikolai; Grimm, MarkusDie Beschreibung von Musikwerken ist heute nicht international genormt und daher kommt es vor allem in der Online-Musiknutzung häufig vor, dass Musikwerke in Online-Plattformen wie Spotify und Apple Music unterschiedlich gespeichert sind. Die Abrechnung von Musiknutzungen ist bei den zuständigen Verwertungsgesellschaften zwar schon seit längerem digitalisiert, aber die Feststellung der Eindeutigkeit von Musikwerken ist nicht ohne weiteres möglich. Dazu bedarf es effizienter Algorithmen zur Objektidentifikation. In dieser Arbeit wird ein Vergleich verschiedener Algorithmen wie Damerau-Levenshtein, Jaro-Winkler, Smith-Waterman u. a. zur Objektidentifikation bei Musikwerken durchgeführt. Da es sich um sehr rechenintensive Algorithmen handelt, haben wir die Algorithmen für eine Massenverarbeitung in einem Apache Hadoop-Cluster unter Nutzung von MapReduce adaptiert. Über einen umfangreichen Vergleichsdatensatz, der mit Apache HBase verteilt gespeichert wurde, haben wir die wichtigsten Algorithmen auf die Qualität der Duplikatserkennung und auf ihre Leistung hin untersucht. Es hat sich gezeigt, dass die sehr häufig verwendete Levenshtein-Distanz nicht am besten abschneidet. Durch den Einsatz anderer Algorithmen, beispielsweise der Jaro-Winkler-Distanz sind bessere Ergebnisse erzielbar und zwar sowohl bei der Zuordnungsqualität als auch bei der Verarbeitungsgeschwindigkeit. Today there is no international standard that specifies the description of a musical work. Therefore online platforms like Spotify or Apple Music store these works using different attributes. So even with a digital billing process that collecting societies use today, it is often difficult to identify a work correctly. Therefore efficient algorithms for object identification are necessary. In this article we compare different algorithms like Damerau-Levenshtein, Jaro-Winkler, Smith-Waterman and others in this context. Since these algorithms are computationally quite expensive, we have adapted them for mass data processing in an Apache Hadoop cluster using MapReduce. Using an extensive set of comparative data, stored with Apache HBase, we examined the most important algorithms for the quality of duplicate recognition and their performance. The results indicate that the frequently used Levenshtein distance does not perform best. By using other algorithms, such as the Jaro-Winkler distance, better results can be achieved in both matching quality and processing speed.
- ZeitschriftenartikelHoch verfügbare und konsistente Datenhaltung in der Cloud(HMD Praxis der Wirtschaftsinformatik: Vol. 49, No. 6, 2012) Kailer, Daniel; Mandl, PeterenDie Verlagerung von Daten in die Cloud wird immer beliebter. Für Cloud-Storage-Anbieter bedeutet dies, dass ihre Infrastruktur eine Vielzahl von Anfragen und ein hohes Datenvolumen meistern muss. Vor allem die gleichzeitige Gewährleistung einer hoch verfügbaren und konsistenten Datenhaltung stellt dabei eine Herausforderung dar, wie das in dem Beitrag beschriebene CAP-Theorem zeigt. Die Anwender einer Cloud-Storage-Lösung müssen sich bewusst sein, welche Strategie der jeweilige Anbieter verfolgt. Während das Angebot Windows Azure Platform von Microsoft durchgehend streng konsistente Zugriffe durchführt, setzt das Angebot Amazon Web Services (AWS) auf eine letztendliche Konsistenz.
- ZeitschriftenartikelJava-Webframeworks — ein ganzheitlicher Vergleich(HMD Praxis der Wirtschaftsinformatik: Vol. 45, No. 5, 2008) Münz, Sebastian; Mandl, PeterBei der Entwicklung von Webanwendungen setzen Unternehmen vermehrt Webframeworks ein. Diese stellen Bausteine und Verfahren für effizientere Entwicklungsprozesse zur Verfügung. Da deren Einsatz aber nicht nur Vorteile mit sich bringt, sondern auch Abhängigkeiten schafft, die zum Teil nur mit hohem Kostenaufwand aufzulösen sind, ist die Wahl eines Webframeworks als strategische Entscheidung zu betrachten. In diesem Artikel werden für gängige Webframeworks sowohl technische als auch strategische Entscheidungshilfen erarbeitet.
- ZeitschriftenartikelKlassisches Multi-threading versus MapReduce zur Parallelisierung rechenintensiver Tasks in der Amazon Cloud(HMD Praxis der Wirtschaftsinformatik: Vol. 55, No. 2, 2018) Mandl, Peter; Döschl, AlexanderDer vorliegende Beitrag befasst sich mit dem Vergleich von rechenintensiven multi-threaded und MapReduce-Lösungen in einer Amazon Cloud unter Nutzung der Amazon AWS-Dienste EC2 und EMR. Als Fallbeispiel für unsere Experimente wurde ein einfaches, aber rechenintensives Geduldsspiel verwendet. Zur Ermittlung aller Lösungen mit der Brute-Force-Methode mussten 15! Permutationen ermittelt und jeweils auf die Lösungsregeln hin getestet werden. Die Implementierung unserer Experimentierlösung erfolgte in der Programmiersprache Java mit einem einfachen multi-threaded Algorithmus und alternativ mit einem MapReduce-Algorithmus. Die Lösungen wurden in Amazon-EC2/EMR-Clustern auf ihre Leistungsfähigkeit und Skalierbarkeit hin verglichen. Die Hadoop-Verarbeitungszeit skalierte annähernd linear (leicht sublinear). Für die Beurteilung der Skalierbarkeit sollten aber unseren Experimenten zufolge auch die Anzahl an Inputsplits, die Auslastung der Hardware und weitere Aspekte herangezogen werden. Der Vergleich der multi-threaded mit der MapReduce-Lösung unter Amazon EMR (Apache Hadoop) ergab, dass die Verarbeitungszeit gemessen in CPU-Minuten bei MapReduce um mehr als 30 % höher war. This article compares CPU-intensive multi-threaded with MapReduce solutions running in the Amazon Cloud using the AWS services EC2 and EMR. As a case study for our experiments a simple, but compute-intensive puzzle was used. In order to compute all solutions of the puzzle with a brute-force method, 15! permutations had to be calculated and tested against the rules of the puzzle. Java was used to implement our experimental solutions. We used a simple multi-threaded algorithm and a MapReduce algorithm alternatively. We compared our solutions concerning performance and scalability by using an Amazon ECR/EMR cluster. The processing time with Hadoop behaves approximately linear (slightly sublinear). In the assessment of scalability according to our experiments also the number of input splits, the hardware utilization and other aspects should be taken into account. The comparison based on Amazon EMR (Apache Hadoop) shows a 30 percent higher processing time of the MapReduce solution.
- MagazinartikelMein Prof, der Chef(.inf: Vol. 2, No. 2, 2024) Poleck, Stefan H.; Mandl, PeterPeter Mandl hat bereits früh erkannt, dass Hochschullehre von Erfahrungen in der Praxis profitieren kann. Im Interview spricht er über seinen Unterricht, die Vorteile für seinen Arbeitgeber und das, was noch viele daran hindert, seinen Weg einzuschlagen.
- ZeitschriftenartikelNutzung von Apache Mahout für eine leichtgewichtige Empfehlungsgenerierung auf der Basis von Produktbewertungen(HMD Praxis der Wirtschaftsinformatik: Vol. 52, No. 2, 2015) Ali, Najum; Mandl, Peter; Baumgärtner, RainerKennt man das Kaufverhalten seiner Kunden im Onlinehandel, so lassen sich daraus mit Softwarelösungen personalisierte Empfehlungen ableiten. Dies praktizieren Online-Händler schon seit vielen Jahren. Transaktionsdaten aus Online-Verkäufen, Rating-Daten und neuerdings auch Kontextinformationen werden gesammelt und mit ausgefeilten Algorithmen verarbeitet, um Produktempfehlungen manchmal sogar annähernd in Echtzeit zu berechnen. Die Weiterentwicklung von Empfehlungsalgorithmen und -systemen schreitet sowohl in der Forschung als auch in der Praxis im Zuge der nächsten E-Commerce-Generation voran. Meistens sind die von großen Online-Händlern verwendeten Softwarelösungen heute sehr individuell und im Detail der Öffentlichkeit vorenthalten. Um die Möglichkeiten kleinerer Online-Anbieter zu verbessern, wurde im Competence Center Wirtschaftsinformatik der Hochschule München (CCWI) gemeinsam mit Industriepartnern auf Basis von Open-Source-Technologien wie Apache Mahout eine mit vertretbarem Aufwand einsetzbare (leichtgewichtige) und plattformunabhängige Lösung entwickelt. Neben einer Webservice-Schnittstelle zur einfachen Integration des Empfehlungsdienstes in die eigene Anwendung wurde weiterhin auch eine webbasierte Anwendung entwickelt, mit der die genutzten Recommendation-Algorithmen konfiguriert und erprobt werden können, um so die Auswirkungen von Parameteränderungen bei der Empfehlungsgenerierung besser nachvollziehen zu können.