Auflistung nach Schlagwort "Digital ethics"
1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- ZeitschriftenartikelAkzeptierte Geschäftsprozesse gestalten und implementieren(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Drewes, Lars; Nissen, VolkerGemäß der Prozessakzeptanztheorie hat die Akzeptanz von Prozessen einen Einfluss auf deren korrekte Ausführung. Sollen Abweichungen und Manipulationen in der Prozessausführung, die auch ethisch negativ konnotiert sein können, verhindert werden, ist es notwendig zu verstehen, welche Faktoren einen Einfluss auf die Akzeptanz aufweisen. In der vorliegenden Arbeit wird der Einfluss von Selbstheilungsfähigkeiten im Prozess sowie der Einfluss eines damit verbundenen Verlustes der Kontrolle der Beteiligten über die Daten in zwei Experimenten untersucht. Dadurch, dass ein Algorithmus die Kontrolle über den Prozess übernimmt, ist hier die digitale Ethik betroffen. Die Basis für das Experiment bildet ein generischer Einkaufsprozess, der online über Amazon’s Mechanical Turk bereitgestellt wird. Die Prozessakzeptanz wird mit Hilfe eines Fragebogens aufgeteilt in die drei Dimensionen der Einstellung (kognitiv, affektiv, konativ) gemessen. Das erste Experiment zeigt, dass es einen signifikanten Unterschied in der Akzeptanz von Prozesse mit und ohne Selbstheilungsmechanismen gibt. Die Ergebnisse der Tests deuten darauf hin, dass die Selbstheilung nicht automatisch besser akzeptiert wird als wiederholte manuelle Anstrengungen. Dieses Ergebnis ist auch praktisch sehr wichtig, denn automatisierte Rekonstruktionen nehmen heute eine wichtige Rolle in der IT-gestützten Ausführung von Geschäftsprozessen ein. Eine vorläufige Erklärung ist, dass ein Verlust der Kontrolle der Teilnehmer über die Daten zu diesem scheinbar kontra-intuitiven Ergebnis führt. Im zweiten Experiment wird daher der Kontrollverlust untersucht. Es konnte dahingehend keine Signifikanz festgestellt werden, allerdings deutet die gemessene Teststärke darauf hin, dass das gewählte Testdesign möglicherweise nicht sensibel genug war, solche Unterschiede messen zu können. Weitere Untersuchungen sind daher nötig. According to the process acceptance theory, the acceptance of processes has an influence on their correct execution. If deviations and manipulations in the process execution, which can also have negative ethical connotations, are to be prevented, it is necessary to understand which factors have an influence on the acceptance. In the present work, the influence of self-healing capabilities in the process as well as the influence of a related loss of control of the participants over the data is investigated in two experiments. By having an algorithm take control of the process, digital ethics are affected here. The basis for the experiment is a generic shopping process provided online via Amazon’s Mechanical Turk. Process acceptance is measured using a questionnaire divided into the three dimensions of attitude (cognitive, affective, conative). The first experiment shows that there is a significant difference in the acceptance of processes with and without self-healing mechanisms. The results of statistic tests indicate that self-healing is not automatically better accepted than repeated manual efforts. This result is also practically very important, because automated reconstructions now play an important role in the IT-supported execution of business processes. A tentative explanation is that a loss of participant control over the data leads to this seemingly counter-intuitive result. The second experiment therefore investigates loss of control. No significance was found in this regard; however, the measured test strength suggests that the chosen test design may not have been sensitive enough to measure such differences. Further investigations are therefore necessary.
- ZeitschriftenartikelDer Artificial Intelligence Act – eine Praxisanalyse am Beispiel von Gesichtserkennungssoftware(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Wudel, Alexandra; Schulz, MichaelDer Einsatz Künstlicher Intelligenz (KI) eröffnet ein Spannungsfeld zwischen Innovationspotentialen und Regulierungsdrang. Auf harmonisierte Richtlinien zur Regulierung dieser Technologie kann derzeit jedoch nicht zurückgegriffen werden. Gleichzeitig kommt es zu Diskriminierungsfällen, durch die der Bedarf an entsprechenden Gesetzen deutlich wird. Ein politischer Meilenstein in der Entwicklung eines Regelwerks kommt aus der Europäischen Union. Seit dem 21.04.2021 liegt der Artificial Intelligence Act der Europäischen Kommission vor. Der Gesetzesvorschlag versucht einen Spagat, um Innovationen weiter zu fördern und gleichzeitig ethische Dimensionen wie Nicht-Diskriminierung zu regulieren. Dieser Artikel stellt eine Statusanalyse von KI-Systemen in der Strafverfolgung in Europa im Vergleich zu den USA vor. Dieser soll herausstellen inwieweit derzeit ein Unterschied im Einsatz von KI aufgrund der geografischen Lage existiert und welche Chancen ebenso wie Herausforderungen ein globales Regelwerk für den ethischen Einsatz von KI aus europäischer Perspektive birgt. Da die Anwendung von Gesichtserkennungssoftware im Bereich der Strafverfolgung weit verbreitet ist, kann durch diese Untersuchung dringend notwendiger Handlungsbedarf der Gesetzgebung erkannt werden. The use of Artificial Intelligence (AI) opens up a field of tension between innovation potential and the need for regulation. However, harmonized guidelines for regulating this technology do currently not exist. At the same time, there are cases of discrimination in which the need for appropriate laws becomes clear. A political milestone in the development of a set of rules comes from the European Union. The Artificial Intelligence Act of the European Commission has been in place since April 21, 2021. The proposed law attempts a balancing act to further promote innovation and at the same time to regulate ethical dimensions such as non-discrimination. This article presents a status analysis of AI systems in law enforcement in Europe compared to the USA. This comparison is intended to highlight the extent to which there is currently a difference between the use of AI due to the geographical location and what opportunities and challenges a global set of rules for the ethical use of AI offers from a European perspective. Since the use of facial recognition software is widespread in the area of law enforcement, this investigation can identify the urgent need for legislative action.
- ZeitschriftenartikelCorporate Digital Responsibility(Business & Information Systems Engineering: Vol. 64, No. 5, 2022) Mueller, Benjamin
- ZeitschriftenartikelDigitale Ethik aus Studierendensicht – Ethische Treiber und Barrieren zur Nutzung eines Digitalen Studienassistenten(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Greiff, PaulDie fortschreitende Digitalisierung der Hochschullandschaft führt dazu, dass sowohl Lehrende als auch Studierende sich auf den Umgang mit neuen Technologien einstellen müssen. Eine dieser neuen Technologien sind digitale Assistenten, welche bereits in anderen Bereichen des täglichen Lebens Einzug gehalten haben. Digitale Assistenten besitzen die Fähigkeit mehrere vormals unverknüpfte Daten zu verbinden, um auf dieser Grundlage Empfehlungen abzugeben oder sogar Vorhersagen zu treffen. Im Hochschulkontext kann ein Digitaler Studienassistent (DSA) Studierenden beispielsweise Vorschläge für eine Modulwahl geben, auf Grundlage der fachlichen Interessen zusätzliches Lehrmaterial zur Verfügung stellen oder auch bei der Organisation eines Auslandssemesters unterstützen. Bei all den vielfältigen Anwendungsmöglichkeiten und der mitschwingenden Euphorie, die ein solches System bei der Implementierung mit sich bringt, wird oft vergessen, die Nutzerperspektive angemessen zu berücksichtigen. Besonders der Bereich digitale Ethik hat hier bisher eher ein Schattendasein geführt. Dabei ist insbesondere ein System, welches persönliche Daten verknüpft und mit Entscheidungshinweisen in den Alltag der Nutzer eingreift, der kritischen ethischen Betrachtung der Nutzergruppe, im Falle des DSA : den Studierenden, ausgesetzt. Dieser Beitrag nimmt sich daher dieser Thematik an und untersucht die ethischen Treiber, welche eine Nutzung des DSAs begünstigen und Barrieren, welche einer Nutzung entgegenstehen. Zudem soll auch geklärt werden, was Studierende grundlegend unter digitaler Ethik verstehen. Ziel ist es, mittels einer explorativen Befragung einen Überblick über die genannten Faktoren zu geben und aufzuzeigen, wie diese von Entwicklerseite berücksichtigt werden können. The ongoing digitization of the higher education landscape implies that both teachers and students often have to adapt to new technologies. One of these new technologies are digital assistants, which have already found their way into other areas of daily life. Digital assistants have the ability to connect multiple unrelated data to make recommendations or even predictions based on that data. In the university context, a Digital Study Assistant (DSA) could give students recommendations for a module choice, provide additional teaching material based on subject-specific interests, or even support them in organizing a semester abroad. With all the diverse application possibilities and the resonating euphoria that such a system entails, the user perspective is often forgotten to be adequately considered. The area of digital ethics in particular has tended to lead a rather shadowy existence here so far. In this respect, a system that links personal data and intervenes in the everyday life of users with decision-making instructions is particularly exposed to the critical ethical consideration of the user group, in the case of the DSA: the students. This paper therefore addresses this issue and examines the ethical drivers that favor the use of the DSA and barriers that stand in the way of its use. In addition, it will also clarify what students fundamentally understand by digital ethics. The aim is to provide an overview of the factors mentioned by means of an explorative survey and to show how they can be taken into account by developers.
- ZeitschriftenartikelFuzzy Ethizität: Radar für ethische Künstliche Intelligenz(HMD Praxis der Wirtschaftsinformatik: Vol. 59, No. 2, 2022) Kaufmann, Michael; Meier, AndreasEine Informations- und Wissensgesellschaft betreibt ihre Wertschöpfungskette primär durch Aufbau, Verarbeitung und Weitergabe von Informationen (digitalen Produkten und Dienstleistungen) respektive von Wissen (intelligenten Produkten und Wissensdienstleistungen). Mit Künstlicher Intelligenz angereicherte Produkte und Dienstleistungen erhöhen deren Verfügbarkeit und Sicherheit, indem Entscheidungen datenbasiert automatisiert werden. Allerdings müssen Ethikregeln berücksichtigt werden, um die Vertrauensbasis digitaler Gesellschaften zu stärken und nachhaltige Entwicklung zu fördern. Im Folgenden wird ein Radarsystem für die Bewertung der Ethizität im Digitalzeitalter vorgeschlagen mit dem Ziel, eine ethische Entwicklung von intelligenten Informationssystemen zum Wohl der Gemeinschaft zu überprüfen. Die sechs Dimensionen dieses Systems basieren auf der Grundlage von Menschenrechten und einer umfassenden Analyse bestehender Ethik-Rahmenwerke für Künstliche Intelligenz: Gleichheit & Gerechtigkeit, Schutz & Hilfe, Privatsphäre & Datenschutz, Freiheit & Autonomie, Solidarität & Nachhaltigkeit und Verantwortlichkeit & Transparenz. Der Beitrag diskutiert diese sechs Dimensionen digitaler Ethik und schlägt ein Radarsystem zur visuellen Analyse der Ethizität von intelligenten Informationssystemen vor. Danach wird das Radarsystem mithilfe der Fallstudie Privacy Setting Framework auf Nützlichkeit evaluiert. Ein Fazit des Beitrags summiert die Erkenntnisse. An information and knowledge society operates its value chain primarily by building, processing, and passing on information (digital products and services) and knowledge (intelligent products and knowledge services). Artificial intelligence-enriched products and services increase their availability and security by automating data-based decisions. However, ethics rules need to be considered to strengthen the trust basis of digital societies and promote sustainable development. In the following, a radar system for the evaluation of ethicity in the Digital Age is proposed with the aim of checking ethical development of intelligent information systems for the benefit of the community. The six dimensions of this system are based on human rights and a comprehensive analysis of existing ethics frameworks for Artificial Intelligence: equality & justice, protection & assistance, privacy & data protection, freedom & autonomy, solidarity & sustainability, and accountability & transparency. The paper discusses these six dimensions of digital ethics and proposes a Radar System for visually analyzing the ethics of intelligent information systems. Afterwards, the radar system is evaluated for usefulness using the Privacy Setting Framework case study. A conclusion of the paper sums up the findings.