Refine
Document Type
- Master's Thesis (13) (remove)
Has Fulltext
- yes (13)
Is part of the Bibliography
- no (13)
Keywords
- Barrierefreiheit (3)
- Accessibility (1)
- Adoption (1)
- Apache Mesos (1)
- Authentication (1)
- BITV 2.0 (1)
- Bildungsmedienanbieter (1)
- Convolutional Neural Network (1)
- Deep Learning (1)
- Deinkbarkeit (1)
- Digitaldruck (1)
- Digitale Bildungsmedien (1)
- Docker (1)
- EN 301 549 (1)
- Eingabemethoden (1)
- Erdgashandel (1)
- FIDO (1)
- Feuerausbreitung (1)
- Fire Propagation (1)
- Fully Convolutional Network (1)
- Guidelines (1)
- Hochverfügbarkeit (1)
- Informatik (1)
- Lernen (1)
- Linear Programming (1)
- Lineare Optimierung (1)
- MMOG (1)
- MMORPG (1)
- Microservices (1)
- Nachhaltigkeit (1)
- Natural Gas Trading (1)
- OER (1)
- Offene Bildungsressourcen (1)
- Offene digitale Bildungsmedien (1)
- Offenheitsidee (1)
- Open Education (1)
- Open Educational Resources (1)
- Operations Research (1)
- Passkeys (1)
- Personalisierung (1)
- Print-on-Demand (1)
- Publizieren (1)
- RGB-D (1)
- Richtlinien (1)
- Schulbuchverlag (1)
- Semantic Segmentation (1)
- Skalierbarkeit (1)
- Spiel (1)
- VR (1)
- Vergleich (1)
- Verteilte Systeme (1)
- Virtual reality (1)
- WCAG (1)
- WebAuthn (1)
- Website (1)
- container virtualization (1)
- docker (1)
- security (1)
- software supply chain (1)
- threat modeling (1)
Institute
- FB 1: Druck und Medien (13) (remove)
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
OpenAPETutorial - eine problembasierte Lerneinheit zur Personalisierung von SmartHome Anwendungen
(2021)
Die Arbeit hat die Konzeption einer problembasierten Lerneinheit zur Personalisierung von SmartHome Anwendungen zum Thema.
Dafür wurde neben der Lerneinheit ein Java Client für das Personalisierungsframwork OpenAPE und eine Tutorial Anwendung für OpenAPE, welche in der Lerneinheit als praktische Übung genutzt wird, entwickelt.
Im theoretischen Teil der Arbeit werden drei Themen erörtert. Zu Beginn wird das Thema Personalisierung mit besonderem Schwerpunkt auf das genutzte Personalisierungsframework OpenAPE behandelt.
Darauf folgen die Themen problembasiertes Lernen, hier wird in problembasiertes Lernen im Allgemeinen und problembasiertes Lernen in der Informatik und Programmierung unterschieden.
Für das letzte Thema Learning Analytics wird untersucht, was Learning Analytics bedeutet und wie es in eine Lerneinheit integriert werden kann.
Im praktischen Teil wurde ein Java Client für OpenAPE entwickelt. Dieser kann in Zukunft von allen Java und Android Anwendungen verwendet werden. Außerdem wurde eine Lerneinheit konzipiert, mit welcher die Anwendung der Schnittstellen OpenAPE und OpenHAB erlernt werden kann. Hierfür wurde die sogenannte OpenAPETutorial Anwendung entwickelt. Diese Anwendung wird für die Studierenden in der Lerneinheit als eine Art Lückentext als praktische Übung verwendet. In der sehr einfach aufgebauten Anwendung können Lampen über die OpenHAB Schnittstelle angesprochen werden und Einstellungen, welche zur Personalisierung genutzt werden, können über OpenAPE synchronisiert werden.
Schlussendlich wird die Lerneinheit in qualitativen Benutzertests durchgeführt und somit auf ihre Funktionalität geprüft. Es soll herausgefunden werden, ob die konzipierte Lerneinheit so durchführbar ist. Durch diese Vorgehensweise wurden bereits einige Schwachstellen in der Lerneinheit entdeckt und behoben. Grundsätzlich haben die Benutzertests gezeigt, dass die Lerneinheit so wie geplant durchgeführt werden kann. Dennoch sollte die Lerneinheit in einer größeren Gruppe mit Studierenden der Zielgruppe durchgeführt werden, um herauszufinden, ob sie in einer echten Umgebung funktioniert. Hier sollte besonders auf die benötigte Zeit geachtet werden.
The increasing availability of online video content, partially fueled by the Covid-19 pandemic and the growing presence of social media, adds to the importance of providing audio descriptions as a media alternative to video content for blind and visually impaired people. In order to address concerns as to what can be sufficiently described and how such descriptions can be delivered to users, a concept has been developed providing audio descriptions in multiple levels of detail. Relevant information is incorporated into an XML-based data structure. The concept also includes a process to provide optional explanations to terms and abbreviations, helping users without specific knowledge or people with cognitive concerns in comprehending complex videos. These features are implemented into a prototype based on the Able Player software. By conducting a user test, the benefits of multi-layered audio descriptions and optional explanatory content are evaluated. Findings suggest that the choice of several levels of detail is received positively. Users acknowledged the concept of explanations played parallelly to the video and described further use cases for such a practice. Participants preferred a higher level of detail for a high-paced action video and a lower level for informative content. Possibilities to extend the data structure and features include multilanguage use cases and distributed systems.
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Video games have a significant influence on our time. However, lack of accessibility makes it hard for disabled gamers to play most of them. Virtual reality offers new possibilities to include people with disabilities and enable them to play games. Additionally, serious VR games provide educational benefits, such as improved memory and engagement.
In this work, the accessibility problems in video games and VR applications are explored with an emphasis on serious games as well as a general lack of guidelines. An overview of existing guidelines is given. From this, a set of guidelines is derived that summarizes the relevant rules for accessible VR games.
New ways to interact with VR environments come with both opportunities and challenges. This work investigates the applicability of different hands-free input methods to play a VR game. Using a serious game five focus and three activation methods were implemented exemplary with the Oculus Go. The suitability of these methods was analyzed in a pre-study that excluded head movements for controlling the game. The remaining input methods were evaluated in an explorative user study in terms of operability and ease of use.In summary, all tested methods can be used to control the game. The evaluation shows head-tracking as the preferred input method, while scanning eye-tracking and voice control were rated mediocre.
In addition, the correlation between input methods and different menu types was examined, but the influence turned out to be negligible.
Jeder Mensch könnte einen Schlaganfall erleiden, der eine der Hauptursachen für Behinderungen im erwachsenen Alter ist. Die Überlebenden haben oft Lähmungen und Spastiken und benötigen daher ständige Hilfe, da selbst die Ausführung der einfachsten alltäglichen Aufgaben eine unüberwindbare Herausforderung darstellen kann. Um den Betroffenen zu helfen, wurde im Rahmen des Forschungsprojekts KONSENS unter der Leitung des Universitätsklinikums Tübingen ein Hand-Exoskelett entwickelt, das auch Schlaganfallpatienten nutzen können.
Ziel dieser Arbeit ist die Implementierung einer Steuerung für dieses Hand-Exoskelett auf der Google Glass, sowie Android Smartphones und Smartwatches. Der entstandene Prototyp wurde mit Studenten der Hochschule der Medien Stuttgart und Bekannten des Autors evaluiert. Diese Arbeit bildet den Zwischenstand der Evaluation nach zwanzig Probanden ab. Der Schwerpunkt liegt dabei auf dem Vergleich der Nutzerakzeptanz und Eignung verschiedener Ein- und Ausgabemethoden wie Touch-Input, Sprachsteuerung oder Eyetracking.
Darüber hinaus fasst diese Arbeit auch aktuelle Richtlinien zur barrierefreien Implementierung von Augmented-Reality-Anwendungen zusammen und vergleicht jene mit einem daraus abgeleiteten gemeinsamen Kriterienkatalog.
Mit der seit Jahren fortschreitenden Digitalisierung des Medienmarktes werden auch Bildungsmedienanbieter mit der Forderung konfrontiert, einen Beitrag zur Innovation des Bildungsbereichs zu leisten und Lehr- und Lernprozesse (auch) digital zu gestalten. Für den Schulsektor erfüllen diese Anforderungen mittlerweile größere Bildungsmedienanbieter in Deutschland dadurch, dass sie z. B. digitale Schulbücher und Zusatzmaterialien anbieten und kommerziell vertreiben. Offene Lernmaterialien in dem Sinne, dass sie von Lehrpersonen selbst in Plattformen eingestellt, mit anderen geteilt und unter offenen Lizenzen zur Veränderung und Weiterverwendung frei gegeben werden, sind in Deutschland allerdings immer noch eine Randerscheinung. Vor allem die Finanzierung durch Bildungsministerien und eine Integration in bestehende Verlagsstrukturen ist nicht gegeben. Aktuell wird die „Offenheitsidee" bisher nur von einzelnen engagierten Pädagoginnen und Pädagogen gelebt und vorangetrieben. Zudem verteidigen tradierte Bildungsmedienverlage hartnäckig ihre bisherigen Geschäftsmodelle. In der Arbeit wird dargestellt, was der Offenheitsgedanke für den Bildungsmedienbereich impliziert und mit welchen Strategien sich insbesondere Schulbuchverlage als Bildungsmedienanbieter gegen den Einbezug offener Lernmaterialien in ihre Geschäftsmodelle positionieren. In diesem Zusammenhang wird gezeigt, dass die drei führenden Schulbuchverlage in Deutschland zurzeit nur geschlossene digitale Lernmaterialien anbieten. Darüber hinaus werden alternative (international schon umgesetzte) Geschäftsmodelle sowie potenzielle Geschäftsmodell-Ideen für Deutschland vorgestellt. Es wird ein prospektives, fiktives Geschäftsmodell für einen Schulbuchverlag in Deutschland entwickelt, in dem offene und geschlossene Bildungsmedien unter einem Verlagsdach vertrieben werden. Die Positionen der Vertreterin einer offenen Lernmaterialien-Plattform und des Vertreters eines tradierten Bildungsmedienanbieters zu diesem Modell werden eingeholt, analysiert und ausgewertet. Im Hinblick auf Stellenwert und Vermarktung von offenen digitalen Bildungsmedien (OER) zeigt sich im Ergebnis, dass Befürworter und Entwickler von offenen Bildungsmedien und tradierte Schulbuchverlage zurzeit keine gemeinsamen Ziele und Geschäftsmodelle sehen.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.