Refine
Year of publication
Document Type
- Bachelor Thesis (28)
- Master's Thesis (14)
- Book (11)
- Researchpaper (2)
- Other (1)
- Report (1)
Has Fulltext
- yes (57)
Is part of the Bibliography
- no (57)
Keywords
- Barrierefreiheit (9)
- Verlag (4)
- Digitale Barrierefreiheit (3)
- Gamification (3)
- Accessibility (2)
- Buchhandel (2)
- Deterministic Lockstep (2)
- Digitaldruck (2)
- Nachhaltigkeit (2)
- Networked Games (2)
Institute
- FB 1: Druck und Medien (57) (remove)
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung von Technologien, die das Infotainmentsystem
von Fahrzeugen mit mobilen Endgeräten verbinden. Dabei werden Eigenschaften wie der
technische Aufbau der Technologien, Angebotsbreite und weitere relevante Attribute analysiert, die
anschließend innerhalb einer Matrix gegenüber gestellt werden. Nachfolgend werden die Geschäftsmodelle
der Unternehmen analysiert, die die zuvor betrachteten Verbindungstechnologien
anbieten. Als Vorgehensweise wurde das Business Model Canvas von Alexander Osterwalder und
Yves Pigneur ausgewählt, da es alle wesentlichen Elemente eines Geschäftsmodells einbeziehen und
deren Zusammenspiel betrachten. Um ein abschließendes Fazit zu formulieren, werden die Auswirkungen
der Geschäftsmodelle auf Automobilhersteller und Entwickler von Applikationen erörtert und
ausgewertet. Durch die sich ergebenden Risiken und Potenziale wird eine sinnvolle Wahl von Technologien
getroffen, die in die zukünftigen Geschäftsmodelle von Automobilherstellern und ApplikationsEntwicklern
einbezogen werden sollten.
The capabilities of Artificial Intelligence (AI) are utilized increasingly
in today‘s world. The autonomous and adaptive characteristics
allow applications to be more effective and efficient. A certain
subfield of Artificial Intelligence, Machine Learning, is enabling
services to be tailored to a user‘s specific needs. This could prove to
be useful in an information-heavy field such as Statistics. As design
research from SPSS Statistics, a legacy statistical application, has
indicated, statistics beginners struggle to tackle the challenge of
preparing a statistical research study. They turn to several sources
of information in an attempt to find help and answers but are not
always successful. This leads to them being unconfident before
they have even started to execute the statistical study. The adaptive
features of Artificial Intelligence could help support students
in this case, if designed according to established principles. This
thesis investigated the question whether an AI-powered solution
could elevate the users‘ confidence in statistical research studies.
In order to find the answer, a prototype with exemplary User Experience
was designed and implemented. Preceding research determined
the domain and market offer. User research was conducted
to ensure a human-centered outcome. The prototype was evaluated
with real test users and the results answered the question in
the affirmative.
Multiplayer games can increase player enjoyment through social interactions, cooperation, and competition. Their market popularity shows the success of especially networked multiplayer games, which pose new networking challenges to game developers. The main challenge is synchronizing game state across players. Research identifies deterministic lockstep, snapshot interpolation, and state-sync as primary methods for this task, each with distinct advantages and disadvantages.
This work, and the master thesis this paper is based on, quantitatively evaluated deterministic lockstep, demonstrating its vertical (entity count) and horizontal (player count) scaling limitations and compares the method to snapshot interpolation. Lockstep supports minimum 16,000 entities for up to 10 players and a horizontal scaling of 40 or more players with 1024 entities. However, a negative correlation between entity and player count limits was observed, which was indicated by the maximum scaling configurations 30 players with 4096 entities or 20 players with 8192 entities. Snapshot interpolation faced a vertical limit with 4096 entities and 10 players and horizontally with 40 or more players and 1024 entities.
The paper further contributes by comparing results to related work, summarizing synchronization methods, proposing a hybrid architecture model of deterministic lockstep with snapshot interpolation for re-synchronization and hot-joins, and deconstructing Unity Transport Package’s (UTP) network packets.
Multiplayer games can increase player enjoyment through social interactions, cooperation and competition. The popularity of such games is shown by current market trends. Especially networked multiplayer games frequently achieve great success, but confront game developers with additional networking challenges in the already complex field of game production. The primary challenge is game state synchronization across all players. Based on the current research, there are three main methods for this task – deterministic lockstep, snapshot interpolation and state-sync – with their own advantages and disadvantages.
This work quantitatively evaluated and discussed the vertical (entity count) and horizontal (player count) limitations of deterministic lockstep and compared the method to snapshot interpolation. Results showed, that deterministic lockstep has no indicated vertical scaling limitation with a player count of up to 10 supporting 16,000 or more entities. A horizontal scaling limitation could not be found either and lockstep was confirmed to work with 40 or more players while handling 1024 entities. However, both scaling dimensions correlate negatively, which was indicated by the maximum scaling configurations 30 players and 4096 entities or 20 players and 8192 entities.
An unoptimized snapshot interpolation implementation achieved a vertical scaling limitation of 4096 entities with 10 players and a horizontal scaling limit of 40 or more players with 1024 entities and therefore was found to have a lower entity limit compared to deterministic lockstep.
Furthermore, results are compared to related work. Other contributions of this thesis include an overview of game networks and the three game state synchronization techniques. An architecture model for deterministic lockstep including a hybrid approach combining it with snapshot interpolation for re-synchronization and hot-joins. And finally, a network packet deconstruction of the implemented networking framework Unity Transport Package (UTP).
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
The increasing availability of online video content, partially fueled by the Covid-19 pandemic and the growing presence of social media, adds to the importance of providing audio descriptions as a media alternative to video content for blind and visually impaired people. In order to address concerns as to what can be sufficiently described and how such descriptions can be delivered to users, a concept has been developed providing audio descriptions in multiple levels of detail. Relevant information is incorporated into an XML-based data structure. The concept also includes a process to provide optional explanations to terms and abbreviations, helping users without specific knowledge or people with cognitive concerns in comprehending complex videos. These features are implemented into a prototype based on the Able Player software. By conducting a user test, the benefits of multi-layered audio descriptions and optional explanatory content are evaluated. Findings suggest that the choice of several levels of detail is received positively. Users acknowledged the concept of explanations played parallelly to the video and described further use cases for such a practice. Participants preferred a higher level of detail for a high-paced action video and a lower level for informative content. Possibilities to extend the data structure and features include multilanguage use cases and distributed systems.
Digitale Barrierefreiheit im E-Learning - Best Practice Beispiele und Richtlinien für Autoren
(2023)
Bei ZEISS haben alle Mitarbeiter das gleiche Recht auf Bildung. Um Menschen mit
Behinderung die volle Teilhabe an E-Learnings zu ermöglichen, müssen E-Learnings
barrierefrei sein. Für die Erstellung von barrierefreien E-Learnings benötigen Autoren
eine Anleitung, wie Barrierefreiheit in ihrem Autorentool umgesetzt wird. Daraus ergibt
sich das Ziel dieser Arbeit mit dem Forschungsthema: „Erstellung eines Autoren-
Leitfadens zur Verbesserung der Barrierefreiheit von E-Learnings im
Autorentool Articulate Storyline 360 anhand eines Praxisbeispiels“.
Zur Erfüllung dieses Ziels, identifizierten wir anfangs Barrieren in vorhandenen E-Learnings.
Dafür führten wir den BITV-Test an einem möglichst repräsentativen E-Learning
durch und befragten Menschen mit Behinderungen. Das Ergebnis waren 25
Barrieren, welche uns als Grundlage für den Autoren-Leitfaden dienten. Der erstellte
Leitfaden ist eine Schritt-für-Schritt-Anleitung, in der jeweils eine Möglichkeit
beschrieben ist, wie die Barrieren mit dem Autorentool Articulate Storyline 360
vermieden werden können. Diesen Leitfaden validierten wir mittels Nutzertests mit den
Autoren. Die Ergebnisse daraus wurden für eine bessere Anwendbarkeit in den Leitfaden
eingearbeitet. Ein weiteres Resultat des Nutzertests war, dass alle Autoren den Leitfaden gerne für die Arbeit nutzen werden.
Ab Mitte 2025 wird das Barrierefreiheitsstärkungsgesetz viele Unternehmen in Deutschland dazu verpflichten, ihre Websites und Online-Shops barrierefrei zu gestalten. Sie stehen vor der Herausforderung, die Barrierefreiheit künftig in den Entwicklungsprozess ihrer digitalen Plattformen zu integrieren.
Um dies zu erleichtern, entwarfen wir im Rahmen dieser Arbeit einen Entwicklungsprozess für barrierefreie Webanwendungen in Scrum, der in einem Experiment mit anschließender heuristischer Evaluation und einer Befragung in einem E-Commerce-Unternehmen validiert wurde. Der Entwicklungsprozess befasst sich mit der Einbeziehung von Barrierefreiheit in Scrum-Elemente wie Product Backlog Items, die Definition of Ready und Definition of Done. Außerdem zeigt er bewährte Praktiken für die Implementation und das Testen von Barrierefreiheit auf.
Die Ergebnisse zeigten, dass die Erfassung von Barrierefreiheitsanforderungen in Form von Gherkin-Szenarien zu einer schnelleren Bearbeitung von Aufgaben und höheren Zufriedenheit mit dem Entwicklungsansatz im Scrum-Team beiträgt. Ferner wurde deutlich, dass die Schulung des Personals unerlässlich ist, um die Anforderungen der EN 301 549 und der WCAG vollständig zu erfüllen.
Diese Arbeit macht deutlich, dass Unternehmen zeitnah Maßnahmen ergreifen müssen, um das Barrierefreiheitsstärkungsgesetz rechtzeitig umsetzen zu können.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
In dieser Arbeit werden Design to Code Tools untersucht, die mittels generativer Künstlicher
Intelligenz Designs automatisch in Code umwandeln. Ziel ist es, zu analysieren,
wie diese Tools funktionieren und ob ihre Ergebnisse aktuellen Standards entsprechen.
Ein zusätzlicher Fokus liegt auf dem Vergleich verschiedener Tools, um ihre Unterschiede
zu ermitteln. Hierfür wurde ein Anwendungsbeispiel mit einem Testdesign
und dazugehörigem generierten Code erstellt und mittels einer Expertenbefragung
bewertet. Die Datenerhebung erfolgte nach dem Between-Subject-Verfahren und konzentrierte
sich auf die Erfassung quantitativer Daten zur optischen Ähnlichkeit, digitalen
Barrierefreiheit, Projekt- und Softwarequalität. Die Ergebnisse zeigen, dass die
Tools in der visuellen Umsetzung von Designs überzeugen können, aber in den anderen
geprüften Bereichen noch Defizite aufweisen. Diese Arbeit liefert wichtige Erkenntnisse
über den aktuellen Entwicklungsstand von Design to Code Tools und trägt
zu einer differenzierteren Betrachtung ihrer Potenziale und Grenzen bei.