Refine
Year of publication
Document Type
- Bachelor Thesis (28)
- Master's Thesis (14)
- Book (11)
- Researchpaper (2)
- Other (1)
- Report (1)
Has Fulltext
- yes (57)
Is part of the Bibliography
- no (57)
Keywords
- Barrierefreiheit (9)
- Verlag (4)
- Digitale Barrierefreiheit (3)
- Gamification (3)
- Accessibility (2)
- Buchhandel (2)
- Deterministic Lockstep (2)
- Digitaldruck (2)
- Nachhaltigkeit (2)
- Networked Games (2)
Institute
- FB 1: Druck und Medien (57) (remove)
Im Zusammenhang mit dem Projekt „BGM Vital“ der Charité Universitätsmedizin Berlin, wird erforscht, mit welchen Methoden das betriebliche Gesundheitsmanagement ge-fördert werden kann.
Hierfür wurde sich im Rahmen dieser Arbeit mit der Entwicklung einer App befasst, wel-che dazu dient, die Anwender spielerisch dazu zu motivieren, sich sportlich zu betätigen. Hierbei sollen sie nicht nur ihr Bestes geben und versuchen an ihre Grenzen zu gehen, sondern es soll auch analysiert werden, ob es der Fitness App gelingen würde, den Benutzer nach einem durchgeführten Training zu einem erneuten Training mit dieser App zu motivieren.
Es wird beschrieben, wie die App entwickelt wurde. Von der Anforderungsliste über die genutzten Technologien und dem Ablauf der App, bis zu der eigentlichen Entwicklung.
Des Weiteren wird der Testablauf näher beleuchtet. Hierbei wird auf den Testaufbau, die Testpersonen, die zu absolvierenden Trainingsübungen und die Durchführung des Tests eingegangen. In einer abschließenden Diskussion wurden die Testergebnisse interpretiert und bewertet.
Die zunehmende Popularität mobiler Endgeräte und Applikationen (Apps) führt zu einem Wandel des Medienkonsumverhaltens.
Verlage müssen auf diese Veränderung reagieren, Produkte für Smartphones und Tablets anbieten und – aufgrund der mangelnden Zahlungsbereitschaft für digitale Inhalte – auch effiziente Erlösmodelle entwickeln.
Eine strategische Neupositionierung und die Modernisierung traditioneller Geschäftsmodelle und Produktionsprozesse sinderforderlich.
Ziel der vorliegenden Masterthesis ist, Erfolgsfaktoren und Handlungsempfehlungen für Geschäftsmodelle und die Vermarktung von Apps durch Verlage zu entwickeln.
Im Fokus stehen Apps, die der Zielgruppe orts- und zeitunabhängige, kontextbezogene Services bieten und über eine reine Wiedergabe von Verlagscontent hinaus gehen. Im ersten Schritt wurde dafür ein theoretischer Ansatz für mobile Geschäftsmodelle konzipiert.
Das Modell mit sieben Bestandteilen berücksichtigt App-spezifische Besonderheiten und dient speziell Fach- und Sachverlagen als Leitfaden für die Realisierung und Monetarisierung von Apps. Im zweiten Schritt wurden anhand von qualitativen Expertenbefragungen und der Analyse von Apps potenzielle Erfolgsfaktoren von mobilen Geschäftsmodellen und Produkten identifiziert.
Die Interviews zeigten ein sehr breites Meinungsspektrum und decken – ebenso wie die Analysen – eine Vielzahl Erfolg versprechender Schlüsselfaktoren auf, die in Form eines Best Practice zusammengefasst und diskutiert wurden.Basierend auf dem theoretischen Modell und den erläuterten Erfolgsfaktoren wurden im praktischen Teil der Thesis Handlungsempfehlungen sowie konkrete Ideen für
Service-orientierte Apps für den Verlag Eugen Ulmer entwickelt.
Als Ergebnis der Masterthesis ist festzuhalten, dass in der Verlagsbranche noch kein einheitliches Bild
vom App-Markt existiert und die Entwicklung und Umsetzung mobiler Geschäftsmodelle und Apps von einer Vielzahl an unternehmensinternen und -externen sowie Produktspezifischen Faktoren abhängt.
Aus diesem Grund sind Analysen und die Erhebung von Expertenmeinungen, wie in der vorliegenden
Arbeit durchgeführt, erforderlich.
In einer Zeit, in der die Medienkonvergenz in aller (Verlags-)Munde ist, geht mit der zunehmenden Verknüpfung verschiedener Medienformate auch eine Unabhängigkeit der Endkunden bei der Selektion von für sie interessanten Titeln einher. Ein Leser kann die Inhalte nicht nur über verschiedene Kanäle rezipieren, sondern auch suchen und bewerten. Aufgrund dieser Eigenständigkeit verliert die Marke an Bedeutung, was wiederum die Verlage dazu zwingt, ihr Produktportfolio noch genauer auf die Bedürfnisse und Wünsche ihrer Kunden abzustimmen.
Um eine optimale Entscheidung bezüglich der für die Darstellung der Inhalte gewählten Medienform treffen zu können, ist es wichtig, die Wirkungsformen und Vorteile einzelner Präsentationsarten zu kennen. Der Hauptaspekt, der in der Literatur kommuniziert wird, ist folgender: Unerfahrene Rezipienten nehmen multimediale Inhalte leichter auf, Experten kommen mit einem einzigen Format (i. d. R. verbal) besser klar. Hier stellt sich die Frage nach dem Realitätsbezug: Welche Art der inhaltlichen Aufbereitung bevorzugen Ratgeber-Kunden? Gibt es eine Präferenz einzelner Produktformen oder -gruppen?
Um das herauszufinden wurde eine Erhebung unter Ratgeber-Käufern und -Lesern in einer Buchhandlung durchgeführt. Im Rahmen dieser Erhebung wurden ca. 150 Kunden in einem persönlichen Interview hinsichtlich ihrer Kaufgewohnheiten, ihrer präferierten Produktformen sowie zum allgemeinen Mediennutzungsverhalten befragt.
Bei den Kaufgewohnheiten zeigte sich, dass zum Zeitpunkt der Befragung die Themen Ernährung / Essen und Trinken, Basteln sowie Gesundheit stark gefragt sind. Bei den Produktformen tendieren die meisten Befragten eindeutig zu gedruckten Produkten, obwohl bei den Befragten die mobilen Endgeräte (vor allem das Smartphone) weit verbreitet waren. Außerdem sind Websites sehr beliebt, da hier schnell und spontan nach einer konkreten Fragestellung gesucht werden kann. Insgesamt gesehen entsprechen die Verlage mit der Fokussierung auf gedruckte Titel immer noch den mehrheitlichen Kundenwünschen, gleichzeitig ist aber nicht nur ein Online-Auftritt notwendig, bei dem auch sehr leicht multimediale Inhalte wie z. B. Videos eingebettet
werden können, sondern auch die Entwicklung von E-Books und Apps – im Zuge der Medienkonvergenz werden diese Produkte noch an Bedeutung gewinnen.
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
Today’s digital cameras use a mosaic of red, green, and blue color filters to capture images in three color channels on a single sensor plane. This thesis investigates the use of convolutional neural networks (CNNs) for demosaicing – the process of reconstructing full-color images from raw mosaic sensor data. While there are existing CNNs for demosaicing raw images from the well-established regular Bayer color filter array (CFA), this thesis focuses on how they perform on alternative non-regular sampling patterns that produce less aliasing artifacts, namely the stochastic Gaussian- and the RandomQuarter sampling pattern (Backes and Fröhlich, 2020).
A basic UNet (Ronneberger et al., 2015) and the spatially adaptive SANet (T. Zhang et al., 2022) are implemented in a supervised training pipeline based on the PixelShift200 image dataset (Qian et al., 2021) to investigate their suitability for the irregular demosaicing task. The experiments indicate that the basic UNet encounters difficulties in restoring the missing color values, whereas the spatially adaptive convolutional layers help in processing the irregularly sampled raw images.
In addition, this thesis enhances SANet effectiveness by employing an alternative residual branch based on a CFA-normalized Gaussian filter, as well as a tileable modification to the Gaussian CFA pattern. The modified SANet is shown to outperform the conventional dFSR algorithm (Backes & Fröhlich, 2020) in terms of peak signal to noise ratio (PSNR) and structural similarity index measure (SSIM).
Die fortschreitende Digitalisierung der Hochschulen führt dazu, dass die Lehrenden ihre Lehrveranstaltungen zunehmend barrierefrei gestalten müssen, um sicherzustellen, dass alle Studierenden gleichermaßen an der Lehre und Studium teilhaben können. Zu diesem Zweck wurde das Zertifikat „Barrierefrei Lehren“ entwickelt, welches beim Fachverband International Association of Accessibility Professionals (IAAP) D-A-CH zum Einsatz kommen soll. Ziel dieser Arbeit ist die Erstellung von Lernmaterialien für den Onlinekurs zum Zertifikat. Von insgesamt fünf Zertifikatsmodulen, werden zwei umgesetzt. Konkret handelt es sich hierbei um die Module „Grundlagen“ und „Vielfalt der Benutzerbedürfnisse“. Um potentielle zertifikatsrelevante Themen zu ermitteln, wird zunächst eine qualitative Recherche nach bestehenden Curricula, Kursen und Materialsammlungen im Bereich der digitalen Barrierefreiheit durchgeführt und in einer Topic Map dokumentiert. Daraufhin wird ein virtueller Workshop organisiert, um die Themen für das Zertifikat zu finalisieren. Der Workshop erfolgt dabei in Form einer qualitativen Gruppendiskussion mit quantitativer Umfrage mit den Mitgliedern des IAAP D-A-CH Arbeitskreises „Barrierefreiheit in der Bildung“. Der erstellte Onlinekurs befindet sich auf der Moodle-Plattform des Kompetenzzentrums für digitale Barrierefreiheit der Hochschule der Medien in Stuttgart. Die Module sind als einzelne Lernabschnitte angelegt. In jedem Lernabschnitt befinden sich verschiedene Lektionen, welche die Lernmaterialien zum Zertifikat enthalten. Die Lernmaterialien dienen der Vorbereitung für die abschließende IAAP-Zertifizierungsprüfung.
Diese Arbeit behandelt die Erstellung der Module „Barrierefreiheit im Hochschulkontext“ und „Barrierefreie Veranstaltungen“ für das Zertifikat „Barrierefrei lehren“ des Kompetenzzentrums für digitale Barrierefreiheit der Hochschule der Medien Stuttgart. Dieses Zertifikat soll Lehrenden die notwendigen Kenntnisse vermitteln, um Barrierefreiheit innerhalb der Lehre umzusetzen und so den Zugang zu Bildung für alle Studierenden mit Einschränkungen sicherzustellen. In dieser Arbeit wird die Notwendigkeit für ein solches Zertifikat dargelegt sowie die Auswahl der hierzu relevanten Themen. Die erstellten Lehrinhalte beinhalten Texte, Bilder, Videos und Quizfragen. Mit diesen Materialien soll zur Umsetzung von Barrierefreiheit in der Lehre beigetragen werden.
Dies sind die Testformen zur Masterthesis "Kritische Punkte beim nachhaltigen Publizieren per Print-on-Demand" (https://hdms.bsz-bw.de/frontdoor/index/index/docId/4877). Sie wurden nochmals als einzelne Dateien hochgeladen, da mit PDF/X-1a und PDF/X-4 zwei verschiedene PDF/X-Versionen verwendet wurden, die in der zusammengefassten PDF der Masterthesis so nicht mehr vorkommen.
Mit diesen Dateien lassen sich die entsprechenden Deinking-Versuche aus der Masterarbeit nachvollziehen. Hierzu wurden sie je in den Größen A3 und A4 hochgeladen.
Als Grundlage für diese Arbeit dient die Theorie, dass ein Print-on-Demand-Prozess die nachhaltigere
Variante des Publizierens von Drucksachen sein müsste – immerhin schont dieser nicht nur die Ressourcen, da nur die wirklich nachgefragten Publikationen hergestellt werden und per dezentralem
Drucken auch die die Transportwege minimiert werden können, sondern er ist auch finanziell günstiger,
da keine Lagerkosten für eine Auflage anfallen und die Entsorgungskosten von nicht verkauften Publikationen ebenso wegfallen.
Damit ein Print-on-Demand-Prozess aber wirklich nachhaltig ist, müssen noch diverse kritische Punkte
beachtet werden: So muss ein Verlag seine Publikationen sowohl in gedruckter als auch in elektronischer Version veröffentlichen – denn das Leseverhalten bestimmt, welche von beiden die nachhaltigere ist. Dies
konnte an unterschiedlichen Kriterien, wie dem Verbrauch von Energie und Ressourcen sowie der Erneuerbarkeit oder Recyclebarkeit von letzteren festgemacht werden. Dieser Sachverhalt wiederum bedingt, dass im Verlag ein crossmedialer Workflow aufgebaut werden muss – und in der Druckerei nicht
nur Digitaldruckmaschinen genutzt werden müssen, sondern auch Digital-Weiterverarbeitungs-
Maschinen.
Weiterhin müssen Verlage und Druckereien, wenn sie einen Print-on-Demand-Prozess zur Herstellung von gedruckten Publikationen nutzen, sowohl Papiere als auch die Druckfarben mit Bedacht auswählen – denn es hängt von beiden Teilen ab, inwiefern die hergestellte Drucksache deinkbar ist, sodass aus ihr
nach ihrer Nutzung neues Papier hergestellt werden kann.
Aus diesem Grund wurden in dieser Arbeit verschiedene dynamische Digitaldruckverfahren hinsichtlich ihrer Eignung für Print-on-Demand evaluiert. Zudem wurden mit verschiedenen Sorten von Tinten und Tonern unterschiedliche Arten von Papieren bedruckt und danach einer Deinkbarkeitsprüfung nach der verbreiteten INGEDE-Methode 11 unterzogen. Schließlich wurden die verschiedenen Farb-Papier-
Kombinationen anhand der ERPC Deinkability Scorecard bewertet. Die entstandene Farb-Papier-Matrix soll Verlagen und Druckereien als Entscheidungshilfe dienen, damit diese auch dann deinkbare Drucksachen in Auftrag geben bzw. herstellen können, wenn sie einen Print-on-Demand-Prozess nutzen.
The number of people with cognitive impairments increases together with the aging population. Thus, social robots are being researched to aid relieve the nursing
sector as well as to combat cognitive impairments. However, it raises concerns regarding how a social robot should relate to members of this group and what might
be appropriate. In this thesis, research about the current state of social robots has been conducted and focus groups with people from the nursing and medical field were held. To verify the credibility of the results and the scenario developed, final
user tests were conducted with representatives of the target group. When using a
social robot in an interaction with persons who have cognitive disabilities, the robot
should speak and behave more human-like and make use of its facial expressions,
stressing empathy and responding to the person accordingly. Though the situation
of interacting with a social robot may be more significant in future generations.
Deep learning methods have proven highly effective for object recognition tasks, especially
in the form of artificial neural networks. In this bachelor’s thesis, a way is shown to imple-
ment a ready-to-use object recognition implementation on the NAO robotic platform using
Convolutional Neural Networks based on pretrained models. Recognition of multiple objects
at once is realized with the help of the Multibox algorithm. The implementation’s object
recognition rates are evaluated and analyzed in several tests.
Furthermore, the implementation offers a graphical user interface with several options to
adjust the recognition process and for controlling movements of the robot’s head in order
to easier acquire objects in the field of view. Additionally, a dialogue system for querying
further results is presented.
Jeder Mensch könnte einen Schlaganfall erleiden, der eine der Hauptursachen für Behinderungen im erwachsenen Alter ist. Die Überlebenden haben oft Lähmungen und Spastiken und benötigen daher ständige Hilfe, da selbst die Ausführung der einfachsten alltäglichen Aufgaben eine unüberwindbare Herausforderung darstellen kann. Um den Betroffenen zu helfen, wurde im Rahmen des Forschungsprojekts KONSENS unter der Leitung des Universitätsklinikums Tübingen ein Hand-Exoskelett entwickelt, das auch Schlaganfallpatienten nutzen können.
Ziel dieser Arbeit ist die Implementierung einer Steuerung für dieses Hand-Exoskelett auf der Google Glass, sowie Android Smartphones und Smartwatches. Der entstandene Prototyp wurde mit Studenten der Hochschule der Medien Stuttgart und Bekannten des Autors evaluiert. Diese Arbeit bildet den Zwischenstand der Evaluation nach zwanzig Probanden ab. Der Schwerpunkt liegt dabei auf dem Vergleich der Nutzerakzeptanz und Eignung verschiedener Ein- und Ausgabemethoden wie Touch-Input, Sprachsteuerung oder Eyetracking.
Darüber hinaus fasst diese Arbeit auch aktuelle Richtlinien zur barrierefreien Implementierung von Augmented-Reality-Anwendungen zusammen und vergleicht jene mit einem daraus abgeleiteten gemeinsamen Kriterienkatalog.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
In dieser Arbeit werden Design to Code Tools untersucht, die mittels generativer Künstlicher
Intelligenz Designs automatisch in Code umwandeln. Ziel ist es, zu analysieren,
wie diese Tools funktionieren und ob ihre Ergebnisse aktuellen Standards entsprechen.
Ein zusätzlicher Fokus liegt auf dem Vergleich verschiedener Tools, um ihre Unterschiede
zu ermitteln. Hierfür wurde ein Anwendungsbeispiel mit einem Testdesign
und dazugehörigem generierten Code erstellt und mittels einer Expertenbefragung
bewertet. Die Datenerhebung erfolgte nach dem Between-Subject-Verfahren und konzentrierte
sich auf die Erfassung quantitativer Daten zur optischen Ähnlichkeit, digitalen
Barrierefreiheit, Projekt- und Softwarequalität. Die Ergebnisse zeigen, dass die
Tools in der visuellen Umsetzung von Designs überzeugen können, aber in den anderen
geprüften Bereichen noch Defizite aufweisen. Diese Arbeit liefert wichtige Erkenntnisse
über den aktuellen Entwicklungsstand von Design to Code Tools und trägt
zu einer differenzierteren Betrachtung ihrer Potenziale und Grenzen bei.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
Ab Mitte 2025 wird das Barrierefreiheitsstärkungsgesetz viele Unternehmen in Deutschland dazu verpflichten, ihre Websites und Online-Shops barrierefrei zu gestalten. Sie stehen vor der Herausforderung, die Barrierefreiheit künftig in den Entwicklungsprozess ihrer digitalen Plattformen zu integrieren.
Um dies zu erleichtern, entwarfen wir im Rahmen dieser Arbeit einen Entwicklungsprozess für barrierefreie Webanwendungen in Scrum, der in einem Experiment mit anschließender heuristischer Evaluation und einer Befragung in einem E-Commerce-Unternehmen validiert wurde. Der Entwicklungsprozess befasst sich mit der Einbeziehung von Barrierefreiheit in Scrum-Elemente wie Product Backlog Items, die Definition of Ready und Definition of Done. Außerdem zeigt er bewährte Praktiken für die Implementation und das Testen von Barrierefreiheit auf.
Die Ergebnisse zeigten, dass die Erfassung von Barrierefreiheitsanforderungen in Form von Gherkin-Szenarien zu einer schnelleren Bearbeitung von Aufgaben und höheren Zufriedenheit mit dem Entwicklungsansatz im Scrum-Team beiträgt. Ferner wurde deutlich, dass die Schulung des Personals unerlässlich ist, um die Anforderungen der EN 301 549 und der WCAG vollständig zu erfüllen.
Diese Arbeit macht deutlich, dass Unternehmen zeitnah Maßnahmen ergreifen müssen, um das Barrierefreiheitsstärkungsgesetz rechtzeitig umsetzen zu können.