Refine
Year of publication
Document Type
- Bachelor Thesis (28)
- Master's Thesis (14)
- Book (11)
- Researchpaper (2)
- Other (1)
- Report (1)
Has Fulltext
- yes (57)
Is part of the Bibliography
- no (57)
Keywords
- Barrierefreiheit (9)
- Verlag (4)
- Digitale Barrierefreiheit (3)
- Gamification (3)
- Accessibility (2)
- Buchhandel (2)
- Deterministic Lockstep (2)
- Digitaldruck (2)
- Nachhaltigkeit (2)
- Networked Games (2)
Institute
- FB 1: Druck und Medien (57) (remove)
In der vorliegenden Bachelorarbeit wird untersucht, inwieweit Marken den Kaufentscheidungsprozess beim Kauf von Verlagsprodukten beeinflussen. Der Buchhandel nimmt Marken beim Einkauf durchaus wahr. Somit stellt sich die Frage, ob auch beim Endkunden Marken von Verlagen eingesetzt werden können, um deren Kaufentscheidung zu beeinflussen. Untersucht wird diese Frage anhand sämtlicher Verlagsbereiche, ausgenommen B2B-Fachinformationen und Schulbüchern.
Nach einer Definition der verschiedenen Markenarten und ihrer Relevanz für den Buchmarkt wird anhand des Phasenmodells der Kaufentscheidungsprozess und die Bedeutung, die Marken dabei für den Endkunden haben, beleuchtet.
In den geführten Experteninterviews mit Verlagsexperten werden Erkenntnisse, die aus deren Markenstrategie gewonnen werden, beleuchtet. Buchhändler berichten von ihren Beobachtungen, wie Marken aus ihrer Sicht den Kunden in seinem Kaufverhalten beeinflussen. In der Endkundenumfrage wird untersucht, ob und wie weit sich die Buchkäufer bei Ihrer Kaufentscheidung von Marken beeinflussen lassen, sowie ob ein erhöhter Bedarf nach mehr Orientierung durch Marken vorhanden ist.
Aus der Ergebnissen der Befragung lässt sich ableiten, dass eine bewusst wahrnehmbare, eindeutige Beeinflussung der Kaufentscheidung durch Marken nur sehr selten stattfindet.
Before gas is transported, natural gas traders have to plan with many contracts every day. If a cost-optimized solution is sought the most attractive contracts of a large contract set have to be selected. This kind of cost-optimization is also known as day-ahead balancing problem. In this work it is shown that it is possible to express this problem as a linear program that considers important influences and restrictions in the daily trading.
The aspects of the day-ahead balancing problem are examined and modelled individually. This way a basic linear program is gradually adapted towards a realistic mathematical formulation. The resulting linear optimization problem is implemented as a prototype that considers the discussed aspects of a cost-optimized contract selection.
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung und der Vergleich von Datenbanksystemen und deren Einsatzbereich in Verbindung mit Echtzeitdatenströmen in Mobile Cloud Computing Architekturen.
Nach Erläuterung der Funktionsweise von Datenbanken und deren Eigenschaften werden die Unterschiede zwischen den traditionellen relationalen und den echtzeitfähigen Datenbanken untersucht.
Daraufhin wird ein Vergleich von verschiedenen echtzeitfähigen Datenbanken, wie RethinkDB und Google Firebase Realtime Database, durch Gegenüberstellung von Features, der Query-Language und der Realtime-Fähigkeit angefertigt.
Die parallel zur Arbeit entwickelte Mobile-App basiert auf dem RemoteUI-System mit Anbindung an die NoSQL-Datenbank RethinkDB. Durch die Nutzung von Mobile Cloud Computing können rechenintensive Aufgaben wie die Verarbeitung von großen Mengen von Sensordaten durch einen leistungsstarken externen Server durchgeführt werden, um Rechen- und Akkuleistung des mobilen Endgeräts einzusparen.
Als Echtzeitdatenströme werden GPS-Positionsdaten eines Smartphones genutzt, die per Mobile-App über eine REST-API an den Server gesendet werden. Diese werden dort von der Datenbank verarbeitet und für andere Nutzer der App wieder visuell verfügbar gemacht. Hierbei spielt vor allem die Verarbeitung auf dem Server eine bedeutende Rolle.
Moderne Smartphones wie das iPhone sind die ersten massentauglichen mobilen Geräte, auf denen Augmented-Reality-Anwendungen genutzt werden können.
Mit der zunehmenden Verbreitung solcher Smartphones prognostizieren Analysten nun ein rasantes Wachstum für den Augmented-Reality-Markt.
Im Rahmen der vorliegenden Masterarbeit wird Augmented Reality (kurz AR) unter dem Gesichtspunkt des Kundennutzens von content-basierten Anwendungen in Printprodukten untersucht.
Es wird insbesondere darauf eingegangen, wie es Verlagen gelingt, einen Mehrwert für ihre Kunden zu generieren und ihre gedruckten Produkte dadurch attraktiver zu gestalten.
Zu diesem Zweck werden in einem selbst entwickelten Kundennutzenmodell verschiedene Branchensegmente analysiert und mit passenden Anwendungsbeispielen illustriert.
Außerdem werden im letzten Teil der Arbeit die Kunden dazu befragt, wie sie selbst den Zusatznutzen von Augmented-Reality-Anwendungen einschätzen und ob sie bereit sind, für den Mehrwert zu bezahlen.
Die Nachfrage an Videospielen ist in den letzten Jahren stark gestiegen,
während weniger als die Hälfte der Entwickler angeben, dass
Barrierefreiheitsmaßnahmen in aktuellen Projekten integriert werden.
Werkzeuge und Richtlinien sind hilfreich bei der Implementierung von
barrierefreien Videospielen. Weitere Referenzen werden jedoch benötigt, um
auf die Barrierefreiheit aufmerksam zu machen.
Diese Arbeit ermittelt die Auswirkungen eines Serious Games auf blinde und
sehende Spieler. Schwerpunkt ist die Implementierung von Maßnahmen für
blinde Spieler. Anhand einer Analyse von ausgezeichneten Videospielen und
Filterung der Xbox Accessibility Guidelines, wurde „Sensory“ entwickelt. Das
Spiel wurde durch eine Benutzerstudie mit 11 Teilnehmern validiert. Während
der Benutzerstudie wurde das Spiel getestet und dadurch wurden Usability-
Probleme entdeckt. Anhand der Benutzerstudie konnte der Spielspaß und
Lerneffekt bestätigt werden.
Die Auswertung der Studie zeigt, dass Geräusche und Vibrationen den
Spielspaß für blinde Spieler positiv beeinflussen. Die Steuerung und fehlenden
Einstellungen wirken sich negativ aus. Außerdem erhalten sehende Spieler
einen Einblick in die barrierefreie Entwicklung von Videospielen und dadurch
wird die Empathie für Barrierefreiheit gesteigert.
The capabilities of Artificial Intelligence (AI) are utilized increasingly
in today‘s world. The autonomous and adaptive characteristics
allow applications to be more effective and efficient. A certain
subfield of Artificial Intelligence, Machine Learning, is enabling
services to be tailored to a user‘s specific needs. This could prove to
be useful in an information-heavy field such as Statistics. As design
research from SPSS Statistics, a legacy statistical application, has
indicated, statistics beginners struggle to tackle the challenge of
preparing a statistical research study. They turn to several sources
of information in an attempt to find help and answers but are not
always successful. This leads to them being unconfident before
they have even started to execute the statistical study. The adaptive
features of Artificial Intelligence could help support students
in this case, if designed according to established principles. This
thesis investigated the question whether an AI-powered solution
could elevate the users‘ confidence in statistical research studies.
In order to find the answer, a prototype with exemplary User Experience
was designed and implemented. Preceding research determined
the domain and market offer. User research was conducted
to ensure a human-centered outcome. The prototype was evaluated
with real test users and the results answered the question in
the affirmative.
Technologische Trends entstehen in immer kürzeren Abständen, was mit einer Veränderung im Konsumverhalten einhergeht. Der über Jahrzehnte exorbitant praktizierte Massenkonsum hat seinen Höhepunkt erreicht. Menschen sehnen sich nach einem Konsum, der Erlebnisse verspricht.
Auch die Kommunikation in der Gesellschaft unterzieht sich einem Wandel, der Branchen vor die Herausforderung stellt, verstärkt transparentes und konsumentennahes Marketing zu fokussieren.
Aus diesem Grund widmet sich diese Arbeit dem Thema, wie das Buch in dem digitalen Kommunikationskosmos vermarktet werden kann und welcher Bedarf heute noch besteht, der dem Buch eine Existenzberechtigung neben digitalen Medien in der Zukunft gibt.
Diese Arbeit wird sich dabei verstärkt der produktspezifischen Differenzierung annehmen, um dahingehend crossmediale Marketinginstrumente mit Fokus auf Eventmarketingmodelle zu untersuchen, die sich in eine erlebnisorientierte Gesellschaft und digitale Revolution einpassen.
Die vorliegende empirische Erhebung nutzt drei Perspektiven integrativ: Das Verbraucherpanel der GfK, eine Endkundenbefragung in den Osianderschen Buchhandlungen sowie Experteninterviews.
Kernaussage dieser Arbeit ist, dass dem Buch im digitalisierten Alltag eine besondere emotionale
Wertschätzung zukommt und in diesem subjektiven Bedarfsdenken ein Sowohl-als-auch-Konsumieren des Buchs und E-Books richtungsweisend ist. Es lässt sich bestätigen, dass zur Positionierung der eruierten Statussymbolik des Buchs die Haptik als Vermittler heranzuziehen ist. Unter der Prämisse, dass Marketing- und Kommunikationsinstrumente eingesetzt werden, die einen transparenten Dialog zum Buchkäufer ermöglichen und damit zukunftsweisend sind.
Today’s digital cameras use a mosaic of red, green, and blue color filters to capture images in three color channels on a single sensor plane. This thesis investigates the use of convolutional neural networks (CNNs) for demosaicing – the process of reconstructing full-color images from raw mosaic sensor data. While there are existing CNNs for demosaicing raw images from the well-established regular Bayer color filter array (CFA), this thesis focuses on how they perform on alternative non-regular sampling patterns that produce less aliasing artifacts, namely the stochastic Gaussian- and the RandomQuarter sampling pattern (Backes and Fröhlich, 2020).
A basic UNet (Ronneberger et al., 2015) and the spatially adaptive SANet (T. Zhang et al., 2022) are implemented in a supervised training pipeline based on the PixelShift200 image dataset (Qian et al., 2021) to investigate their suitability for the irregular demosaicing task. The experiments indicate that the basic UNet encounters difficulties in restoring the missing color values, whereas the spatially adaptive convolutional layers help in processing the irregularly sampled raw images.
In addition, this thesis enhances SANet effectiveness by employing an alternative residual branch based on a CFA-normalized Gaussian filter, as well as a tileable modification to the Gaussian CFA pattern. The modified SANet is shown to outperform the conventional dFSR algorithm (Backes & Fröhlich, 2020) in terms of peak signal to noise ratio (PSNR) and structural similarity index measure (SSIM).
Privacy in Social Networks
(2016)
Online Social Networks (OSNs) are heavily used today and despite of all privacy concerns found a way into our daily life. After showing how heavy data collection is a violation of the user's privacy, this thesis establishes mandatory and optional requirements for a Privacy orientated Online Social Network (POSN). It evaluates twelve existing POSNs in general and in regard to those requirements. The paper will find that none of these POSNs are able to fulfill the requirements and therefore proposes features and patterns as a reference architecture.
Die heutigen Jugendlichen sind durch ihre umfassenede Geräteaustattung über zahlhreiche Plattformen erreichbar und verwenden einen großen Teil ihrer Freizeit auf mediale Aktivitäten.Die verfügbaren Angebote werden von den Heranwachsenden stimmungs- und situationsabhänig genutzt und plattformübergreifend für das persönlich Entertainment zusammen gestellt.Dieses konvergente Medienhandeln machen sich transmedial erzählte Geschichten zunutze.
Sie werden über mehrere Plattformen hinweg erzählt und zielen durch ihre Zusammensetzung auf die Erzeugung eines einzigartigen medialen Erlebnisses ab.Dies ist auch für Jugendbuchverlage interessant.Es stellt sich die Frage, ob die transmediale Aufbereitung eines Jugendbuches zur Steigerung des Leseerlebnisses führen kann. Die vorliegende Arbeit beschäfigt sich daher mit dem Potenzial
des transmedialen Storytellings im Bezug auf das Leseerlebniss von Jugendlichen.Die Untersuchng beschränkt sich auf Jugendliche im Alter von 14 bis 16 Jahren.
Zur Erhebung der Daten wurden ein Fokusinterview und 5 Experteninterviews durchgeführt.Die empirische Untersuchung zeigt, dass das transmediale Storytelling definitiv ein Potenzial bezüglich der Erweiterung,Vertiefung und Steigerung es jugendlichen Leseerlebnisses mit sich bringt.Der Wunsch der Heranwachsenden,ein poistives Leseerlebnis durch andere Medien zu vertiefen und das Bedürfnis,das mediale Erlebnis aktiv mitzugestalten äußert sich deutlich.
Nicht nur in dieser Hinsicht bieten transmediale Erzähluniversen einen Mehrwert, sie enthalten desweiteren
eine partizipative und soziale Komponente.Auch der Austausch mit Gleichgesinnten kann sich positiv auf das Leseerlebnis auswirken. In Bezug auf die aktive Einstellung von Inhalten zeigen sich die 14 bis 16 jährigen zurückhaltend. Verallgemeinbar sind diese Ergebnisse jedoch nicht.Das Potenzial ist zum einen von der konkreten Beschaffenheit des transmedialen Erzähluniversums, zum anderen von der anvisierten Zielgruppe abhängig.
Auch die Zielgruppe der 14-16 jährigen ist zu heterogen um allgemeine Aussagen treffen zu können.
Eine Untersuchung im Hinblick auf Jugendmilieus wäre deshalb sinnvoll.
Behinderte Personen können durch digitale Angebote vorhandene Barrieren ausglei-chen und Zugang zu neuen Bereichen erhalten. Hierbei ist es wichtig, dass möglichst viele Personen gleichberechtigt auf die Angebote ohne neue Barrieren zugreifen. Dies spiegelt sich auch in Gesetzen und Richtlinien für Informationsangebote öffentlicher Stel-len und ab 2025 auch für bestimmte private Unternehmen wider.
Für die Überprüfung der Barrierefreiheit von Websites können Automatische Monitoring Systeme (AMS) eingesetzt werden, die Websites immer wieder automatisch nach Barri-eren durchsuchen. Gegenstand dieser Bachelorarbeit ist ein Vergleich von drei AMS: Pa11y, ARC Monitoring und Siteimprove.
Die AMS werden zuerst nach qualitativen Gesichtspunkten gegenübergestellt, wie zum Beispiel Preismodell, Hosting, unterstützte Richtlinien oder Einsatz von Gamification.
Um quantitative Ergebnisse zu erhalten, verglichen wir die Scanergebnisse einer selbst konstruierten Test-Website, die Verstöße für alle Success Criteria der Web Content Ac-cessibility Guidelines (WCAG) 2.1 enthält. Die Ergebnisse wurden nach den Evaluati-onskriterien Coverage (Abdeckung) und Correctness (Richtigkeit) ausgewertet. Coverage umfasste die Abdeckung der WCAG Success Criteria, Principles, Guidelines und der in der EN 301549 zugeordneten betroffenen Benutzendengruppen.
Um die Usability der AMS zu analysieren, wurde eine Heuristische Evaluation nach Nielsens 10 Heuristiken durchgeführt.
Pa11y hat von allen AMS die beste Coverage, jedoch die schlechteste Correctness auf-grund vieler Falsch Positive durch unspezifische Meldungen. Eine Berechnung ohne diese verschlechterte die Coverage und verbesserte die Correctness. ARC Monitoring konnte aufgrund der schlechten Usability und mittelmäßigen quantitativen Werte am we-nigsten überzeugen. Siteimprove ist das AMS mit dem größten Funktionsumfang und der besten Usability. Die quantitativen Ergebnisse sind ohne Einberechnung der Notices ähnlich gut wie die von Pa11y.
Die Coverage aller drei AMS zusammengefasst zeigt, dass sie eine manuelle Prüfung nicht ersetzen können. Die erzielten Werte zeigen selten eine Abdeckung von mehr als 50 %.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
Im Zusammenhang mit dem Projekt „BGM Vital“ der Charité Universitätsmedizin Berlin, wird erforscht, mit welchen Methoden das betriebliche Gesundheitsmanagement ge-fördert werden kann.
Hierfür wurde sich im Rahmen dieser Arbeit mit der Entwicklung einer App befasst, wel-che dazu dient, die Anwender spielerisch dazu zu motivieren, sich sportlich zu betätigen. Hierbei sollen sie nicht nur ihr Bestes geben und versuchen an ihre Grenzen zu gehen, sondern es soll auch analysiert werden, ob es der Fitness App gelingen würde, den Benutzer nach einem durchgeführten Training zu einem erneuten Training mit dieser App zu motivieren.
Es wird beschrieben, wie die App entwickelt wurde. Von der Anforderungsliste über die genutzten Technologien und dem Ablauf der App, bis zu der eigentlichen Entwicklung.
Des Weiteren wird der Testablauf näher beleuchtet. Hierbei wird auf den Testaufbau, die Testpersonen, die zu absolvierenden Trainingsübungen und die Durchführung des Tests eingegangen. In einer abschließenden Diskussion wurden die Testergebnisse interpretiert und bewertet.
The increasing availability of online video content, partially fueled by the Covid-19 pandemic and the growing presence of social media, adds to the importance of providing audio descriptions as a media alternative to video content for blind and visually impaired people. In order to address concerns as to what can be sufficiently described and how such descriptions can be delivered to users, a concept has been developed providing audio descriptions in multiple levels of detail. Relevant information is incorporated into an XML-based data structure. The concept also includes a process to provide optional explanations to terms and abbreviations, helping users without specific knowledge or people with cognitive concerns in comprehending complex videos. These features are implemented into a prototype based on the Able Player software. By conducting a user test, the benefits of multi-layered audio descriptions and optional explanatory content are evaluated. Findings suggest that the choice of several levels of detail is received positively. Users acknowledged the concept of explanations played parallelly to the video and described further use cases for such a practice. Participants preferred a higher level of detail for a high-paced action video and a lower level for informative content. Possibilities to extend the data structure and features include multilanguage use cases and distributed systems.
Die vorliegende Arbeit befasst sich mit dem Thema A/B Testing, insbesondere im Kontext der Optimierung der User Experience in Onlineshops. In einer quantitativen empirischen Untersuchung, die in Zusammenarbeit mit der DRIP AGENCY und SNOCKS durchgeführt wurde, wurden zwei A/B-Test-Methoden – Fixed-Horizon Tests und sequentielle Tests – anhand von drei spezifischen Testideen in realen Onlineshop-Szenarien angewendet und auf ihre Effektivität verglichen sowie bewertet. Die Ergebnisse zeigen signifikante Unterschiede in der Performance und liefern daraus resultierende Empfehlungen für Onlineshops. Diese Erkenntnisse bieten Unter-nehmen, die mit den beiden A/B-Test-Methoden ihre UX optimieren und dadurch ihre Conversion Rates steigern möchten, wertvolle Einblicke. Dabei wird auch die Barrierefreiheit als ein zentrales und immer relevanter werdendes Thema hervorgehoben, um sicherzustellen, dass alle Nutzer eine zugängliche und positive Shopping-Erfahrung erleben können.
Die vorliegende Bachelorarbeit befasst sich mit Fandoms, insbesondere Buch-Fandoms, als eine der wichtigsten und mächtigsten Kundengruppen von Verlagen sowie deren mögliche Einbeziehung in die bestehenden Wertschöpfungsketten von Belletristikverlagen.
Ziel war es,Fandoms von Büchern im deutschsprachigen Raum bezüglich ihres Verhaltens, ihrer Einstellungen und Motive, zu untersuchen und entsprechende Stellen der Einbindung zu identifizieren.
Dafür wurden Fandoms und Verlage anhand relevanter Fachliteratur und vorhandener Recherchen analysiert und zudem eine Online-Umfrage unter Mitgliedern von Fandoms durchgeführt sowie Experten aus der Branche bezüglich des aktuellen Stands der Einbeziehung sowie ihrer Einschätzung einiger Ideen der Fandom-Einbindung interviewt.
Es wurde deutlich, dass Buch-Fandoms sich eine starke und interaktive Einbeziehung in den Produktions- und Distributionsprozess von Büchern wünschen.
Außerdem stehen sie einer hohen Beteiligung von Seiten der Verlage an Fandoms positiv gegenüber.
Diese Nachfrage treffen Belletristikverlage bislang nicht, da zu wenig auf die speziellen Eigenschaften von Fandoms eingegangen wird.
Nach den Prinzipien der interaktiven Wertschöpfung kann dieses noch ungenutzte Potenzial in der Einbeziehung von Fandoms für beide Seiten vorteilhaft ausgeschöpft werden. So wird das Mitbestimmungs- und Beteiligungsbedürfnis von Fandom-Mitgliedern wird gestillt.
Verlagen kann der Input von Fandoms Wettbewerbsvorteile verschaffen, außerdem erhöhen sie die Zufriedenheit und Kundenbindung dieser wichtigen Zielgruppe.
Demnach kann diese Bachelorarbeit Publikumsverlagen im deutschsprachigen Raum, die belletristische Inhalte verlegen, helfen, Fandoms zu verstehen und diese nachhaltig und gewinnbringend einzubinden und so zu nutzen.
OpenAPETutorial - eine problembasierte Lerneinheit zur Personalisierung von SmartHome Anwendungen
(2021)
Die Arbeit hat die Konzeption einer problembasierten Lerneinheit zur Personalisierung von SmartHome Anwendungen zum Thema.
Dafür wurde neben der Lerneinheit ein Java Client für das Personalisierungsframwork OpenAPE und eine Tutorial Anwendung für OpenAPE, welche in der Lerneinheit als praktische Übung genutzt wird, entwickelt.
Im theoretischen Teil der Arbeit werden drei Themen erörtert. Zu Beginn wird das Thema Personalisierung mit besonderem Schwerpunkt auf das genutzte Personalisierungsframework OpenAPE behandelt.
Darauf folgen die Themen problembasiertes Lernen, hier wird in problembasiertes Lernen im Allgemeinen und problembasiertes Lernen in der Informatik und Programmierung unterschieden.
Für das letzte Thema Learning Analytics wird untersucht, was Learning Analytics bedeutet und wie es in eine Lerneinheit integriert werden kann.
Im praktischen Teil wurde ein Java Client für OpenAPE entwickelt. Dieser kann in Zukunft von allen Java und Android Anwendungen verwendet werden. Außerdem wurde eine Lerneinheit konzipiert, mit welcher die Anwendung der Schnittstellen OpenAPE und OpenHAB erlernt werden kann. Hierfür wurde die sogenannte OpenAPETutorial Anwendung entwickelt. Diese Anwendung wird für die Studierenden in der Lerneinheit als eine Art Lückentext als praktische Übung verwendet. In der sehr einfach aufgebauten Anwendung können Lampen über die OpenHAB Schnittstelle angesprochen werden und Einstellungen, welche zur Personalisierung genutzt werden, können über OpenAPE synchronisiert werden.
Schlussendlich wird die Lerneinheit in qualitativen Benutzertests durchgeführt und somit auf ihre Funktionalität geprüft. Es soll herausgefunden werden, ob die konzipierte Lerneinheit so durchführbar ist. Durch diese Vorgehensweise wurden bereits einige Schwachstellen in der Lerneinheit entdeckt und behoben. Grundsätzlich haben die Benutzertests gezeigt, dass die Lerneinheit so wie geplant durchgeführt werden kann. Dennoch sollte die Lerneinheit in einer größeren Gruppe mit Studierenden der Zielgruppe durchgeführt werden, um herauszufinden, ob sie in einer echten Umgebung funktioniert. Hier sollte besonders auf die benötigte Zeit geachtet werden.
Gegenstand der vorgestellten Arbeit ist die Evaluierung frei erhältlicher Performance Test Frameworks, zusätzlich in Hinblick auf deren HTTP/2 und WebSockets Unterstützung. Zur Einführung wird der allgemeine Aufbau und die Vorgehensweise von Performancetests erörtert. Hierfür werden zwei unterschiedliche Testpläne vorgestellt und miteinander verglichen. Anschließend werden die ausgewählten Frameworks auf ihre Funktionen untersucht. Zuletzt wird beispielhaft eine im Netz frei verfügbare Webanwendung mit den vorgestellten Frameworks getestet und der Ablauf derer jeweils dokumentiert.
Um ein abschließendes Fazit zu formulieren, werden die Frameworks hinsichtlich deren Feature Reichhaltigkeit, Nutzerfreundlichkeit und Aktualität bewertet.
Schlagwörter: Web Performance, Stresstests, HTTP/2, WebSocket, Webanwendung, Frameworks, Performance Programme, Evaluierung
Deep learning methods have proven highly effective for object recognition tasks, especially
in the form of artificial neural networks. In this bachelor’s thesis, a way is shown to imple-
ment a ready-to-use object recognition implementation on the NAO robotic platform using
Convolutional Neural Networks based on pretrained models. Recognition of multiple objects
at once is realized with the help of the Multibox algorithm. The implementation’s object
recognition rates are evaluated and analyzed in several tests.
Furthermore, the implementation offers a graphical user interface with several options to
adjust the recognition process and for controlling movements of the robot’s head in order
to easier acquire objects in the field of view. Additionally, a dialogue system for querying
further results is presented.
Als Grundlage für diese Arbeit dient die Theorie, dass ein Print-on-Demand-Prozess die nachhaltigere
Variante des Publizierens von Drucksachen sein müsste – immerhin schont dieser nicht nur die Ressourcen, da nur die wirklich nachgefragten Publikationen hergestellt werden und per dezentralem
Drucken auch die die Transportwege minimiert werden können, sondern er ist auch finanziell günstiger,
da keine Lagerkosten für eine Auflage anfallen und die Entsorgungskosten von nicht verkauften Publikationen ebenso wegfallen.
Damit ein Print-on-Demand-Prozess aber wirklich nachhaltig ist, müssen noch diverse kritische Punkte
beachtet werden: So muss ein Verlag seine Publikationen sowohl in gedruckter als auch in elektronischer Version veröffentlichen – denn das Leseverhalten bestimmt, welche von beiden die nachhaltigere ist. Dies
konnte an unterschiedlichen Kriterien, wie dem Verbrauch von Energie und Ressourcen sowie der Erneuerbarkeit oder Recyclebarkeit von letzteren festgemacht werden. Dieser Sachverhalt wiederum bedingt, dass im Verlag ein crossmedialer Workflow aufgebaut werden muss – und in der Druckerei nicht
nur Digitaldruckmaschinen genutzt werden müssen, sondern auch Digital-Weiterverarbeitungs-
Maschinen.
Weiterhin müssen Verlage und Druckereien, wenn sie einen Print-on-Demand-Prozess zur Herstellung von gedruckten Publikationen nutzen, sowohl Papiere als auch die Druckfarben mit Bedacht auswählen – denn es hängt von beiden Teilen ab, inwiefern die hergestellte Drucksache deinkbar ist, sodass aus ihr
nach ihrer Nutzung neues Papier hergestellt werden kann.
Aus diesem Grund wurden in dieser Arbeit verschiedene dynamische Digitaldruckverfahren hinsichtlich ihrer Eignung für Print-on-Demand evaluiert. Zudem wurden mit verschiedenen Sorten von Tinten und Tonern unterschiedliche Arten von Papieren bedruckt und danach einer Deinkbarkeitsprüfung nach der verbreiteten INGEDE-Methode 11 unterzogen. Schließlich wurden die verschiedenen Farb-Papier-
Kombinationen anhand der ERPC Deinkability Scorecard bewertet. Die entstandene Farb-Papier-Matrix soll Verlagen und Druckereien als Entscheidungshilfe dienen, damit diese auch dann deinkbare Drucksachen in Auftrag geben bzw. herstellen können, wenn sie einen Print-on-Demand-Prozess nutzen.
Dies sind die Testformen zur Masterthesis "Kritische Punkte beim nachhaltigen Publizieren per Print-on-Demand" (https://hdms.bsz-bw.de/frontdoor/index/index/docId/4877). Sie wurden nochmals als einzelne Dateien hochgeladen, da mit PDF/X-1a und PDF/X-4 zwei verschiedene PDF/X-Versionen verwendet wurden, die in der zusammengefassten PDF der Masterthesis so nicht mehr vorkommen.
Mit diesen Dateien lassen sich die entsprechenden Deinking-Versuche aus der Masterarbeit nachvollziehen. Hierzu wurden sie je in den Größen A3 und A4 hochgeladen.
In dieser Arbeit werden Design to Code Tools untersucht, die mittels generativer Künstlicher
Intelligenz Designs automatisch in Code umwandeln. Ziel ist es, zu analysieren,
wie diese Tools funktionieren und ob ihre Ergebnisse aktuellen Standards entsprechen.
Ein zusätzlicher Fokus liegt auf dem Vergleich verschiedener Tools, um ihre Unterschiede
zu ermitteln. Hierfür wurde ein Anwendungsbeispiel mit einem Testdesign
und dazugehörigem generierten Code erstellt und mittels einer Expertenbefragung
bewertet. Die Datenerhebung erfolgte nach dem Between-Subject-Verfahren und konzentrierte
sich auf die Erfassung quantitativer Daten zur optischen Ähnlichkeit, digitalen
Barrierefreiheit, Projekt- und Softwarequalität. Die Ergebnisse zeigen, dass die
Tools in der visuellen Umsetzung von Designs überzeugen können, aber in den anderen
geprüften Bereichen noch Defizite aufweisen. Diese Arbeit liefert wichtige Erkenntnisse
über den aktuellen Entwicklungsstand von Design to Code Tools und trägt
zu einer differenzierteren Betrachtung ihrer Potenziale und Grenzen bei.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
Die hier vorgestellte Arbeit untersucht anhand einer Fachliteratur-Recherche Skalie-rungskonzepte für IT-Startups. Es wird untersucht, wie junge Unternehmen in der IT-Branche sich auf Wachstum vorbereiten und dieses Wachstum fördern können. Dazu wurden aus relevanten Fachbüchern und Artikeln Methoden und Ansätze exzerpiert, die in die Bereiche Personal, Produkt, Finanzen, Vertrieb und Strategie gegliedert sind. Im Anschluss wurden die schlussfolgernden Ergebnisse zusammengefasst, die einen be-sonderen Fokus auf kundennahe Produktentwicklung und Mitarbeiterorientierung um-fassen.
Die zunehmende Popularität mobiler Endgeräte und Applikationen (Apps) führt zu einem Wandel des Medienkonsumverhaltens.
Verlage müssen auf diese Veränderung reagieren, Produkte für Smartphones und Tablets anbieten und – aufgrund der mangelnden Zahlungsbereitschaft für digitale Inhalte – auch effiziente Erlösmodelle entwickeln.
Eine strategische Neupositionierung und die Modernisierung traditioneller Geschäftsmodelle und Produktionsprozesse sinderforderlich.
Ziel der vorliegenden Masterthesis ist, Erfolgsfaktoren und Handlungsempfehlungen für Geschäftsmodelle und die Vermarktung von Apps durch Verlage zu entwickeln.
Im Fokus stehen Apps, die der Zielgruppe orts- und zeitunabhängige, kontextbezogene Services bieten und über eine reine Wiedergabe von Verlagscontent hinaus gehen. Im ersten Schritt wurde dafür ein theoretischer Ansatz für mobile Geschäftsmodelle konzipiert.
Das Modell mit sieben Bestandteilen berücksichtigt App-spezifische Besonderheiten und dient speziell Fach- und Sachverlagen als Leitfaden für die Realisierung und Monetarisierung von Apps. Im zweiten Schritt wurden anhand von qualitativen Expertenbefragungen und der Analyse von Apps potenzielle Erfolgsfaktoren von mobilen Geschäftsmodellen und Produkten identifiziert.
Die Interviews zeigten ein sehr breites Meinungsspektrum und decken – ebenso wie die Analysen – eine Vielzahl Erfolg versprechender Schlüsselfaktoren auf, die in Form eines Best Practice zusammengefasst und diskutiert wurden.Basierend auf dem theoretischen Modell und den erläuterten Erfolgsfaktoren wurden im praktischen Teil der Thesis Handlungsempfehlungen sowie konkrete Ideen für
Service-orientierte Apps für den Verlag Eugen Ulmer entwickelt.
Als Ergebnis der Masterthesis ist festzuhalten, dass in der Verlagsbranche noch kein einheitliches Bild
vom App-Markt existiert und die Entwicklung und Umsetzung mobiler Geschäftsmodelle und Apps von einer Vielzahl an unternehmensinternen und -externen sowie Produktspezifischen Faktoren abhängt.
Aus diesem Grund sind Analysen und die Erhebung von Expertenmeinungen, wie in der vorliegenden
Arbeit durchgeführt, erforderlich.
Virtual-reality (VR) is an immersive technology with a growing market and many applications for gesture recognition. This thesis presents a VR gesture recognition method using signal processing techniques. The core concept is based on the comparison of motion features in the form of signals between a runtime recording of users and a possible gesture set. This comparison yields a similarity score through which the most similar gesture can be recognized by a continuous recognition system. Some selected comparison methods are presented, evaluated and discussed. An example implementation is demonstrated. However, due to an introduced layer model parts of the method and its implementation are interchangeable.
Similar or even better performance is achieved compared to other related work. The comparison method Dynamic Time Warping (DTW) reaches an average positive recognitions rate of 98.18% with acceptable real-time application performance. Additionally, the method comes with some benefits: position and direction of users is irrelevant, body proportions have no significant negative impact on recognition rates, faster and slower gesture executions are possible, no user inputs are needed to communicate gesture start and end (continuous recognition), also continuous gestures can be recognized, and the recognition is fast enough to trigger gesture specific events already during the execution.
Multiplayer games can increase player enjoyment through social interactions, cooperation, and competition. Their market popularity shows the success of especially networked multiplayer games, which pose new networking challenges to game developers. The main challenge is synchronizing game state across players. Research identifies deterministic lockstep, snapshot interpolation, and state-sync as primary methods for this task, each with distinct advantages and disadvantages.
This work, and the master thesis this paper is based on, quantitatively evaluated deterministic lockstep, demonstrating its vertical (entity count) and horizontal (player count) scaling limitations and compares the method to snapshot interpolation. Lockstep supports minimum 16,000 entities for up to 10 players and a horizontal scaling of 40 or more players with 1024 entities. However, a negative correlation between entity and player count limits was observed, which was indicated by the maximum scaling configurations 30 players with 4096 entities or 20 players with 8192 entities. Snapshot interpolation faced a vertical limit with 4096 entities and 10 players and horizontally with 40 or more players and 1024 entities.
The paper further contributes by comparing results to related work, summarizing synchronization methods, proposing a hybrid architecture model of deterministic lockstep with snapshot interpolation for re-synchronization and hot-joins, and deconstructing Unity Transport Package’s (UTP) network packets.
Multiplayer games can increase player enjoyment through social interactions, cooperation and competition. The popularity of such games is shown by current market trends. Especially networked multiplayer games frequently achieve great success, but confront game developers with additional networking challenges in the already complex field of game production. The primary challenge is game state synchronization across all players. Based on the current research, there are three main methods for this task – deterministic lockstep, snapshot interpolation and state-sync – with their own advantages and disadvantages.
This work quantitatively evaluated and discussed the vertical (entity count) and horizontal (player count) limitations of deterministic lockstep and compared the method to snapshot interpolation. Results showed, that deterministic lockstep has no indicated vertical scaling limitation with a player count of up to 10 supporting 16,000 or more entities. A horizontal scaling limitation could not be found either and lockstep was confirmed to work with 40 or more players while handling 1024 entities. However, both scaling dimensions correlate negatively, which was indicated by the maximum scaling configurations 30 players and 4096 entities or 20 players and 8192 entities.
An unoptimized snapshot interpolation implementation achieved a vertical scaling limitation of 4096 entities with 10 players and a horizontal scaling limit of 40 or more players with 1024 entities and therefore was found to have a lower entity limit compared to deterministic lockstep.
Furthermore, results are compared to related work. Other contributions of this thesis include an overview of game networks and the three game state synchronization techniques. An architecture model for deterministic lockstep including a hybrid approach combining it with snapshot interpolation for re-synchronization and hot-joins. And finally, a network packet deconstruction of the implemented networking framework Unity Transport Package (UTP).
This study investigates the possibility of using Bartle’s player types for gamification
in the context of language learning apps. By taking user preferences into
account, this might assist in selecting the most suitable game elements. Learning
apps are gaining popularity as an innovative method for obtaining an independent
and flexible learning experience. Gamification keeps users motivated and involved
with the content.
After the research on the usage of gamification and its effects on the user, a language
learning app prototype was created. The evaluation consisted of a user test with
interview questions and the short User Experience Questionnaire (UEQ). The Bartle
test of gamer psychology was used to determine the player types of the participants.
The results show that, while player type and gamification preference can partially
coincide, there are too many deviations to confidently say it can be transferred into
gamification contexts. We conclude that game elements should not be chosen based
on a user’s Bartle player type and are more effectively used by incorporating a variety
of different gamification components.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
Mit der seit Jahren fortschreitenden Digitalisierung des Medienmarktes werden auch Bildungsmedienanbieter mit der Forderung konfrontiert, einen Beitrag zur Innovation des Bildungsbereichs zu leisten und Lehr- und Lernprozesse (auch) digital zu gestalten. Für den Schulsektor erfüllen diese Anforderungen mittlerweile größere Bildungsmedienanbieter in Deutschland dadurch, dass sie z. B. digitale Schulbücher und Zusatzmaterialien anbieten und kommerziell vertreiben. Offene Lernmaterialien in dem Sinne, dass sie von Lehrpersonen selbst in Plattformen eingestellt, mit anderen geteilt und unter offenen Lizenzen zur Veränderung und Weiterverwendung frei gegeben werden, sind in Deutschland allerdings immer noch eine Randerscheinung. Vor allem die Finanzierung durch Bildungsministerien und eine Integration in bestehende Verlagsstrukturen ist nicht gegeben. Aktuell wird die „Offenheitsidee" bisher nur von einzelnen engagierten Pädagoginnen und Pädagogen gelebt und vorangetrieben. Zudem verteidigen tradierte Bildungsmedienverlage hartnäckig ihre bisherigen Geschäftsmodelle. In der Arbeit wird dargestellt, was der Offenheitsgedanke für den Bildungsmedienbereich impliziert und mit welchen Strategien sich insbesondere Schulbuchverlage als Bildungsmedienanbieter gegen den Einbezug offener Lernmaterialien in ihre Geschäftsmodelle positionieren. In diesem Zusammenhang wird gezeigt, dass die drei führenden Schulbuchverlage in Deutschland zurzeit nur geschlossene digitale Lernmaterialien anbieten. Darüber hinaus werden alternative (international schon umgesetzte) Geschäftsmodelle sowie potenzielle Geschäftsmodell-Ideen für Deutschland vorgestellt. Es wird ein prospektives, fiktives Geschäftsmodell für einen Schulbuchverlag in Deutschland entwickelt, in dem offene und geschlossene Bildungsmedien unter einem Verlagsdach vertrieben werden. Die Positionen der Vertreterin einer offenen Lernmaterialien-Plattform und des Vertreters eines tradierten Bildungsmedienanbieters zu diesem Modell werden eingeholt, analysiert und ausgewertet. Im Hinblick auf Stellenwert und Vermarktung von offenen digitalen Bildungsmedien (OER) zeigt sich im Ergebnis, dass Befürworter und Entwickler von offenen Bildungsmedien und tradierte Schulbuchverlage zurzeit keine gemeinsamen Ziele und Geschäftsmodelle sehen.
The number of people with cognitive impairments increases together with the aging population. Thus, social robots are being researched to aid relieve the nursing
sector as well as to combat cognitive impairments. However, it raises concerns regarding how a social robot should relate to members of this group and what might
be appropriate. In this thesis, research about the current state of social robots has been conducted and focus groups with people from the nursing and medical field were held. To verify the credibility of the results and the scenario developed, final
user tests were conducted with representatives of the target group. When using a
social robot in an interaction with persons who have cognitive disabilities, the robot
should speak and behave more human-like and make use of its facial expressions,
stressing empathy and responding to the person accordingly. Though the situation
of interacting with a social robot may be more significant in future generations.
Werden ein Kinderbuch und seine Übersetzung in eine andere Sprache nebeneinandergelegt, so fallen in der Regel gravierende inhaltliche und formale Unterschiede auf, für die sich zunächst keine Erklärungen finden lassen. Bei der Übersetzung von Erwachsenenliteratur hingegen treten derartige odifikationen kaum auf. Das Ziel der vorliegenden Arbeit ist es, die Gründe für dieses Phänomen herauszuarbeiten. Als Grundlage dienen hierzu kinderliteratur- und übersetzungswissenschaftliche Theorien sowie die Thesen, dass keine übersetzerische Entscheidung willkürlich ist und kein Übertragungsprozess in Isolation stattfindet. Die Besonderheiten der kinderliterarischen Übersetzung werden somit auf spezifische Einflüsse zurückgeführt, die im Übersetzungsvorgang eines Kinderbuches wirken.
Daraufhin wird im zweiten Teil der Arbeit ein Analyseschema entwickelt, welches die Untersuchung dieser Wirkungsgrößen ermöglicht. Anhand der Anwendung auf die deutschen Übersetzungen der englischen Mädchenbuchreihe St Clare’svon Enid Blyton wird die Relevanz und Praxistauglichkeit des Analyseschemas bestätigt.
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Jeder Mensch könnte einen Schlaganfall erleiden, der eine der Hauptursachen für Behinderungen im erwachsenen Alter ist. Die Überlebenden haben oft Lähmungen und Spastiken und benötigen daher ständige Hilfe, da selbst die Ausführung der einfachsten alltäglichen Aufgaben eine unüberwindbare Herausforderung darstellen kann. Um den Betroffenen zu helfen, wurde im Rahmen des Forschungsprojekts KONSENS unter der Leitung des Universitätsklinikums Tübingen ein Hand-Exoskelett entwickelt, das auch Schlaganfallpatienten nutzen können.
Ziel dieser Arbeit ist die Implementierung einer Steuerung für dieses Hand-Exoskelett auf der Google Glass, sowie Android Smartphones und Smartwatches. Der entstandene Prototyp wurde mit Studenten der Hochschule der Medien Stuttgart und Bekannten des Autors evaluiert. Diese Arbeit bildet den Zwischenstand der Evaluation nach zwanzig Probanden ab. Der Schwerpunkt liegt dabei auf dem Vergleich der Nutzerakzeptanz und Eignung verschiedener Ein- und Ausgabemethoden wie Touch-Input, Sprachsteuerung oder Eyetracking.
Darüber hinaus fasst diese Arbeit auch aktuelle Richtlinien zur barrierefreien Implementierung von Augmented-Reality-Anwendungen zusammen und vergleicht jene mit einem daraus abgeleiteten gemeinsamen Kriterienkatalog.
Talking about highly scalable and reliable sys-
tems, issues like logging and monitoring are often
disregarded. However, being able to manage to-
day’s software systems absolutely requires deep
knowledge about the current state of applications
as well as the underlying infrastructure. Extract-
ing and preparing debug information as well as
various metrics in a fast and clearly arranged
manner is an essential precondition in order to
handle this task.
Since we at Bertsch Innovation GmbH also
face increasing requirements concerning Media-
Cockpit as one of our core products, we decided
to establish a centralized logging infrastructure
in order to come up to the application’s evolution
towards a more and more distributed system.
In this paper, I want to describe the steps
that I have taken in order to setup a functioning
logging tool stack consisting of Elasticsearch,
Logstash and Kibana (usually abbreviated as ELK stack ). Besides outlining proper
setup and configuration, I will also discuss possi-
ble pitfalls as well as custom adjustments made
when ELK did not meet our demands.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
In dieser Arbeit wird die Verwendung von Piktogrammen und personalisierten Einstellungen zur Anpassung von Schnittstellen für Benutzer mit kognitiven Einschränkungen untersucht. Dieses Thema ist im Zusammenhang mit der digitalen Integration dieser Benutzer in den Internet-Raum von großer Bedeutung. Leider werden derzeit die meisten Websites erstellt, ohne auf die Bedürfnisse und Besonderheiten dieser Zielgruppe einzugehen. Um dieses Problem zu lösen, müssen Browser-Erweiterungen verwendet werden, die es ermöglichen, das Layout der Website an die Bedürfnisse der Benutzer anzupassen. Wir haben drei Browser- Erweiterungen auf ihre Eignung für Benutzer mit kognitiven Einschränkungen untersucht, nämlich Easy Reading, Read & Write und Immersive Reader. Diese drei Tools haben die Verwendung von Piktogrammen und personalisierten Einstellungen zur Änderung des Layout von Seiten gemeinsam.
Um die Vor- und Nachteile dieser Tools herauszufinden, wurde eine Fokusgruppe mit Experten aus den Bereichen UX, UI und Barrierefreiheit durchgeführt. Auf der Grundlage der Ergebnisse der Fokusgruppe wurden die Anforderungen zur Verbesserung und Anpassung dieser Browser-Erweiterungen für die angegebene Zielgruppe formuliert. Darüber hinaus wurden von uns wissenschaftliche Publikationen und Richtlinien zum Thema Gestaltung von Schnittstellen für Menschen mit kognitiven Einschränkungen analysiert. Die Ergebnisse der Analyse von Publikationen und Daten der Fokusgruppe bildeten die Grundlage eines neuen Konzepts für eine angepasste Browser-Erweiterung, das mit Hilfe der Software für Prototyping Figma in Form eines Prototypen umgesetzt wurde. Zur Validierung des Prototyps wurden zwei Interviews mit Expertinnen im Bereich kognitive Einschränkungen durchgeführt, die ihre Vorschläge zur Verbesserung und Vereinfachung der vorgestellten Lösung äußerten. Im Fazit wurden die Hauptrichtungen für eine eingehendere Untersuchung dieses Themas skizziert. Das Ergebnis dieser Arbeit ist die Thematisierung der Notwendigkeit, angepasste Schnittstellen für Benutzer mit kognitiven Einschränkungen unter Verwendung von Piktogrammen und personalisierten Einstellungen zu schaffen und Vertreter dieser Zielgruppe in den Entwicklungsprozess einzubeziehen.
Video games have a significant influence on our time. However, lack of accessibility makes it hard for disabled gamers to play most of them. Virtual reality offers new possibilities to include people with disabilities and enable them to play games. Additionally, serious VR games provide educational benefits, such as improved memory and engagement.
In this work, the accessibility problems in video games and VR applications are explored with an emphasis on serious games as well as a general lack of guidelines. An overview of existing guidelines is given. From this, a set of guidelines is derived that summarizes the relevant rules for accessible VR games.
New ways to interact with VR environments come with both opportunities and challenges. This work investigates the applicability of different hands-free input methods to play a VR game. Using a serious game five focus and three activation methods were implemented exemplary with the Oculus Go. The suitability of these methods was analyzed in a pre-study that excluded head movements for controlling the game. The remaining input methods were evaluated in an explorative user study in terms of operability and ease of use.In summary, all tested methods can be used to control the game. The evaluation shows head-tracking as the preferred input method, while scanning eye-tracking and voice control were rated mediocre.
In addition, the correlation between input methods and different menu types was examined, but the influence turned out to be negligible.
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
In einer Zeit, in der die Medienkonvergenz in aller (Verlags-)Munde ist, geht mit der zunehmenden Verknüpfung verschiedener Medienformate auch eine Unabhängigkeit der Endkunden bei der Selektion von für sie interessanten Titeln einher. Ein Leser kann die Inhalte nicht nur über verschiedene Kanäle rezipieren, sondern auch suchen und bewerten. Aufgrund dieser Eigenständigkeit verliert die Marke an Bedeutung, was wiederum die Verlage dazu zwingt, ihr Produktportfolio noch genauer auf die Bedürfnisse und Wünsche ihrer Kunden abzustimmen.
Um eine optimale Entscheidung bezüglich der für die Darstellung der Inhalte gewählten Medienform treffen zu können, ist es wichtig, die Wirkungsformen und Vorteile einzelner Präsentationsarten zu kennen. Der Hauptaspekt, der in der Literatur kommuniziert wird, ist folgender: Unerfahrene Rezipienten nehmen multimediale Inhalte leichter auf, Experten kommen mit einem einzigen Format (i. d. R. verbal) besser klar. Hier stellt sich die Frage nach dem Realitätsbezug: Welche Art der inhaltlichen Aufbereitung bevorzugen Ratgeber-Kunden? Gibt es eine Präferenz einzelner Produktformen oder -gruppen?
Um das herauszufinden wurde eine Erhebung unter Ratgeber-Käufern und -Lesern in einer Buchhandlung durchgeführt. Im Rahmen dieser Erhebung wurden ca. 150 Kunden in einem persönlichen Interview hinsichtlich ihrer Kaufgewohnheiten, ihrer präferierten Produktformen sowie zum allgemeinen Mediennutzungsverhalten befragt.
Bei den Kaufgewohnheiten zeigte sich, dass zum Zeitpunkt der Befragung die Themen Ernährung / Essen und Trinken, Basteln sowie Gesundheit stark gefragt sind. Bei den Produktformen tendieren die meisten Befragten eindeutig zu gedruckten Produkten, obwohl bei den Befragten die mobilen Endgeräte (vor allem das Smartphone) weit verbreitet waren. Außerdem sind Websites sehr beliebt, da hier schnell und spontan nach einer konkreten Fragestellung gesucht werden kann. Insgesamt gesehen entsprechen die Verlage mit der Fokussierung auf gedruckte Titel immer noch den mehrheitlichen Kundenwünschen, gleichzeitig ist aber nicht nur ein Online-Auftritt notwendig, bei dem auch sehr leicht multimediale Inhalte wie z. B. Videos eingebettet
werden können, sondern auch die Entwicklung von E-Books und Apps – im Zuge der Medienkonvergenz werden diese Produkte noch an Bedeutung gewinnen.
Um Websites für jeden Menschen ohne Einschränkungen verfügbar zu
machen, wurden auf nationaler sowie internationaler Ebene Gesetze und Normen verabschiedet, welche die Barrierefreiheit für Internetauftritte anhand festgelegter Richtlinien
wahren sollen. Zur Einhaltung dieser Richtlinien wurden Prüfverfahren entwickelt, die anhand unterschiedlicher Evaluationsmethoden den Grad der Zugänglichkeit von Webseiten
und ihren Inhalten bewerten. Zwei dieser Prüfverfahren sind der Barrierefreiheitscheck-Web sowie der BIK BITV-Test. Für die manuelle Durchführung der Tests wird üblicherweise
eine repräsentative Stichprobe der Website erstellt und das Ergebnis der Prüfung auf die
Stichprobe für die gesamte Website generalisierend angenommen. Die Erstellung der Seitenauswahl ist bei umfangreichen Websites jedoch mit großem Aufwand verbunden und
soll im Zuge dieser Arbeit mit Hilfe einer serverseitigen Web-Anwendung automatisiert
werden.
Dazu wurden verschiedene existierende Stichprobenverfahren und Crawling-Methoden
analysiert und anschließend für die Eignung der technischen Umsetzung eingeordnet. Im
Rahmen der Arbeit wird ein eigener Ansatz für die automatisierte Seitenauswahl präsentiert, der auf dem HTML class-Attribut basiert. Dieser Ansatz nutzt die Eigenschaft von
Klassennamen aus, den Namen des Strukturelements zu beinhalten. Dadurch zielen wir
darauf ab, wichtige Inhalte der zu prüfenden Website zu erfassen und diese Informationen als Grundlage für die Auswahl der Stichprobe zu nehmen.
Die Evaluation wurde durch den Vergleich der generierten Liste unserer Anwendung von
drei ausgewählten Webseiten, mit der von Experten des Kompetenzzentrums Digitale
Barrierefreiheit der HdM erstellten Liste, durchgeführt. Die Ergebnisse zeigten, dass unsere Anwendung eine Liste von Seiten generieren konnte, die ein breites Spektrum an
Inhalten abdeckte, jedoch begrenzte Fähigkeiten hatte, der Liste der Experten zu gleichen
und daher in der aktuellen Version für den Barrierefreiheitscheck-Web nicht als alleinstehendes Tool geeignet ist.
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung von Technologien, die das Infotainmentsystem
von Fahrzeugen mit mobilen Endgeräten verbinden. Dabei werden Eigenschaften wie der
technische Aufbau der Technologien, Angebotsbreite und weitere relevante Attribute analysiert, die
anschließend innerhalb einer Matrix gegenüber gestellt werden. Nachfolgend werden die Geschäftsmodelle
der Unternehmen analysiert, die die zuvor betrachteten Verbindungstechnologien
anbieten. Als Vorgehensweise wurde das Business Model Canvas von Alexander Osterwalder und
Yves Pigneur ausgewählt, da es alle wesentlichen Elemente eines Geschäftsmodells einbeziehen und
deren Zusammenspiel betrachten. Um ein abschließendes Fazit zu formulieren, werden die Auswirkungen
der Geschäftsmodelle auf Automobilhersteller und Entwickler von Applikationen erörtert und
ausgewertet. Durch die sich ergebenden Risiken und Potenziale wird eine sinnvolle Wahl von Technologien
getroffen, die in die zukünftigen Geschäftsmodelle von Automobilherstellern und ApplikationsEntwicklern
einbezogen werden sollten.
Ab Mitte 2025 wird das Barrierefreiheitsstärkungsgesetz viele Unternehmen in Deutschland dazu verpflichten, ihre Websites und Online-Shops barrierefrei zu gestalten. Sie stehen vor der Herausforderung, die Barrierefreiheit künftig in den Entwicklungsprozess ihrer digitalen Plattformen zu integrieren.
Um dies zu erleichtern, entwarfen wir im Rahmen dieser Arbeit einen Entwicklungsprozess für barrierefreie Webanwendungen in Scrum, der in einem Experiment mit anschließender heuristischer Evaluation und einer Befragung in einem E-Commerce-Unternehmen validiert wurde. Der Entwicklungsprozess befasst sich mit der Einbeziehung von Barrierefreiheit in Scrum-Elemente wie Product Backlog Items, die Definition of Ready und Definition of Done. Außerdem zeigt er bewährte Praktiken für die Implementation und das Testen von Barrierefreiheit auf.
Die Ergebnisse zeigten, dass die Erfassung von Barrierefreiheitsanforderungen in Form von Gherkin-Szenarien zu einer schnelleren Bearbeitung von Aufgaben und höheren Zufriedenheit mit dem Entwicklungsansatz im Scrum-Team beiträgt. Ferner wurde deutlich, dass die Schulung des Personals unerlässlich ist, um die Anforderungen der EN 301 549 und der WCAG vollständig zu erfüllen.
Diese Arbeit macht deutlich, dass Unternehmen zeitnah Maßnahmen ergreifen müssen, um das Barrierefreiheitsstärkungsgesetz rechtzeitig umsetzen zu können.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
Der Traum von adaptiven und personalisierten Computerlernsystemen, welche die Lehrkräfte von langweiligen und mühseligen Arbeiten befreien sollen, beschäftigt die Forschung schon seit den 1920er Jahren. Jüngste Bemühungen setzen sich vor allem mit dem Personalisieren von Lernpfaden auseinander. Das Ziel dieser Bachelorthesis ist die Implementation einer adaptiven Erweiterung in ein bestehendes Lernmanagementsystem namens "Schule 4.0", sodass dadurch individueller auf die Bedürfnisse des Lernenden eingegangen werden kann. Hierfür wird ein Überblick über das Themenfeld des adaptiven Lernens gegeben, sowie die Verfahren und Funktionsweise adaptiver Lernsysteme erklärt. Weiter werden Verfahren zur Generierung von adaptiven Lernpfaden vorgestellt und der "State of the Art" von Lernpfade Editoren untersucht. Basierend auf diesen Erkenntnissen wird ein Konzept für einen grafischen Lernpfade Editor zum Erstellen adaptiver Lernpfade erstellt und systematisch mit Vorgehensmodellen aus dem Software Engineering in das bestehende System implementiert. Mithilfe der Implementation werden Beispielszenarien konstruiert und durch Experten der Pädagogik in einer Fokusgruppe evaluiert. Das Ergebnis dieser Arbeit ist ein grafischer Lernpfade Editor für "Schule 4.0", welcher in vielen Szenarien pädagogisch sinnvoll eingesetzt werden kann.
Diese Arbeit behandelt die Erstellung der Module „Barrierefreiheit im Hochschulkontext“ und „Barrierefreie Veranstaltungen“ für das Zertifikat „Barrierefrei lehren“ des Kompetenzzentrums für digitale Barrierefreiheit der Hochschule der Medien Stuttgart. Dieses Zertifikat soll Lehrenden die notwendigen Kenntnisse vermitteln, um Barrierefreiheit innerhalb der Lehre umzusetzen und so den Zugang zu Bildung für alle Studierenden mit Einschränkungen sicherzustellen. In dieser Arbeit wird die Notwendigkeit für ein solches Zertifikat dargelegt sowie die Auswahl der hierzu relevanten Themen. Die erstellten Lehrinhalte beinhalten Texte, Bilder, Videos und Quizfragen. Mit diesen Materialien soll zur Umsetzung von Barrierefreiheit in der Lehre beigetragen werden.
In dieser Bachelorarbeit habe ich für die e-Learning-Plattform Ilias Videoplayer analysiert, um einen Ersatz für den Ilias-Player zu finden, mit dem Hintergrund Barrierefreiheit. Analysiert wurden der Ilias-Player, der Youtube-Player, der Able Player, der OzPlayer und der Paella Player; die zugrundeliegenden Richtlinien sind in der EU-Norm EN 301 549 niedergeschrieben. Nach der Analyse wurde ein Prototyp implementiert, wie der gewählte Videoplayer (in diesem Fall der Able Player) in einer Ilias-Umgebung aussehen könnte.
Die fortschreitende Digitalisierung der Hochschulen führt dazu, dass die Lehrenden ihre Lehrveranstaltungen zunehmend barrierefrei gestalten müssen, um sicherzustellen, dass alle Studierenden gleichermaßen an der Lehre und Studium teilhaben können. Zu diesem Zweck wurde das Zertifikat „Barrierefrei Lehren“ entwickelt, welches beim Fachverband International Association of Accessibility Professionals (IAAP) D-A-CH zum Einsatz kommen soll. Ziel dieser Arbeit ist die Erstellung von Lernmaterialien für den Onlinekurs zum Zertifikat. Von insgesamt fünf Zertifikatsmodulen, werden zwei umgesetzt. Konkret handelt es sich hierbei um die Module „Grundlagen“ und „Vielfalt der Benutzerbedürfnisse“. Um potentielle zertifikatsrelevante Themen zu ermitteln, wird zunächst eine qualitative Recherche nach bestehenden Curricula, Kursen und Materialsammlungen im Bereich der digitalen Barrierefreiheit durchgeführt und in einer Topic Map dokumentiert. Daraufhin wird ein virtueller Workshop organisiert, um die Themen für das Zertifikat zu finalisieren. Der Workshop erfolgt dabei in Form einer qualitativen Gruppendiskussion mit quantitativer Umfrage mit den Mitgliedern des IAAP D-A-CH Arbeitskreises „Barrierefreiheit in der Bildung“. Der erstellte Onlinekurs befindet sich auf der Moodle-Plattform des Kompetenzzentrums für digitale Barrierefreiheit der Hochschule der Medien in Stuttgart. Die Module sind als einzelne Lernabschnitte angelegt. In jedem Lernabschnitt befinden sich verschiedene Lektionen, welche die Lernmaterialien zum Zertifikat enthalten. Die Lernmaterialien dienen der Vorbereitung für die abschließende IAAP-Zertifizierungsprüfung.
Kommunikationsbotschaften bestehen aus unterschiedlichen Zeichen, die bildlicher, schriftlicher oder auch gestischer Natur sein können und als Zeichensysteme auftreten.
Das Verständnis von Zeichen ist die Grundvoraussetzung für Kommunikation. Werden Zeichen nicht verstanden oder falsch interpretiert, schlägt die Kommunikation fehl.
Werbung als Form der Kommunikation dient der Vermittlung einer Botschaft.
Diese Botschaft muss so konzipiert sein, dass sie die Aufmerksamkeit des Betrachters erlangt und in dessen Gedächtnis verankert werden kann.
Dafür müssen ihm Verknüpfungsmöglichkeiten angeboten werden. Sowohl auf der verbalen als auch auf der visuellen Ebene analysiert die Semiotik diese
Möglichkeiten und ist daher auch für die Werbung wichtig.
Ziel der Arbeit ist es, semiotische Aspekte, die in der Buch-Anzeigenwerbung enthalten sind, zu verdeutlichen. Dazu werden neun unterschiedliche Buchanzeigen analysiert und die Bedeutungsansätze, die sie für den Rezipienten bereithalten, entschlüsselt. Das Ergebnis der Analyse zeigt, dass die Einbeziehung der Semiotik hinsichtlich der Gliederungs- und Darstellungsmöglichkeiten von Bild und Text sowie deren Relation zueinander einer Buchanzeige mehr Aufmerksamkeit verschaffen kann. Anzeigen, die rhetorische und stilistische Mittel einsetzen und im sprachlichen Kode variabel sind, sind attraktiver als Anzeigen, die diese Kodes nicht einsetzen.
Anzeigen, die hinsichtlich ihrer Bildsemiotik einen größeren Spielraum bieten, wirken auf den Betrachter anders als Anzeigen, die Abbildungen aneinanderreihen. Dabei spielen kulturell-semiotische Eigenschaften ebenfalls eine wichtige Rolle.
Aus der Digitalisierung resultieren große Veränderungen. Unternehmen, auch speziell (Buch-)Verlage, sind gezwungen sich stets zu prüfen und bei Bedarf anzupassen. Die Komplexität der eigenen digitalen Transformation macht jedoch ein Veränderungsmanagement erforderlich. Die vorliegende Arbeit möchte daher herausfinden, ob und (im Falle der Bejahung) wie New Work die Bewältigung der digitalen Transformation von (Buch-)Verlagen und branchenfremden Unternehmen unterstützen kann bzw. zu diesem Zweck instrumentell einsetzbar ist. Dabei soll ein Vergleich beider Seiten statfinden.
Nach Betrachtung der theoretischen Grundlagen, welche ebenfalls Primärforschung umfasst, werden mittels Experteninterviews mit Verantwortlichen der Thematik ‚New Work‘ und mittels einer On-line-Befragung mit Mitarbeitern Erkenntnisse zum Zusammenhang, zur aktuellen Lage der Unter-nehmen, zu Mitarbeiterbedürfnissen sowie möglichen unternehmensinternen Diskrepanzen gewonnen.
Es zeigt sich, dass New Work die Bewältigung unterstützen kann und ein Einsatz tendenziell geeignet ist. Festzustellen sind Wirkungsweisen von New Work(-Ausprägungen) auf die Bewältigung: das Abmildern von Herausforderungen, das Begünstigen oder Entsprechen von Erfolgsfaktoren und das Verbessern von Rahmenbedingungen der digitalen Transformation von Unternehmen. Zwischen den Branchen sind keine großen Unterschiede hinsichtlich der Thematik existent. Unternehmen ist letztlich der Einsatz bestimmter New Work-Ausprägungen, vor allem aber eine möglichst umfassende Umsetzung von New Work unter Berücksichtigung individueller Gegebenheiten, zu empfehlen.
Die vorliegende Arbeit zeigt Unternehmen ein Instrument zur Bewältigung der eigenen digitalen Transformation und zu berücksichtigende Brancheneigenheiten bei der Umsetzung bzw. dem Einsatz auf.
Digitale Barrierefreiheit im E-Learning - Best Practice Beispiele und Richtlinien für Autoren
(2023)
Bei ZEISS haben alle Mitarbeiter das gleiche Recht auf Bildung. Um Menschen mit
Behinderung die volle Teilhabe an E-Learnings zu ermöglichen, müssen E-Learnings
barrierefrei sein. Für die Erstellung von barrierefreien E-Learnings benötigen Autoren
eine Anleitung, wie Barrierefreiheit in ihrem Autorentool umgesetzt wird. Daraus ergibt
sich das Ziel dieser Arbeit mit dem Forschungsthema: „Erstellung eines Autoren-
Leitfadens zur Verbesserung der Barrierefreiheit von E-Learnings im
Autorentool Articulate Storyline 360 anhand eines Praxisbeispiels“.
Zur Erfüllung dieses Ziels, identifizierten wir anfangs Barrieren in vorhandenen E-Learnings.
Dafür führten wir den BITV-Test an einem möglichst repräsentativen E-Learning
durch und befragten Menschen mit Behinderungen. Das Ergebnis waren 25
Barrieren, welche uns als Grundlage für den Autoren-Leitfaden dienten. Der erstellte
Leitfaden ist eine Schritt-für-Schritt-Anleitung, in der jeweils eine Möglichkeit
beschrieben ist, wie die Barrieren mit dem Autorentool Articulate Storyline 360
vermieden werden können. Diesen Leitfaden validierten wir mittels Nutzertests mit den
Autoren. Die Ergebnisse daraus wurden für eine bessere Anwendbarkeit in den Leitfaden
eingearbeitet. Ein weiteres Resultat des Nutzertests war, dass alle Autoren den Leitfaden gerne für die Arbeit nutzen werden.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
In der vorliegenden Bachelorarbeit wird untersucht, welchen Einfluss die Einbindung von Audioelementen auf die kindliche Merkfähigkeit hat. Untersuchungsgegenstand ist das Kindersachbuch Komm mit, wir entdecken den Waldaus dem Thienemann Verlag, das sowohl in einer konventionellen Version als auch in einer mit TING-Elementen erweiterten Version vorliegt.
Ziel der Arbeit ist es, die Untersuchungsfrage »Steigern Audioelemente in Kindersachbüchern die Merkfähigkeit der Kinder?« zu beantworten. Im ersten Schritt werden daher Grundlagen zu dem Mediennutzungsverhalten und der Medienwelt von Kindern im Vorschulalter sowie psychologische Grundlagen zu den Themen Rezeption, Gedächtnis und Lernen erläutert. Anschließend werden Audiostifte im Allgemeinen und die beiden Audiostifte TING und tiptoi® im Speziellen vorgestellt.
Es wird folgende Hypothese aufgestellt: »Durch die mehrkanalige Ansprache einerseits und das hohe Interesse der Kinder an Medien und Technologie andererseits wird die Merkfähigkeit der Kinder bei Einbindung von Audioelementen gesteigert.« Um diese zu be- oder widerlegen, wird eine empirische Untersuchung mit 89 Kindern im Alter von vier bis sechs Jahren durchgeführt. Die Probanden werden in zwei Gruppen eingeteilt und diese beiden Gruppen anschließend einem Experiment und einer Befragung unterzogen.
Bei der Analyse der Befragungsergebnisse von Kontroll- und Versuchsgruppe kann keine eindeutige Steigerung der Merkfähigkeit bei den Probanden der Versuchsgruppe festgestellt werden. Die Hypothese bstätigte sich damit für diese Untersuchung nicht.
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
Mit der stetig wachsenden Digitalisierung steigen auch die Anforderungen an mobile Anwendungen, ebenso wie die Erwartungshaltung von Kunden an deren Qualität und Nutzerfreundlichkeit.
In der vorliegenden Arbeit wird umfassend untersucht, wie Inklusionsaspekte in den Business-to-Business Kontext eingebunden werden können, um eine langfristige Kundenbindung zu fördern.
Ein Schwerpunkt dieser Studie liegt auf der Evaluierung der Benutzerfreundlichkeit der Mercedes-Benz B2B Connect App mit dem Ziel, die User Experience zu optimieren.
Damit einhergehend wird eine detaillierte Gegenüberstellung und Analyse der Richtlinien sowie der Überschneidungen zwischen Nielsens 10 Heuristiken und den Web Content Accessibility Guidelines (WCAG) 2.1 mit den internen Richtlinien der Mercedes-Benz AG zur „Accessibility“-Thematik durchgeführt. Außerdem sollen in dieser Arbeit Potenziale für die Integration einer App in bestehende Geschäftsfelder sowie für die Erschließung neuer Geschäftsmöglichkeiten durch die mobile Nutzbarkeit des Kunden ermittelt werden.
Die Ergebnisse der Studie dienen als Grundlage für die Bereitstellung einer neuen Lösung, welche inklusive Personalisierungsmöglichkeiten mit einbezieht. Die Arbeit trägt dazu bei Inklusionsaspekte in einer Business-to-Business App zu berücksichtigen, die Benutzerfreundlichkeit der Mercedes-Benz App zu optimieren und den Nutzen für alle durch die Integration von Personalisierungsmöglichkeiten zu verdeutlichen.