Refine
Year of publication
Document Type
- Bachelor Thesis (26)
- Master's Thesis (13)
- Book (11)
- Other (1)
- Report (1)
- Researchpaper (1)
Has Fulltext
- yes (53) (remove)
Is part of the Bibliography
- no (53)
Keywords
- Barrierefreiheit (8)
- Verlag (4)
- Gamification (3)
- Accessibility (2)
- Buchhandel (2)
- Digitaldruck (2)
- Digitale Barrierefreiheit (2)
- Nachhaltigkeit (2)
- Publizieren (2)
- Vergleich (2)
Institute
- FB 1: Druck und Medien (53) (remove)
Before gas is transported, natural gas traders have to plan with many contracts every day. If a cost-optimized solution is sought the most attractive contracts of a large contract set have to be selected. This kind of cost-optimization is also known as day-ahead balancing problem. In this work it is shown that it is possible to express this problem as a linear program that considers important influences and restrictions in the daily trading.
The aspects of the day-ahead balancing problem are examined and modelled individually. This way a basic linear program is gradually adapted towards a realistic mathematical formulation. The resulting linear optimization problem is implemented as a prototype that considers the discussed aspects of a cost-optimized contract selection.
Video games have a significant influence on our time. However, lack of accessibility makes it hard for disabled gamers to play most of them. Virtual reality offers new possibilities to include people with disabilities and enable them to play games. Additionally, serious VR games provide educational benefits, such as improved memory and engagement.
In this work, the accessibility problems in video games and VR applications are explored with an emphasis on serious games as well as a general lack of guidelines. An overview of existing guidelines is given. From this, a set of guidelines is derived that summarizes the relevant rules for accessible VR games.
New ways to interact with VR environments come with both opportunities and challenges. This work investigates the applicability of different hands-free input methods to play a VR game. Using a serious game five focus and three activation methods were implemented exemplary with the Oculus Go. The suitability of these methods was analyzed in a pre-study that excluded head movements for controlling the game. The remaining input methods were evaluated in an explorative user study in terms of operability and ease of use.In summary, all tested methods can be used to control the game. The evaluation shows head-tracking as the preferred input method, while scanning eye-tracking and voice control were rated mediocre.
In addition, the correlation between input methods and different menu types was examined, but the influence turned out to be negligible.
Der Traum von adaptiven und personalisierten Computerlernsystemen, welche die Lehrkräfte von langweiligen und mühseligen Arbeiten befreien sollen, beschäftigt die Forschung schon seit den 1920er Jahren. Jüngste Bemühungen setzen sich vor allem mit dem Personalisieren von Lernpfaden auseinander. Das Ziel dieser Bachelorthesis ist die Implementation einer adaptiven Erweiterung in ein bestehendes Lernmanagementsystem namens "Schule 4.0", sodass dadurch individueller auf die Bedürfnisse des Lernenden eingegangen werden kann. Hierfür wird ein Überblick über das Themenfeld des adaptiven Lernens gegeben, sowie die Verfahren und Funktionsweise adaptiver Lernsysteme erklärt. Weiter werden Verfahren zur Generierung von adaptiven Lernpfaden vorgestellt und der "State of the Art" von Lernpfade Editoren untersucht. Basierend auf diesen Erkenntnissen wird ein Konzept für einen grafischen Lernpfade Editor zum Erstellen adaptiver Lernpfade erstellt und systematisch mit Vorgehensmodellen aus dem Software Engineering in das bestehende System implementiert. Mithilfe der Implementation werden Beispielszenarien konstruiert und durch Experten der Pädagogik in einer Fokusgruppe evaluiert. Das Ergebnis dieser Arbeit ist ein grafischer Lernpfade Editor für "Schule 4.0", welcher in vielen Szenarien pädagogisch sinnvoll eingesetzt werden kann.
Moderne Smartphones wie das iPhone sind die ersten massentauglichen mobilen Geräte, auf denen Augmented-Reality-Anwendungen genutzt werden können.
Mit der zunehmenden Verbreitung solcher Smartphones prognostizieren Analysten nun ein rasantes Wachstum für den Augmented-Reality-Markt.
Im Rahmen der vorliegenden Masterarbeit wird Augmented Reality (kurz AR) unter dem Gesichtspunkt des Kundennutzens von content-basierten Anwendungen in Printprodukten untersucht.
Es wird insbesondere darauf eingegangen, wie es Verlagen gelingt, einen Mehrwert für ihre Kunden zu generieren und ihre gedruckten Produkte dadurch attraktiver zu gestalten.
Zu diesem Zweck werden in einem selbst entwickelten Kundennutzenmodell verschiedene Branchensegmente analysiert und mit passenden Anwendungsbeispielen illustriert.
Außerdem werden im letzten Teil der Arbeit die Kunden dazu befragt, wie sie selbst den Zusatznutzen von Augmented-Reality-Anwendungen einschätzen und ob sie bereit sind, für den Mehrwert zu bezahlen.
In dieser Bachelorarbeit habe ich für die e-Learning-Plattform Ilias Videoplayer analysiert, um einen Ersatz für den Ilias-Player zu finden, mit dem Hintergrund Barrierefreiheit. Analysiert wurden der Ilias-Player, der Youtube-Player, der Able Player, der OzPlayer und der Paella Player; die zugrundeliegenden Richtlinien sind in der EU-Norm EN 301 549 niedergeschrieben. Nach der Analyse wurde ein Prototyp implementiert, wie der gewählte Videoplayer (in diesem Fall der Able Player) in einer Ilias-Umgebung aussehen könnte.
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Um Websites für jeden Menschen ohne Einschränkungen verfügbar zu
machen, wurden auf nationaler sowie internationaler Ebene Gesetze und Normen verabschiedet, welche die Barrierefreiheit für Internetauftritte anhand festgelegter Richtlinien
wahren sollen. Zur Einhaltung dieser Richtlinien wurden Prüfverfahren entwickelt, die anhand unterschiedlicher Evaluationsmethoden den Grad der Zugänglichkeit von Webseiten
und ihren Inhalten bewerten. Zwei dieser Prüfverfahren sind der Barrierefreiheitscheck-Web sowie der BIK BITV-Test. Für die manuelle Durchführung der Tests wird üblicherweise
eine repräsentative Stichprobe der Website erstellt und das Ergebnis der Prüfung auf die
Stichprobe für die gesamte Website generalisierend angenommen. Die Erstellung der Seitenauswahl ist bei umfangreichen Websites jedoch mit großem Aufwand verbunden und
soll im Zuge dieser Arbeit mit Hilfe einer serverseitigen Web-Anwendung automatisiert
werden.
Dazu wurden verschiedene existierende Stichprobenverfahren und Crawling-Methoden
analysiert und anschließend für die Eignung der technischen Umsetzung eingeordnet. Im
Rahmen der Arbeit wird ein eigener Ansatz für die automatisierte Seitenauswahl präsentiert, der auf dem HTML class-Attribut basiert. Dieser Ansatz nutzt die Eigenschaft von
Klassennamen aus, den Namen des Strukturelements zu beinhalten. Dadurch zielen wir
darauf ab, wichtige Inhalte der zu prüfenden Website zu erfassen und diese Informationen als Grundlage für die Auswahl der Stichprobe zu nehmen.
Die Evaluation wurde durch den Vergleich der generierten Liste unserer Anwendung von
drei ausgewählten Webseiten, mit der von Experten des Kompetenzzentrums Digitale
Barrierefreiheit der HdM erstellten Liste, durchgeführt. Die Ergebnisse zeigten, dass unsere Anwendung eine Liste von Seiten generieren konnte, die ein breites Spektrum an
Inhalten abdeckte, jedoch begrenzte Fähigkeiten hatte, der Liste der Experten zu gleichen
und daher in der aktuellen Version für den Barrierefreiheitscheck-Web nicht als alleinstehendes Tool geeignet ist.
Behinderte Personen können durch digitale Angebote vorhandene Barrieren ausglei-chen und Zugang zu neuen Bereichen erhalten. Hierbei ist es wichtig, dass möglichst viele Personen gleichberechtigt auf die Angebote ohne neue Barrieren zugreifen. Dies spiegelt sich auch in Gesetzen und Richtlinien für Informationsangebote öffentlicher Stel-len und ab 2025 auch für bestimmte private Unternehmen wider.
Für die Überprüfung der Barrierefreiheit von Websites können Automatische Monitoring Systeme (AMS) eingesetzt werden, die Websites immer wieder automatisch nach Barri-eren durchsuchen. Gegenstand dieser Bachelorarbeit ist ein Vergleich von drei AMS: Pa11y, ARC Monitoring und Siteimprove.
Die AMS werden zuerst nach qualitativen Gesichtspunkten gegenübergestellt, wie zum Beispiel Preismodell, Hosting, unterstützte Richtlinien oder Einsatz von Gamification.
Um quantitative Ergebnisse zu erhalten, verglichen wir die Scanergebnisse einer selbst konstruierten Test-Website, die Verstöße für alle Success Criteria der Web Content Ac-cessibility Guidelines (WCAG) 2.1 enthält. Die Ergebnisse wurden nach den Evaluati-onskriterien Coverage (Abdeckung) und Correctness (Richtigkeit) ausgewertet. Coverage umfasste die Abdeckung der WCAG Success Criteria, Principles, Guidelines und der in der EN 301549 zugeordneten betroffenen Benutzendengruppen.
Um die Usability der AMS zu analysieren, wurde eine Heuristische Evaluation nach Nielsens 10 Heuristiken durchgeführt.
Pa11y hat von allen AMS die beste Coverage, jedoch die schlechteste Correctness auf-grund vieler Falsch Positive durch unspezifische Meldungen. Eine Berechnung ohne diese verschlechterte die Coverage und verbesserte die Correctness. ARC Monitoring konnte aufgrund der schlechten Usability und mittelmäßigen quantitativen Werte am we-nigsten überzeugen. Siteimprove ist das AMS mit dem größten Funktionsumfang und der besten Usability. Die quantitativen Ergebnisse sind ohne Einberechnung der Notices ähnlich gut wie die von Pa11y.
Die Coverage aller drei AMS zusammengefasst zeigt, dass sie eine manuelle Prüfung nicht ersetzen können. Die erzielten Werte zeigen selten eine Abdeckung von mehr als 50 %.
Talking about highly scalable and reliable sys-
tems, issues like logging and monitoring are often
disregarded. However, being able to manage to-
day’s software systems absolutely requires deep
knowledge about the current state of applications
as well as the underlying infrastructure. Extract-
ing and preparing debug information as well as
various metrics in a fast and clearly arranged
manner is an essential precondition in order to
handle this task.
Since we at Bertsch Innovation GmbH also
face increasing requirements concerning Media-
Cockpit as one of our core products, we decided
to establish a centralized logging infrastructure
in order to come up to the application’s evolution
towards a more and more distributed system.
In this paper, I want to describe the steps
that I have taken in order to setup a functioning
logging tool stack consisting of Elasticsearch,
Logstash and Kibana (usually abbreviated as ELK stack ). Besides outlining proper
setup and configuration, I will also discuss possi-
ble pitfalls as well as custom adjustments made
when ELK did not meet our demands.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung von Technologien, die das Infotainmentsystem
von Fahrzeugen mit mobilen Endgeräten verbinden. Dabei werden Eigenschaften wie der
technische Aufbau der Technologien, Angebotsbreite und weitere relevante Attribute analysiert, die
anschließend innerhalb einer Matrix gegenüber gestellt werden. Nachfolgend werden die Geschäftsmodelle
der Unternehmen analysiert, die die zuvor betrachteten Verbindungstechnologien
anbieten. Als Vorgehensweise wurde das Business Model Canvas von Alexander Osterwalder und
Yves Pigneur ausgewählt, da es alle wesentlichen Elemente eines Geschäftsmodells einbeziehen und
deren Zusammenspiel betrachten. Um ein abschließendes Fazit zu formulieren, werden die Auswirkungen
der Geschäftsmodelle auf Automobilhersteller und Entwickler von Applikationen erörtert und
ausgewertet. Durch die sich ergebenden Risiken und Potenziale wird eine sinnvolle Wahl von Technologien
getroffen, die in die zukünftigen Geschäftsmodelle von Automobilherstellern und ApplikationsEntwicklern
einbezogen werden sollten.
The capabilities of Artificial Intelligence (AI) are utilized increasingly
in today‘s world. The autonomous and adaptive characteristics
allow applications to be more effective and efficient. A certain
subfield of Artificial Intelligence, Machine Learning, is enabling
services to be tailored to a user‘s specific needs. This could prove to
be useful in an information-heavy field such as Statistics. As design
research from SPSS Statistics, a legacy statistical application, has
indicated, statistics beginners struggle to tackle the challenge of
preparing a statistical research study. They turn to several sources
of information in an attempt to find help and answers but are not
always successful. This leads to them being unconfident before
they have even started to execute the statistical study. The adaptive
features of Artificial Intelligence could help support students
in this case, if designed according to established principles. This
thesis investigated the question whether an AI-powered solution
could elevate the users‘ confidence in statistical research studies.
In order to find the answer, a prototype with exemplary User Experience
was designed and implemented. Preceding research determined
the domain and market offer. User research was conducted
to ensure a human-centered outcome. The prototype was evaluated
with real test users and the results answered the question in
the affirmative.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
The increasing availability of online video content, partially fueled by the Covid-19 pandemic and the growing presence of social media, adds to the importance of providing audio descriptions as a media alternative to video content for blind and visually impaired people. In order to address concerns as to what can be sufficiently described and how such descriptions can be delivered to users, a concept has been developed providing audio descriptions in multiple levels of detail. Relevant information is incorporated into an XML-based data structure. The concept also includes a process to provide optional explanations to terms and abbreviations, helping users without specific knowledge or people with cognitive concerns in comprehending complex videos. These features are implemented into a prototype based on the Able Player software. By conducting a user test, the benefits of multi-layered audio descriptions and optional explanatory content are evaluated. Findings suggest that the choice of several levels of detail is received positively. Users acknowledged the concept of explanations played parallelly to the video and described further use cases for such a practice. Participants preferred a higher level of detail for a high-paced action video and a lower level for informative content. Possibilities to extend the data structure and features include multilanguage use cases and distributed systems.
Digitale Barrierefreiheit im E-Learning - Best Practice Beispiele und Richtlinien für Autoren
(2023)
Bei ZEISS haben alle Mitarbeiter das gleiche Recht auf Bildung. Um Menschen mit
Behinderung die volle Teilhabe an E-Learnings zu ermöglichen, müssen E-Learnings
barrierefrei sein. Für die Erstellung von barrierefreien E-Learnings benötigen Autoren
eine Anleitung, wie Barrierefreiheit in ihrem Autorentool umgesetzt wird. Daraus ergibt
sich das Ziel dieser Arbeit mit dem Forschungsthema: „Erstellung eines Autoren-
Leitfadens zur Verbesserung der Barrierefreiheit von E-Learnings im
Autorentool Articulate Storyline 360 anhand eines Praxisbeispiels“.
Zur Erfüllung dieses Ziels, identifizierten wir anfangs Barrieren in vorhandenen E-Learnings.
Dafür führten wir den BITV-Test an einem möglichst repräsentativen E-Learning
durch und befragten Menschen mit Behinderungen. Das Ergebnis waren 25
Barrieren, welche uns als Grundlage für den Autoren-Leitfaden dienten. Der erstellte
Leitfaden ist eine Schritt-für-Schritt-Anleitung, in der jeweils eine Möglichkeit
beschrieben ist, wie die Barrieren mit dem Autorentool Articulate Storyline 360
vermieden werden können. Diesen Leitfaden validierten wir mittels Nutzertests mit den
Autoren. Die Ergebnisse daraus wurden für eine bessere Anwendbarkeit in den Leitfaden
eingearbeitet. Ein weiteres Resultat des Nutzertests war, dass alle Autoren den Leitfaden gerne für die Arbeit nutzen werden.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
In dieser Arbeit werden Design to Code Tools untersucht, die mittels generativer Künstlicher
Intelligenz Designs automatisch in Code umwandeln. Ziel ist es, zu analysieren,
wie diese Tools funktionieren und ob ihre Ergebnisse aktuellen Standards entsprechen.
Ein zusätzlicher Fokus liegt auf dem Vergleich verschiedener Tools, um ihre Unterschiede
zu ermitteln. Hierfür wurde ein Anwendungsbeispiel mit einem Testdesign
und dazugehörigem generierten Code erstellt und mittels einer Expertenbefragung
bewertet. Die Datenerhebung erfolgte nach dem Between-Subject-Verfahren und konzentrierte
sich auf die Erfassung quantitativer Daten zur optischen Ähnlichkeit, digitalen
Barrierefreiheit, Projekt- und Softwarequalität. Die Ergebnisse zeigen, dass die
Tools in der visuellen Umsetzung von Designs überzeugen können, aber in den anderen
geprüften Bereichen noch Defizite aufweisen. Diese Arbeit liefert wichtige Erkenntnisse
über den aktuellen Entwicklungsstand von Design to Code Tools und trägt
zu einer differenzierteren Betrachtung ihrer Potenziale und Grenzen bei.
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.