Refine
Year of publication
Document Type
- Master's Thesis (37) (remove)
Has Fulltext
- yes (37)
Is part of the Bibliography
- no (37)
Keywords
- Barrierefreiheit (4)
- Bibliothek (3)
- Bibliothekseinrichtung (2)
- Deep Learning (2)
- Dokumentation (2)
- EN 301 549 (2)
- Spiel (2)
- VR (2)
- Accessibility (1)
- Adoption (1)
Before gas is transported, natural gas traders have to plan with many contracts every day. If a cost-optimized solution is sought the most attractive contracts of a large contract set have to be selected. This kind of cost-optimization is also known as day-ahead balancing problem. In this work it is shown that it is possible to express this problem as a linear program that considers important influences and restrictions in the daily trading.
The aspects of the day-ahead balancing problem are examined and modelled individually. This way a basic linear program is gradually adapted towards a realistic mathematical formulation. The resulting linear optimization problem is implemented as a prototype that considers the discussed aspects of a cost-optimized contract selection.
Video games have a significant influence on our time. However, lack of accessibility makes it hard for disabled gamers to play most of them. Virtual reality offers new possibilities to include people with disabilities and enable them to play games. Additionally, serious VR games provide educational benefits, such as improved memory and engagement.
In this work, the accessibility problems in video games and VR applications are explored with an emphasis on serious games as well as a general lack of guidelines. An overview of existing guidelines is given. From this, a set of guidelines is derived that summarizes the relevant rules for accessible VR games.
New ways to interact with VR environments come with both opportunities and challenges. This work investigates the applicability of different hands-free input methods to play a VR game. Using a serious game five focus and three activation methods were implemented exemplary with the Oculus Go. The suitability of these methods was analyzed in a pre-study that excluded head movements for controlling the game. The remaining input methods were evaluated in an explorative user study in terms of operability and ease of use.In summary, all tested methods can be used to control the game. The evaluation shows head-tracking as the preferred input method, while scanning eye-tracking and voice control were rated mediocre.
In addition, the correlation between input methods and different menu types was examined, but the influence turned out to be negligible.
Viele Menschen mit Behinderungen stoßen immer noch auf Barrieren, die es ihnen er-schweren, Smartphone-Anwendungen zu nutzen. Die harmonisierte europäische Norm EN 301 549 legt die Anforderungen an die funktionale Barrierefreiheit von ICT-Produk-ten und -Dienstleistungen fest und beschreibt Testverfahren und Bewertungsmetho-den für jede Anforderung. Analysetools und automatisierte Testverfahren versprechen Entwickler bei der Erstellung barrierefreier Anwendungen zu unterstützen. Diese Werkzeuge unterscheiden sich in ihrer Funktionsweise, ihrer Zielgruppe und dem Zeit-punkt, an dem sie in den Entwicklungsprozess eingebunden werden können. Ziel dieser Arbeit ist es, einen Leitfaden zu erstellen, der aufzeigt, welche Kriterien nach EN 301 549 mit Hilfe von Analysewerkzeugen überprüft werden können und die Frage zu be-antworten "Wie können Analysewerkzeuge und automatisierte Testverfahren einge-setzt werden, um Barrierefreiheitstests im Hinblick auf die europäische Norm EN 301 549 zu automatisieren?".
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Die Anforderungen an ein E-Commerce-Projekt sollten strukturiert dokumentiert werden, um daraus technische Lösungskonzepte abzuleiten. Eine solche Planungsphase erhöht die Chancen auf ein erfolgreiches Projekt und minimiert Projektrisiken, ist jedoch mit Zeitaufwand und Kosten verbunden. Viele Webshop-Betreiber möchten diese Aufwände minimieren, da eine kurze Projektdauer als kritischer Erfolgsfaktor am Markt angesehen wird. Diese Arbeit zeigt ein Dokumentationsmodell für Software- und Infrastrukturanforderungen auf, das die Branchenspezifika berücksichtigt und die Dokumentation von Anforderungen und Lösungskonzept erheblich beschleunigen soll. Dazu setzt es auf Wiederverwendung und die visuelle Modellierung mit einem CASE-Tool der aktuellen Generation. Sie reflektiert den Nutzen anhand eines Tests des Dokumentationsmodells im Projekteinsatz.
Diese Masterarbeit thematisiert die Umgestaltung von klassisch organisierten Bibliotheken zu lernenden Organisationen und die damit verbundenen Change Management Prozesse. Ziel ist die Entwicklung eines Selbstbewertungstools, welches dazu dient, den Entwicklungsstand der Bibliothek auf dem Weg zur lernenden Organisation festzustellen. Es gilt zu beweisen, dass dieses Tool praxistauglich und in Bibliotheken aller Größen und Typen einsetzbar ist. Das Selbstbewertungstool basiert auf dem Maturity Model, das in Australien explizit für Bibliotheken entwickelt wurde und in dieser Masterarbeit weiterentwickelt wird. Grundlage für das Maturity Model und das Selbstbewertungstool bildet die fünfte Disziplin von Peter Senge, die 1990 veröffentlicht wurde. Diese wird neben weiteren Theorien zu lernenden Organisationen, nämlich von Argyris und Schön (1996), Garvin (1993) sowie Pedler, Burgoyne und Boydell (1991), dargestellt und verglichen. Grundlage für die Darstellung bilden einschlägige Monographien. Darüber hinaus wird auf Grundlage von wissenschaftlichen Aufsätzen aus einschlägigen Fachjournalen dargelegt, welche Erfahrungen Bibliotheken bereits mit Umstrukturierungsprozessen zu lernenden Organisationen haben.
Basierend auf der Darstellung der unterschiedlichen Theorien sowie der Erfahrungen von Bibliotheken mit lernenden Organisationen wird das Maturity Model weiterentwickelt. Es bildet den Ausgangspunkt für die Konzeption des Selbstbewertungstools. Es folgt ein Pretest des Selbstbewertungstools mit fünf Bibliotheken unterschiedlicher Größe und verschiedener Bibliothekstypen. Im Pretest werden die Praxistauglichkeit des Tools sowie die universelle Einsetzbarkeit an allen Bibliothekstypen bewiesen. Es folgen Empfehlungen zu Maßnahmen, die eingesetzt werden können, um die Entwicklung einer Bibliothek zu einer lernenden Organisation einzuleiten bzw. zu akzelerieren. Abschließend werden den Bibliotheken Empfehlungen für den Umgang mit dem Selbstbewertungstool gegeben.
Diese Arbeit beschäftigt sich mit der Einrichtung von Bibliotheken. Der Schwerpunkt liegt dabei auf dem Planungs- und Beschaffungsvorgang. Die Arbeit soll sowohl einen Überblick über die regulären Beschaffungsmöglichkeiten von Bibliothekseinrichtungen bieten als auch Denkanstöße für eher ungewöhnliche Hersteller liefern. Eine Umfrage bei den Bibliotheken im deutschsprachigen Raum untersucht den Planungsvorgang in den Bibliotheken. Unter anderem wird nachgefragt mit wem die Bibliotheken zusammenarbeiten und worin die Vor- und Nachteile der unterschiedlichen Partner bestehen. Zur Erleichterung des Auswahlprozesses wird ein Bewertungsschema dargestellt und erläutert.
Diese Masterthesis befasst sich mit dem Thema Blogger Relations und deren Relevanz für eine stakeholderorientierte Unternehmenskommunikation. Im Fokus steht die Frage, wie die Beziehung zwischen Bloggern und Organisationen (wie Unternehmen oder NGOs) im Rahmen einer Blogger Relations Strategie erfolgreich gestaltet werden kann. Im Sinne des Stakeholder-Ansatzes ist dabei besonders eine qualitative Perspektive, also der Blick auf die Ansprüche der Blogger an eine solche Zusammenarbeit wichtig. Zunächst werden die Digitalisierung der Unternehmenskommunikation und die dadurch veränderten Bedingungen für Kommunikation und Beziehungspflege thematisiert. Dann wird beschrieben, welche Gründe für den Einsatz einer Blogger Relations Strategie sprechen und welche kommunikativen und ökonomischen Ziele dadurch erreicht werden können. Abschließend werden die aktuelle Kommunikationspraxis in diesem Bereich analysiert und sowohl Problemfelder als auch Zukunftstrends aufgezeigt. In einem praxisorientierten Teil wird dann ausgerichtet am Kooperationspartner Slow Food Deutschland eine Blogger-Befragung durchgeführt. Ziel dieser Befragung ist es, Faktoren zu analysieren, die die Bedürfnisse und Ansprüche der Blogger abbilden und somit Blogger-Relations-Maßnahmen erfolgreich und effektiv machen. Diese Einblicke in die Bloggosphäre – Blogger Insights – werden dann praxisnah und übersichtlich in einer Blogger-Insight-Map aufbereitet. Daraus werden strategische Handlungsempfehlungen für eine mögliche Blogger Relations Strategie von Slow Food Deutschland abgeleitet.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
The legitimacy of users is of great importance for the security of information systems. The authentication process is a trade-off between system security and user experience. E.g., forced password complexity or multi-factor authentication can increase protection, but the application becomes more cumbersome for the users. Therefore, it makes sense to investigate whether the identity of a user can be verified reliably enough, without his active participation, to replace or supplement existing login processes.
This master thesis examines if the inertial sensors of a smartphone can be leveraged to continuously determine whether the device is currently in possession of its legitimate owner or by another person. To this end, an approach proposed in related studies will be implemented and examined in detail. This approach is based on the use of a so-called Siamese artificial neural network to transform the measured values of the sensors into a new vector that can be classified more reliably.
It is demonstrated that the reported results of the proposed approach can be reproduced under certain conditions. However, if the same model is used under conditions that are closer to a real-world application, its reliability decreases significantly. Therefore, a variant of the proposed approach is derived whose results are superior to the original model under real conditions.
The thesis concludes with concrete recommendations for further development of the model and provides methodological suggestions for improving the quality of research in the topic of "Continuous Authentication".
Diese Arbeit befasst sich mit Making-ofs zu Filmen und ergründet deren Geschichte und Einsatz im Laufe der Zeit. Dabei werden sowohl die dokumentarischen Qualitäten als auch das Potenzial als Marketinginstrument untersucht. Hier werden verschiedene Arten von Making-of differenziert und anhand von Beispielen genauer erläutert.
Der Herstellungsprozess von Making-ofs und deren Einsatz wird detailliert erklärt.Im Besonderen werden einige lange Making-ofs auf ihre dokumentarischen Qualitäten untersucht.
Es wird dargelegt, welches Potential diese als eigenständige Dokumentarfilme haben, die ihrerseits vermarktet werden können. Dazu werden die Grundzüge des Filmmarketings besprochen und anhand eines Fallbeispiels erläutert, wie die verschiedenen Arten des Making-of bei einer Filmproduktion zum Einsatz kommen können, um den größtmöglichen Nutzen daraus zu ziehen.
Die Branche der Herstellung von Visual Effects (VFX) steht im Jahr 2013 auf der ganzen Welt einer Reihe von Problemen gegenüber, die zu einem instabilen Geschäftsklima geführt haben, in dem mehrere große und scheinbar erfolgreiche Unternehmen innerhalb kurzer Zeit Insolvenz anmelden mussten. Diese Arbeit erörtert die vielen verschiedenen Gründe für diese Lage, wie sie sich entwickelt hat und welche Auswirkungen sie für alle Beteiligten nach sich zieht – von den Filmstudios über die VFX-Firmen bis hin zum VFX-Artist. Bis hierhin waren die Aspekte der Herstellung von Visual Effects, die über die technischen Fortschritte oder die künstlerischen Errungenschaften hinausgehen und sich mit den Geschäfts- und Arbeitsbedingungen befassen, nur selten Thema einer ausführlichen und umfassenden Diskussion. Diese Arbeit konzentriert sich auf die größten Probleme der VFX-Industrie und auf die Frage, warum die Branche im Moment langfristig in dieser Form nicht zukunftsfähig ist und versucht ein größeres Verständnis für die zu Grunde liegenden Ursachen zu schaffen, damit sie behoben werden können. Die VFX-Industrie ist ein Geflecht von komplexen und nicht immer greifbaren individuellen Interessen und Mentalitäten, deren gemeinsames Interesse jedoch sein sollte, die allgemeine Situation zu verbessern.
Multiplayer games can increase player enjoyment through social interactions, cooperation and competition. The popularity of such games is shown by current market trends. Especially networked multiplayer games frequently achieve great success, but confront game developers with additional networking challenges in the already complex field of game production. The primary challenge is game state synchronization across all players. Based on the current research, there are three main methods for this task – deterministic lockstep, snapshot interpolation and state-sync – with their own advantages and disadvantages.
This work quantitatively evaluated and discussed the vertical (entity count) and horizontal (player count) limitations of deterministic lockstep and compared the method to snapshot interpolation. Results showed, that deterministic lockstep has no indicated vertical scaling limitation with a player count of up to 10 supporting 16,000 or more entities. A horizontal scaling limitation could not be found either and lockstep was confirmed to work with 40 or more players while handling 1024 entities. However, both scaling dimensions correlate negatively, which was indicated by the maximum scaling configurations 30 players and 4096 entities or 20 players and 8192 entities.
An unoptimized snapshot interpolation implementation achieved a vertical scaling limitation of 4096 entities with 10 players and a horizontal scaling limit of 40 or more players with 1024 entities and therefore was found to have a lower entity limit compared to deterministic lockstep.
Furthermore, results are compared to related work. Other contributions of this thesis include an overview of game networks and the three game state synchronization techniques. An architecture model for deterministic lockstep including a hybrid approach combining it with snapshot interpolation for re-synchronization and hot-joins. And finally, a network packet deconstruction of the implemented networking framework Unity Transport Package (UTP).
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
The increasing availability of online video content, partially fueled by the Covid-19 pandemic and the growing presence of social media, adds to the importance of providing audio descriptions as a media alternative to video content for blind and visually impaired people. In order to address concerns as to what can be sufficiently described and how such descriptions can be delivered to users, a concept has been developed providing audio descriptions in multiple levels of detail. Relevant information is incorporated into an XML-based data structure. The concept also includes a process to provide optional explanations to terms and abbreviations, helping users without specific knowledge or people with cognitive concerns in comprehending complex videos. These features are implemented into a prototype based on the Able Player software. By conducting a user test, the benefits of multi-layered audio descriptions and optional explanatory content are evaluated. Findings suggest that the choice of several levels of detail is received positively. Users acknowledged the concept of explanations played parallelly to the video and described further use cases for such a practice. Participants preferred a higher level of detail for a high-paced action video and a lower level for informative content. Possibilities to extend the data structure and features include multilanguage use cases and distributed systems.
Die Masterarbeit geht der Frage nach, welches Bild der Vereinten Nationen in überregionalen deutschen Tageszeitungen erzeugt und auf welche Weise über die Organisation berichtet wird. Zu diesem Zweck wurde eine Inhaltsanalyse der Süddeutschen Zeitung, der Frankfurter Allgemeinen Zeitung sowie der WELT durchgeführt. Nachdem zu Beginn die theoretischen Grundlagen, sowohl der Organisation der Vereinten Nationen als auch der politischen Berichterstattung im Allgemeinen, erarbeitet wurden, beschäftigt sich der praktische Teil der Arbeit mit der Berichterstattung über die Vereinten Nationen in den drei genannten Zeitungen. Die Zeitungsartikel wurden analysiert und auf der Basis einer Vielzahl von quantitativen und qualitativen Kriterien verglichen.
Heutzutage sind perfomante Webanwendungen, die schnell geladen werden und genauso schnell mit den Nutzern interagieren können, immer gefragter. Dabei spielt die Webperfor-mance – Optimierung eine große Rolle. Im Mai 2015 ist die neue Version des HTTP – Protokolls (HTTP/2) erschienen, mithilfe deren Verwendung die Datenübertragung schneller und effizien-ter sein sollte. Hinsichtlich der technologischen Möglichkeiten des HTTP/2 – Protokolls kann der Austausch zwischen dem Client und dem Server deutlich beschleunigt werden. In der ak-tuellen Masterarbeit werden die Techniken zu Frontend – Optimierungstechniken evaluiert, die unter der Verwendung des neuen Protokolls gut geeignet sein können. Besonders wurde dabei auf die Funktion „Server Push“ geachtet. Außerdem wird dargestellt, welche notwendigen Maß-nahmen die Webentwickler unternehmen müssen, um das neue Protokoll benutzen zu können. Unter anderem wird evaluiert, wie gut aktuelle Implementierungen des neuen Protokolls und der dazugehörigen Funktionen funktionieren und wie sich die Ladezeit zwischen dem aktuell meist verwendeten Protokoll HTTP/1.1- und dem HTTP/2 – Protokoll unterscheidet.
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
Herausforderungen an Informationsarbeit in einem globalen Unternehmensumfeld am Beispiel China
(2014)
Unter Globalisierung ist eine der sinnvollsten ökonomischen Ausdehnungen der vergangenen 20 Jahre zu verstehen. China, als das Land der Mitte, ist seit dem Beginn der 1990er Jahre, und damit dem Ende des Ost-West Konfliktes, für westliche Länder in das Zentrum ihrer Internationalisierungsstrategien gerückt – wie übrigens umgekehrt Deutschland für außereuropäische Länder wieder das (wirtschaftliche) Zentrum Europas bildet. Internationalisierung betrifft alle Bereiche von Unternehmen, insbesondere die Informationsarbeit. Im Zusammenhang von zwei komplett unterschiedlichen Kulturen, ist es schwer einzuschätzen, wie die Internationalisierung der Informationsarbeit erfolgreich gestaltet werden kann und somit die Ausweitung der Unternehmensphilosophie nach Fernost gelingt. Die vorliegende Arbeit untersucht kulturelle Unterschiede im Informationsverhalten des globalen Unternehmensumfelds und wie diese in Bezug auf China zu zahlreichen Herausforderungen an die Informationsarbeit führen. Informationsbedürfnisse auf internationaler Ebene erfüllen zu können ist eher schwer, aber nicht unmöglich.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.