Refine
Year of publication
Document Type
- Bachelor Thesis (28)
- Master's Thesis (14)
- Book (11)
- Researchpaper (2)
- Other (1)
- Report (1)
Has Fulltext
- yes (57)
Is part of the Bibliography
- no (57)
Keywords
- Barrierefreiheit (9)
- Verlag (4)
- Digitale Barrierefreiheit (3)
- Gamification (3)
- Accessibility (2)
- Buchhandel (2)
- Deterministic Lockstep (2)
- Digitaldruck (2)
- Nachhaltigkeit (2)
- Networked Games (2)
Institute
- FB 1: Druck und Medien (57) (remove)
Talking about highly scalable and reliable sys-
tems, issues like logging and monitoring are often
disregarded. However, being able to manage to-
day’s software systems absolutely requires deep
knowledge about the current state of applications
as well as the underlying infrastructure. Extract-
ing and preparing debug information as well as
various metrics in a fast and clearly arranged
manner is an essential precondition in order to
handle this task.
Since we at Bertsch Innovation GmbH also
face increasing requirements concerning Media-
Cockpit as one of our core products, we decided
to establish a centralized logging infrastructure
in order to come up to the application’s evolution
towards a more and more distributed system.
In this paper, I want to describe the steps
that I have taken in order to setup a functioning
logging tool stack consisting of Elasticsearch,
Logstash and Kibana (usually abbreviated as ELK stack ). Besides outlining proper
setup and configuration, I will also discuss possi-
ble pitfalls as well as custom adjustments made
when ELK did not meet our demands.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
Jeder Mensch könnte einen Schlaganfall erleiden, der eine der Hauptursachen für Behinderungen im erwachsenen Alter ist. Die Überlebenden haben oft Lähmungen und Spastiken und benötigen daher ständige Hilfe, da selbst die Ausführung der einfachsten alltäglichen Aufgaben eine unüberwindbare Herausforderung darstellen kann. Um den Betroffenen zu helfen, wurde im Rahmen des Forschungsprojekts KONSENS unter der Leitung des Universitätsklinikums Tübingen ein Hand-Exoskelett entwickelt, das auch Schlaganfallpatienten nutzen können.
Ziel dieser Arbeit ist die Implementierung einer Steuerung für dieses Hand-Exoskelett auf der Google Glass, sowie Android Smartphones und Smartwatches. Der entstandene Prototyp wurde mit Studenten der Hochschule der Medien Stuttgart und Bekannten des Autors evaluiert. Diese Arbeit bildet den Zwischenstand der Evaluation nach zwanzig Probanden ab. Der Schwerpunkt liegt dabei auf dem Vergleich der Nutzerakzeptanz und Eignung verschiedener Ein- und Ausgabemethoden wie Touch-Input, Sprachsteuerung oder Eyetracking.
Darüber hinaus fasst diese Arbeit auch aktuelle Richtlinien zur barrierefreien Implementierung von Augmented-Reality-Anwendungen zusammen und vergleicht jene mit einem daraus abgeleiteten gemeinsamen Kriterienkatalog.
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Werden ein Kinderbuch und seine Übersetzung in eine andere Sprache nebeneinandergelegt, so fallen in der Regel gravierende inhaltliche und formale Unterschiede auf, für die sich zunächst keine Erklärungen finden lassen. Bei der Übersetzung von Erwachsenenliteratur hingegen treten derartige odifikationen kaum auf. Das Ziel der vorliegenden Arbeit ist es, die Gründe für dieses Phänomen herauszuarbeiten. Als Grundlage dienen hierzu kinderliteratur- und übersetzungswissenschaftliche Theorien sowie die Thesen, dass keine übersetzerische Entscheidung willkürlich ist und kein Übertragungsprozess in Isolation stattfindet. Die Besonderheiten der kinderliterarischen Übersetzung werden somit auf spezifische Einflüsse zurückgeführt, die im Übersetzungsvorgang eines Kinderbuches wirken.
Daraufhin wird im zweiten Teil der Arbeit ein Analyseschema entwickelt, welches die Untersuchung dieser Wirkungsgrößen ermöglicht. Anhand der Anwendung auf die deutschen Übersetzungen der englischen Mädchenbuchreihe St Clare’svon Enid Blyton wird die Relevanz und Praxistauglichkeit des Analyseschemas bestätigt.
The number of people with cognitive impairments increases together with the aging population. Thus, social robots are being researched to aid relieve the nursing
sector as well as to combat cognitive impairments. However, it raises concerns regarding how a social robot should relate to members of this group and what might
be appropriate. In this thesis, research about the current state of social robots has been conducted and focus groups with people from the nursing and medical field were held. To verify the credibility of the results and the scenario developed, final
user tests were conducted with representatives of the target group. When using a
social robot in an interaction with persons who have cognitive disabilities, the robot
should speak and behave more human-like and make use of its facial expressions,
stressing empathy and responding to the person accordingly. Though the situation
of interacting with a social robot may be more significant in future generations.
Mit der seit Jahren fortschreitenden Digitalisierung des Medienmarktes werden auch Bildungsmedienanbieter mit der Forderung konfrontiert, einen Beitrag zur Innovation des Bildungsbereichs zu leisten und Lehr- und Lernprozesse (auch) digital zu gestalten. Für den Schulsektor erfüllen diese Anforderungen mittlerweile größere Bildungsmedienanbieter in Deutschland dadurch, dass sie z. B. digitale Schulbücher und Zusatzmaterialien anbieten und kommerziell vertreiben. Offene Lernmaterialien in dem Sinne, dass sie von Lehrpersonen selbst in Plattformen eingestellt, mit anderen geteilt und unter offenen Lizenzen zur Veränderung und Weiterverwendung frei gegeben werden, sind in Deutschland allerdings immer noch eine Randerscheinung. Vor allem die Finanzierung durch Bildungsministerien und eine Integration in bestehende Verlagsstrukturen ist nicht gegeben. Aktuell wird die „Offenheitsidee" bisher nur von einzelnen engagierten Pädagoginnen und Pädagogen gelebt und vorangetrieben. Zudem verteidigen tradierte Bildungsmedienverlage hartnäckig ihre bisherigen Geschäftsmodelle. In der Arbeit wird dargestellt, was der Offenheitsgedanke für den Bildungsmedienbereich impliziert und mit welchen Strategien sich insbesondere Schulbuchverlage als Bildungsmedienanbieter gegen den Einbezug offener Lernmaterialien in ihre Geschäftsmodelle positionieren. In diesem Zusammenhang wird gezeigt, dass die drei führenden Schulbuchverlage in Deutschland zurzeit nur geschlossene digitale Lernmaterialien anbieten. Darüber hinaus werden alternative (international schon umgesetzte) Geschäftsmodelle sowie potenzielle Geschäftsmodell-Ideen für Deutschland vorgestellt. Es wird ein prospektives, fiktives Geschäftsmodell für einen Schulbuchverlag in Deutschland entwickelt, in dem offene und geschlossene Bildungsmedien unter einem Verlagsdach vertrieben werden. Die Positionen der Vertreterin einer offenen Lernmaterialien-Plattform und des Vertreters eines tradierten Bildungsmedienanbieters zu diesem Modell werden eingeholt, analysiert und ausgewertet. Im Hinblick auf Stellenwert und Vermarktung von offenen digitalen Bildungsmedien (OER) zeigt sich im Ergebnis, dass Befürworter und Entwickler von offenen Bildungsmedien und tradierte Schulbuchverlage zurzeit keine gemeinsamen Ziele und Geschäftsmodelle sehen.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
This study investigates the possibility of using Bartle’s player types for gamification
in the context of language learning apps. By taking user preferences into
account, this might assist in selecting the most suitable game elements. Learning
apps are gaining popularity as an innovative method for obtaining an independent
and flexible learning experience. Gamification keeps users motivated and involved
with the content.
After the research on the usage of gamification and its effects on the user, a language
learning app prototype was created. The evaluation consisted of a user test with
interview questions and the short User Experience Questionnaire (UEQ). The Bartle
test of gamer psychology was used to determine the player types of the participants.
The results show that, while player type and gamification preference can partially
coincide, there are too many deviations to confidently say it can be transferred into
gamification contexts. We conclude that game elements should not be chosen based
on a user’s Bartle player type and are more effectively used by incorporating a variety
of different gamification components.
Virtual-reality (VR) is an immersive technology with a growing market and many applications for gesture recognition. This thesis presents a VR gesture recognition method using signal processing techniques. The core concept is based on the comparison of motion features in the form of signals between a runtime recording of users and a possible gesture set. This comparison yields a similarity score through which the most similar gesture can be recognized by a continuous recognition system. Some selected comparison methods are presented, evaluated and discussed. An example implementation is demonstrated. However, due to an introduced layer model parts of the method and its implementation are interchangeable.
Similar or even better performance is achieved compared to other related work. The comparison method Dynamic Time Warping (DTW) reaches an average positive recognitions rate of 98.18% with acceptable real-time application performance. Additionally, the method comes with some benefits: position and direction of users is irrelevant, body proportions have no significant negative impact on recognition rates, faster and slower gesture executions are possible, no user inputs are needed to communicate gesture start and end (continuous recognition), also continuous gestures can be recognized, and the recognition is fast enough to trigger gesture specific events already during the execution.
Multiplayer games can increase player enjoyment through social interactions, cooperation, and competition. Their market popularity shows the success of especially networked multiplayer games, which pose new networking challenges to game developers. The main challenge is synchronizing game state across players. Research identifies deterministic lockstep, snapshot interpolation, and state-sync as primary methods for this task, each with distinct advantages and disadvantages.
This work, and the master thesis this paper is based on, quantitatively evaluated deterministic lockstep, demonstrating its vertical (entity count) and horizontal (player count) scaling limitations and compares the method to snapshot interpolation. Lockstep supports minimum 16,000 entities for up to 10 players and a horizontal scaling of 40 or more players with 1024 entities. However, a negative correlation between entity and player count limits was observed, which was indicated by the maximum scaling configurations 30 players with 4096 entities or 20 players with 8192 entities. Snapshot interpolation faced a vertical limit with 4096 entities and 10 players and horizontally with 40 or more players and 1024 entities.
The paper further contributes by comparing results to related work, summarizing synchronization methods, proposing a hybrid architecture model of deterministic lockstep with snapshot interpolation for re-synchronization and hot-joins, and deconstructing Unity Transport Package’s (UTP) network packets.
Multiplayer games can increase player enjoyment through social interactions, cooperation and competition. The popularity of such games is shown by current market trends. Especially networked multiplayer games frequently achieve great success, but confront game developers with additional networking challenges in the already complex field of game production. The primary challenge is game state synchronization across all players. Based on the current research, there are three main methods for this task – deterministic lockstep, snapshot interpolation and state-sync – with their own advantages and disadvantages.
This work quantitatively evaluated and discussed the vertical (entity count) and horizontal (player count) limitations of deterministic lockstep and compared the method to snapshot interpolation. Results showed, that deterministic lockstep has no indicated vertical scaling limitation with a player count of up to 10 supporting 16,000 or more entities. A horizontal scaling limitation could not be found either and lockstep was confirmed to work with 40 or more players while handling 1024 entities. However, both scaling dimensions correlate negatively, which was indicated by the maximum scaling configurations 30 players and 4096 entities or 20 players and 8192 entities.
An unoptimized snapshot interpolation implementation achieved a vertical scaling limitation of 4096 entities with 10 players and a horizontal scaling limit of 40 or more players with 1024 entities and therefore was found to have a lower entity limit compared to deterministic lockstep.
Furthermore, results are compared to related work. Other contributions of this thesis include an overview of game networks and the three game state synchronization techniques. An architecture model for deterministic lockstep including a hybrid approach combining it with snapshot interpolation for re-synchronization and hot-joins. And finally, a network packet deconstruction of the implemented networking framework Unity Transport Package (UTP).
Die zunehmende Popularität mobiler Endgeräte und Applikationen (Apps) führt zu einem Wandel des Medienkonsumverhaltens.
Verlage müssen auf diese Veränderung reagieren, Produkte für Smartphones und Tablets anbieten und – aufgrund der mangelnden Zahlungsbereitschaft für digitale Inhalte – auch effiziente Erlösmodelle entwickeln.
Eine strategische Neupositionierung und die Modernisierung traditioneller Geschäftsmodelle und Produktionsprozesse sinderforderlich.
Ziel der vorliegenden Masterthesis ist, Erfolgsfaktoren und Handlungsempfehlungen für Geschäftsmodelle und die Vermarktung von Apps durch Verlage zu entwickeln.
Im Fokus stehen Apps, die der Zielgruppe orts- und zeitunabhängige, kontextbezogene Services bieten und über eine reine Wiedergabe von Verlagscontent hinaus gehen. Im ersten Schritt wurde dafür ein theoretischer Ansatz für mobile Geschäftsmodelle konzipiert.
Das Modell mit sieben Bestandteilen berücksichtigt App-spezifische Besonderheiten und dient speziell Fach- und Sachverlagen als Leitfaden für die Realisierung und Monetarisierung von Apps. Im zweiten Schritt wurden anhand von qualitativen Expertenbefragungen und der Analyse von Apps potenzielle Erfolgsfaktoren von mobilen Geschäftsmodellen und Produkten identifiziert.
Die Interviews zeigten ein sehr breites Meinungsspektrum und decken – ebenso wie die Analysen – eine Vielzahl Erfolg versprechender Schlüsselfaktoren auf, die in Form eines Best Practice zusammengefasst und diskutiert wurden.Basierend auf dem theoretischen Modell und den erläuterten Erfolgsfaktoren wurden im praktischen Teil der Thesis Handlungsempfehlungen sowie konkrete Ideen für
Service-orientierte Apps für den Verlag Eugen Ulmer entwickelt.
Als Ergebnis der Masterthesis ist festzuhalten, dass in der Verlagsbranche noch kein einheitliches Bild
vom App-Markt existiert und die Entwicklung und Umsetzung mobiler Geschäftsmodelle und Apps von einer Vielzahl an unternehmensinternen und -externen sowie Produktspezifischen Faktoren abhängt.
Aus diesem Grund sind Analysen und die Erhebung von Expertenmeinungen, wie in der vorliegenden
Arbeit durchgeführt, erforderlich.
Die hier vorgestellte Arbeit untersucht anhand einer Fachliteratur-Recherche Skalie-rungskonzepte für IT-Startups. Es wird untersucht, wie junge Unternehmen in der IT-Branche sich auf Wachstum vorbereiten und dieses Wachstum fördern können. Dazu wurden aus relevanten Fachbüchern und Artikeln Methoden und Ansätze exzerpiert, die in die Bereiche Personal, Produkt, Finanzen, Vertrieb und Strategie gegliedert sind. Im Anschluss wurden die schlussfolgernden Ergebnisse zusammengefasst, die einen be-sonderen Fokus auf kundennahe Produktentwicklung und Mitarbeiterorientierung um-fassen.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
In dieser Arbeit werden Design to Code Tools untersucht, die mittels generativer Künstlicher
Intelligenz Designs automatisch in Code umwandeln. Ziel ist es, zu analysieren,
wie diese Tools funktionieren und ob ihre Ergebnisse aktuellen Standards entsprechen.
Ein zusätzlicher Fokus liegt auf dem Vergleich verschiedener Tools, um ihre Unterschiede
zu ermitteln. Hierfür wurde ein Anwendungsbeispiel mit einem Testdesign
und dazugehörigem generierten Code erstellt und mittels einer Expertenbefragung
bewertet. Die Datenerhebung erfolgte nach dem Between-Subject-Verfahren und konzentrierte
sich auf die Erfassung quantitativer Daten zur optischen Ähnlichkeit, digitalen
Barrierefreiheit, Projekt- und Softwarequalität. Die Ergebnisse zeigen, dass die
Tools in der visuellen Umsetzung von Designs überzeugen können, aber in den anderen
geprüften Bereichen noch Defizite aufweisen. Diese Arbeit liefert wichtige Erkenntnisse
über den aktuellen Entwicklungsstand von Design to Code Tools und trägt
zu einer differenzierteren Betrachtung ihrer Potenziale und Grenzen bei.
Als Grundlage für diese Arbeit dient die Theorie, dass ein Print-on-Demand-Prozess die nachhaltigere
Variante des Publizierens von Drucksachen sein müsste – immerhin schont dieser nicht nur die Ressourcen, da nur die wirklich nachgefragten Publikationen hergestellt werden und per dezentralem
Drucken auch die die Transportwege minimiert werden können, sondern er ist auch finanziell günstiger,
da keine Lagerkosten für eine Auflage anfallen und die Entsorgungskosten von nicht verkauften Publikationen ebenso wegfallen.
Damit ein Print-on-Demand-Prozess aber wirklich nachhaltig ist, müssen noch diverse kritische Punkte
beachtet werden: So muss ein Verlag seine Publikationen sowohl in gedruckter als auch in elektronischer Version veröffentlichen – denn das Leseverhalten bestimmt, welche von beiden die nachhaltigere ist. Dies
konnte an unterschiedlichen Kriterien, wie dem Verbrauch von Energie und Ressourcen sowie der Erneuerbarkeit oder Recyclebarkeit von letzteren festgemacht werden. Dieser Sachverhalt wiederum bedingt, dass im Verlag ein crossmedialer Workflow aufgebaut werden muss – und in der Druckerei nicht
nur Digitaldruckmaschinen genutzt werden müssen, sondern auch Digital-Weiterverarbeitungs-
Maschinen.
Weiterhin müssen Verlage und Druckereien, wenn sie einen Print-on-Demand-Prozess zur Herstellung von gedruckten Publikationen nutzen, sowohl Papiere als auch die Druckfarben mit Bedacht auswählen – denn es hängt von beiden Teilen ab, inwiefern die hergestellte Drucksache deinkbar ist, sodass aus ihr
nach ihrer Nutzung neues Papier hergestellt werden kann.
Aus diesem Grund wurden in dieser Arbeit verschiedene dynamische Digitaldruckverfahren hinsichtlich ihrer Eignung für Print-on-Demand evaluiert. Zudem wurden mit verschiedenen Sorten von Tinten und Tonern unterschiedliche Arten von Papieren bedruckt und danach einer Deinkbarkeitsprüfung nach der verbreiteten INGEDE-Methode 11 unterzogen. Schließlich wurden die verschiedenen Farb-Papier-
Kombinationen anhand der ERPC Deinkability Scorecard bewertet. Die entstandene Farb-Papier-Matrix soll Verlagen und Druckereien als Entscheidungshilfe dienen, damit diese auch dann deinkbare Drucksachen in Auftrag geben bzw. herstellen können, wenn sie einen Print-on-Demand-Prozess nutzen.
Dies sind die Testformen zur Masterthesis "Kritische Punkte beim nachhaltigen Publizieren per Print-on-Demand" (https://hdms.bsz-bw.de/frontdoor/index/index/docId/4877). Sie wurden nochmals als einzelne Dateien hochgeladen, da mit PDF/X-1a und PDF/X-4 zwei verschiedene PDF/X-Versionen verwendet wurden, die in der zusammengefassten PDF der Masterthesis so nicht mehr vorkommen.
Mit diesen Dateien lassen sich die entsprechenden Deinking-Versuche aus der Masterarbeit nachvollziehen. Hierzu wurden sie je in den Größen A3 und A4 hochgeladen.
Deep learning methods have proven highly effective for object recognition tasks, especially
in the form of artificial neural networks. In this bachelor’s thesis, a way is shown to imple-
ment a ready-to-use object recognition implementation on the NAO robotic platform using
Convolutional Neural Networks based on pretrained models. Recognition of multiple objects
at once is realized with the help of the Multibox algorithm. The implementation’s object
recognition rates are evaluated and analyzed in several tests.
Furthermore, the implementation offers a graphical user interface with several options to
adjust the recognition process and for controlling movements of the robot’s head in order
to easier acquire objects in the field of view. Additionally, a dialogue system for querying
further results is presented.
Gegenstand der vorgestellten Arbeit ist die Evaluierung frei erhältlicher Performance Test Frameworks, zusätzlich in Hinblick auf deren HTTP/2 und WebSockets Unterstützung. Zur Einführung wird der allgemeine Aufbau und die Vorgehensweise von Performancetests erörtert. Hierfür werden zwei unterschiedliche Testpläne vorgestellt und miteinander verglichen. Anschließend werden die ausgewählten Frameworks auf ihre Funktionen untersucht. Zuletzt wird beispielhaft eine im Netz frei verfügbare Webanwendung mit den vorgestellten Frameworks getestet und der Ablauf derer jeweils dokumentiert.
Um ein abschließendes Fazit zu formulieren, werden die Frameworks hinsichtlich deren Feature Reichhaltigkeit, Nutzerfreundlichkeit und Aktualität bewertet.
Schlagwörter: Web Performance, Stresstests, HTTP/2, WebSocket, Webanwendung, Frameworks, Performance Programme, Evaluierung