004 Informatik
Refine
Year of publication
Document Type
- Diploma Thesis (39)
- Bachelor Thesis (19)
- Master's Thesis (9)
- Study Thesis (3)
- Book (1)
- Report (1)
- Researchpaper (1)
Is part of the Bibliography
- no (73)
Keywords
- Barrierefreiheit (4)
- Datenschutz (3)
- J2EE (3)
- Benutzerfreundlichkeit (2)
- Computergraphik (2)
- Graphische Benutzeroberfläche (2)
- Intelligentes Stromnetz (2)
- Java 2 Enterprise Edition (2)
- Konfigurationsmanagement (2)
- Programmierung (2)
Institute
- Medieninformatik (Bachelor, Diplom) (29)
- FB 1: Druck und Medien (13)
- Audiovisuelle Medien (Bachelor, Diplom) (11)
- Computer Science and Media (Master) (7)
- FB 3: Information und Kommunikation (2)
- Mediapublishing und Verlagswirtschaft (Diplom) (2)
- Wirtschaftsinformatik (Bachelor) (2)
- Bibliotheks- und Medienmanagement (Bachelor, Diplom) (1)
- FB 2: Electronic Media (1)
- Informationsdesign (Bachelor, Diplom) (1)
Über 90 % der umlaufenden PDF-Dokumente sind zumindest teilweise unzugänglich. Aus diesem Grund hat Adobe eine künstliche Intelligenz (KI) entwickelt, die automatisch Tags in PDF-Dokumente setzt, um sie barrierefreier zu gestalten.
Um dies zu überprüfen, wurde in unserer Bachelorarbeit die barrierefreien PDF-Dokumente nach dem Standard PDF/UA (DIN ISO 14289-1:2016-12) untersucht. Wir verwendeten für die Ermittlung des PDF/UA Standards das Matterhorn Protokoll. Für den Versuch erstellten wir PDF-Dokumente, die die Fehlerbedingungen des Matterhorn Protokolls und den Richtlinien von PDF/UA verstoßen.
Unsere Ergebnisse zeigen, dass 37 % der Fehler vom Matterhorn Protokoll behoben wurden, während 42 % nicht behoben wurden. Die restlichen 21 % der Fehler konnten von der KI technisch nicht gelöst werden, da sie nicht dafür entwickelt wurde. Zu den 21 % gehören auch Fehler, die technisch nicht von uns umgesetzt werden konnten oder nicht den heutigen Standards angepasst worden sind.
Wenn die manuellen Fehler von den maschinellen Fehlern in der Gesamtstatistik getrennt werden, dann konnte die KI 46 % der manuellen Fehlerbedingungen beheben. Bei den maschinellen Fehlerbedingungen konnten 32 % gelöst werden.
Anhand der Ergebnisse kann erkannt werden, dass die bearbeiteten PDFs nicht PDF/UA Standard entsprechen. Zudem konnte die KI in der Auswertung die Fehler in den PDFs nicht zuverlässig beheben und erkennen. Während der Untersuchung konnten wir außerdem inhaltliche Veränderungen feststellen und zusätzlich generierte sie auch neue Fehler.
Obwohl es nicht den PDF/UA Standard entspricht, konnten 46 % der manuellen Fehlerbedingungen des Matterhorn Protokolls gelöst werden. Dieses Ergebnis ist beeindruckend, weil die manuellen Fehler zurzeit nur von Menschen behoben werden können. Mit ausreichenden Optimierungen kann diese KI-Technologie in Zukunft als hilfreiches Werkzeug für die Gestaltung von barrierefreien PDF-Dokumenten verwendet werden.
Diese Arbeit stellt aktuell verfügbare Prüf-Tools auf Erfolgskriterium 1.3.5 der Web
Content Accessibility Guidelines 2.1 (WCAG) zusammen und vergleicht diese miteinander.
Der Vergleich zeigt, dass die derzeitigen Test-Anwendungen nicht ausreichend
in ihrem Vorgehen und ihrer Funktionalität sind. Die Prüferinnen und Prüfer müssen
dabei immer selbst beurteilen, ob der autocomplete-Attributs-Wert korrekt und
erforderlich ist.
Das im Zuge dieser Arbeit programmierte Autocomplete-Check-Plugin ist den aktuellen
Prüf-Tools vor allem durch das Alleinstellungsmerkmal der heuristisch getroffenen
autocomplete-Vorschläge überlegen und unterstützt und komplementiert den
Prüfvorgang somit bestens. Die wichtigsten Komponenten des Plugins werden vorgestellt
und deren Implementierung erläutert. Außerdem werden die methodischen
Vorgehensweisen, die in dieser Arbeit angewendet wurden, behandelt. Die Validierung
des Plugins wurde anhand vorher unbekannter Test-Webseiten durchgeführt, sie bescheinigt
dem Autocomplete-Check-Plugin eine hohe Genauigkeit bei der Vorhersage
von autocomplete-Werten, damit ist es hervorragend geeignet, Webseiten auf das Erfolgskriterium
1.3.5 zu untersuchen. Das Plugin wird unter der MIT-Lizenz auf Github
veröffentlicht.
Um Websites für jeden Menschen ohne Einschränkungen verfügbar zu
machen, wurden auf nationaler sowie internationaler Ebene Gesetze und Normen verabschiedet, welche die Barrierefreiheit für Internetauftritte anhand festgelegter Richtlinien
wahren sollen. Zur Einhaltung dieser Richtlinien wurden Prüfverfahren entwickelt, die anhand unterschiedlicher Evaluationsmethoden den Grad der Zugänglichkeit von Webseiten
und ihren Inhalten bewerten. Zwei dieser Prüfverfahren sind der Barrierefreiheitscheck-Web sowie der BIK BITV-Test. Für die manuelle Durchführung der Tests wird üblicherweise
eine repräsentative Stichprobe der Website erstellt und das Ergebnis der Prüfung auf die
Stichprobe für die gesamte Website generalisierend angenommen. Die Erstellung der Seitenauswahl ist bei umfangreichen Websites jedoch mit großem Aufwand verbunden und
soll im Zuge dieser Arbeit mit Hilfe einer serverseitigen Web-Anwendung automatisiert
werden.
Dazu wurden verschiedene existierende Stichprobenverfahren und Crawling-Methoden
analysiert und anschließend für die Eignung der technischen Umsetzung eingeordnet. Im
Rahmen der Arbeit wird ein eigener Ansatz für die automatisierte Seitenauswahl präsentiert, der auf dem HTML class-Attribut basiert. Dieser Ansatz nutzt die Eigenschaft von
Klassennamen aus, den Namen des Strukturelements zu beinhalten. Dadurch zielen wir
darauf ab, wichtige Inhalte der zu prüfenden Website zu erfassen und diese Informationen als Grundlage für die Auswahl der Stichprobe zu nehmen.
Die Evaluation wurde durch den Vergleich der generierten Liste unserer Anwendung von
drei ausgewählten Webseiten, mit der von Experten des Kompetenzzentrums Digitale
Barrierefreiheit der HdM erstellten Liste, durchgeführt. Die Ergebnisse zeigten, dass unsere Anwendung eine Liste von Seiten generieren konnte, die ein breites Spektrum an
Inhalten abdeckte, jedoch begrenzte Fähigkeiten hatte, der Liste der Experten zu gleichen
und daher in der aktuellen Version für den Barrierefreiheitscheck-Web nicht als alleinstehendes Tool geeignet ist.
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
Die vorliegende Arbeit befasst sich mit dem Thema A/B Testing, insbesondere im Kontext der Optimierung der User Experience in Onlineshops. In einer quantitativen empirischen Untersuchung, die in Zusammenarbeit mit der DRIP AGENCY und SNOCKS durchgeführt wurde, wurden zwei A/B-Test-Methoden – Fixed-Horizon Tests und sequentielle Tests – anhand von drei spezifischen Testideen in realen Onlineshop-Szenarien angewendet und auf ihre Effektivität verglichen sowie bewertet. Die Ergebnisse zeigen signifikante Unterschiede in der Performance und liefern daraus resultierende Empfehlungen für Onlineshops. Diese Erkenntnisse bieten Unter-nehmen, die mit den beiden A/B-Test-Methoden ihre UX optimieren und dadurch ihre Conversion Rates steigern möchten, wertvolle Einblicke. Dabei wird auch die Barrierefreiheit als ein zentrales und immer relevanter werdendes Thema hervorgehoben, um sicherzustellen, dass alle Nutzer eine zugängliche und positive Shopping-Erfahrung erleben können.
Die Nachfrage an Videospielen ist in den letzten Jahren stark gestiegen,
während weniger als die Hälfte der Entwickler angeben, dass
Barrierefreiheitsmaßnahmen in aktuellen Projekten integriert werden.
Werkzeuge und Richtlinien sind hilfreich bei der Implementierung von
barrierefreien Videospielen. Weitere Referenzen werden jedoch benötigt, um
auf die Barrierefreiheit aufmerksam zu machen.
Diese Arbeit ermittelt die Auswirkungen eines Serious Games auf blinde und
sehende Spieler. Schwerpunkt ist die Implementierung von Maßnahmen für
blinde Spieler. Anhand einer Analyse von ausgezeichneten Videospielen und
Filterung der Xbox Accessibility Guidelines, wurde „Sensory“ entwickelt. Das
Spiel wurde durch eine Benutzerstudie mit 11 Teilnehmern validiert. Während
der Benutzerstudie wurde das Spiel getestet und dadurch wurden Usability-
Probleme entdeckt. Anhand der Benutzerstudie konnte der Spielspaß und
Lerneffekt bestätigt werden.
Die Auswertung der Studie zeigt, dass Geräusche und Vibrationen den
Spielspaß für blinde Spieler positiv beeinflussen. Die Steuerung und fehlenden
Einstellungen wirken sich negativ aus. Außerdem erhalten sehende Spieler
einen Einblick in die barrierefreie Entwicklung von Videospielen und dadurch
wird die Empathie für Barrierefreiheit gesteigert.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
Der Schlaganfall ist die relevanteste Ursache bleibender Behinderungen im Erwachsenenalter. Eine häufige Beeinträchtigung der Patienten ist insbesondere die Lähmung eines Arms. Um die Funktion desselben wieder teilweise zurückzuerlangen, müssen Betroffene auch zu Hause regelmäßige Rehabilitationsübungen ausführen. Allerdings empfinden sie diese als langweilig und verlieren schnell die Motivation daran.
Gamification, also die Nutzung von Spielelementen in einem nicht-spielerischen Kontext, kann nachweislich dabei helfen, profane Aufgaben aufzuwerten und langfristige Verhaltensänderungen zu forcieren. Um bestmöglich zu funktionieren muss die Gamification sich an die jeweilige Zielgruppe, deren Vorlieben und Bedürfnisse anpassen. Bei der Zielgruppe der Schlaganfallbetroffenen handelt es sich um ältere Menschen, die körperlich eingeschränkt sind, ein geringes Technikverständnis haben, denen soziale Kontakte wichtig sind, die sich jedoch durch kompetitive Handlungen schnell demotiviert fühlen.
Soziale Mechaniken sind vielversprechende Motivationsmechanismen, die allerdings bisher nur wenig Anwendung in der Gamification finden. Für die gegebene Zielgruppe haben sie eine noch höhere Relevanz und eignen sich daher gut, sofern auf kompetitive Elemente verzichtet wird. Reziproke Handlungen wie das Senden und Empfangen von Geschenken und Nachrichten konnten in dieser Arbeit als geeignete Motivatoren herausgearbeitet werden.
Dafür wurden eine Literaturrecherche zur Funktionsweise der Gamification und eine Zielgruppenanalyse durchgeführt, mögliche Mechaniken anhand von Beispielen betrachtet und frühe Konzepte mit Experten der Gamification evaluiert. Auf Basis der erlangten Erkenntnisse konnte die bestehende gamifizierte Rehabilitationsanwendung “Subliminal Home Rehab” um neue, motivierende Mechaniken erweitert werden, die von Repräsentanten der Zielgruppe positiv validiert wurden.
Der Traum von adaptiven und personalisierten Computerlernsystemen, welche die Lehrkräfte von langweiligen und mühseligen Arbeiten befreien sollen, beschäftigt die Forschung schon seit den 1920er Jahren. Jüngste Bemühungen setzen sich vor allem mit dem Personalisieren von Lernpfaden auseinander. Das Ziel dieser Bachelorthesis ist die Implementation einer adaptiven Erweiterung in ein bestehendes Lernmanagementsystem namens "Schule 4.0", sodass dadurch individueller auf die Bedürfnisse des Lernenden eingegangen werden kann. Hierfür wird ein Überblick über das Themenfeld des adaptiven Lernens gegeben, sowie die Verfahren und Funktionsweise adaptiver Lernsysteme erklärt. Weiter werden Verfahren zur Generierung von adaptiven Lernpfaden vorgestellt und der "State of the Art" von Lernpfade Editoren untersucht. Basierend auf diesen Erkenntnissen wird ein Konzept für einen grafischen Lernpfade Editor zum Erstellen adaptiver Lernpfade erstellt und systematisch mit Vorgehensmodellen aus dem Software Engineering in das bestehende System implementiert. Mithilfe der Implementation werden Beispielszenarien konstruiert und durch Experten der Pädagogik in einer Fokusgruppe evaluiert. Das Ergebnis dieser Arbeit ist ein grafischer Lernpfade Editor für "Schule 4.0", welcher in vielen Szenarien pädagogisch sinnvoll eingesetzt werden kann.
Virtual-reality (VR) is an immersive technology with a growing market and many applications for gesture recognition. This thesis presents a VR gesture recognition method using signal processing techniques. The core concept is based on the comparison of motion features in the form of signals between a runtime recording of users and a possible gesture set. This comparison yields a similarity score through which the most similar gesture can be recognized by a continuous recognition system. Some selected comparison methods are presented, evaluated and discussed. An example implementation is demonstrated. However, due to an introduced layer model parts of the method and its implementation are interchangeable.
Similar or even better performance is achieved compared to other related work. The comparison method Dynamic Time Warping (DTW) reaches an average positive recognitions rate of 98.18% with acceptable real-time application performance. Additionally, the method comes with some benefits: position and direction of users is irrelevant, body proportions have no significant negative impact on recognition rates, faster and slower gesture executions are possible, no user inputs are needed to communicate gesture start and end (continuous recognition), also continuous gestures can be recognized, and the recognition is fast enough to trigger gesture specific events already during the execution.
ReMotion ist ein Team der grow platform GmbH, welches die besonderen Herausforderungen der Nutzer und potenziellen Kunden des modernen Fitnesstrainings mit einer innovativen Geschäftsidee lösen will. Dazu soll ein effizientes Training geschaffen werden, das an den individuellen Leistungsstand der Nutzer angepasst ist und ein hohes Erlebnispotenzial bietet. Mithilfe einer firmeninternen und eigens dafür entwickelten Bewegungsplattform, einem Fahrrad-Ergometer als erstes Trainingsgerät, sowie in zusätzlicher Kombination mit Gamification und Technologien, die das Eintauchen in die virtuelle Realität ermöglichen, soll so der Fitnesssport der Zukunft technologisch revolutioniert werden.
Mit dem Ziel, die durch Kundenbefragungen identifizierten Herausforderungen von fehlendem Spaß und fehlender Motivation zu untersuchen, behandelt die vorliegende Arbeit das Thema Gamification in Bezug auf die Tätigkeit des hochintensiven Intervalltrainings auf einem realen, stationären Fahrradprototyp in der virtuellen Realität. Anhand eines User-Centered Design-Ansatzes und mehreren iterativen Entwicklungs-schritten wird das Konzept einer VR-Fitnesstraining Experience entwickelt. Dieses wird in Kooperation mit einem interdisziplinären Projektteam realisiert und anschließend von der Autorin dieser Arbeit evaluiert.
Die Ergebnisse aus einer umfangreichen Nutzerstudie zeigen grundsätzlich, dass der entwickelte Prototyp ein hohes Potenzial für positive und freudvolle Erlebnisse sowie der Motivierung zu einer optimalen Leistung aufweist. Abgeleitet werden konnten sieben mögliche Einflussfaktoren, die mit dem positiven Ergebnis in Verbindung stehen könnten. Herausgreifend betrachtet wird der mögliche Anreiz des Flow-Erlebens, für dessen Einsetzen ein Zusammenspiel mit den anderen sechs Einflussfaktoren essenziell zu sein scheint.
Außerdem wird in einer Erörterung der theoretischen Grundlagen zur Trainingswissenschaft festgestellt, dass in einem regulären Fitnesstraining zwei der vier in der Trainingswissenschaft definierten Gegenstandsbereiche aktuell wenig oder gar keine Berücksichtigung finden. Die Erkenntnisse dieser Arbeit deuten je-doch darauf hin, dass eine Integration, der noch nicht vorhandenen Gegenstandsbereiche in die Konzeption und Gestaltung eines Trainings ein positives Trainingserlebnis und leistungsmotiviertes Handeln begünstigen könnte.
Abschließend wird anhand einer theoretischen und übergreifenden Betrachtung der Vorgehensweise zur Erarbeitung des Gamification-Konzepts, als Hauptgegenstand dieser Arbeit, ein Vorschlag für ein allgemeines Gamification-Modell abgeleitet.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
The legitimacy of users is of great importance for the security of information systems. The authentication process is a trade-off between system security and user experience. E.g., forced password complexity or multi-factor authentication can increase protection, but the application becomes more cumbersome for the users. Therefore, it makes sense to investigate whether the identity of a user can be verified reliably enough, without his active participation, to replace or supplement existing login processes.
This master thesis examines if the inertial sensors of a smartphone can be leveraged to continuously determine whether the device is currently in possession of its legitimate owner or by another person. To this end, an approach proposed in related studies will be implemented and examined in detail. This approach is based on the use of a so-called Siamese artificial neural network to transform the measured values of the sensors into a new vector that can be classified more reliably.
It is demonstrated that the reported results of the proposed approach can be reproduced under certain conditions. However, if the same model is used under conditions that are closer to a real-world application, its reliability decreases significantly. Therefore, a variant of the proposed approach is derived whose results are superior to the original model under real conditions.
The thesis concludes with concrete recommendations for further development of the model and provides methodological suggestions for improving the quality of research in the topic of "Continuous Authentication".
Head Mounted Displays (HMD) are increasingly used in various industries. But apart from the industry environment, the potentials of HMDs in a private environment like at home has been rel- atively unexplored so far. What daily tasks can these help with, in the home kitchen for example?
The aim of this thesis is to obtain knowledge about the usefulness of such an HMD, the HoloLens, in combination with an application, while following a new recipe. Therefore a prototype applica- tion for the HoloLens got developed which guides a user through the cooking of a sushi burger by using multimedia content.
With a mixed method design, consisting of quantitative and qualitative methods, the HoloLens in combination with an application was evaluated by 14 participants.
Not only the weight of the device was a problem for users. The test also revealed that the display is darkening the view and participants tend to look below the glasses. An advantage is indeed to reach the next cooking step without the need of using hands and always having in sight what needs to be done next. Positive feedback was given as well for the application. Through voice control the user communicates to a character which will guide through the recipe by videos and text.
If in future the technical characteristics of HMD devices will improve, an application in this con- text will be of advantage in order to simplify learning a new recipe. This device, in combination with an application, could help early-middle stage cognitive impaired people and blind people to cook.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
Schon immer haben sich Menschen für Geschichten interessiert.
Für viele sind sie eine Ausflucht aus dem Alltag, Identifkationsmittel und Auseinandersetzung mit Themen aller Art.
Die anhaltende Beliebtheit von Fan Fictions ist daher keine Überraschung. Fan Fictions sind Geschichten, die von Fans geschrieben werden und sich dabei Elementen anderer Quellen bedienen, um diese nicht nur passiv zu konsumieren sondern sich aktiv mit ihnen auseinander zu setzen.
Gerade in Zeiten von Social Media,wo jeder, der einen Internetzugang, Kreativität und etwas technologische Affnität besitzt, mit Leichtigkeit Inhalte erstellen und teilen kann ist das Fortbestehen von Fan Fictions kaum verwunderlich.
Jedoch fällt schnell auf, dass Fan Fiction Archive, welche für eine der ältesten Formen von aktivem Medienkonsum stehen, nicht länger mit der raschen Entwicklung des Internets mithalten können.
Das drückt sich trotz der stetig steigenden Anzahl an geteilten Fan Fictions auf den zahlreichen Plattformen, durch sinkende Kommentarzahlen aus. Das Ziel dieser Arbeit ist es daher, ein Konzept zur Verbesserung der Autor-Leser Kommunikation zu entwickeln und dessen Machbarkeit anhand eines Prototypen zu beweisen.
Zunächst werden dazu die Grundlagen der Fan- und Feedback-Forschung zusammengetragen. Anschließend wird eine Analyse der Zielgruppen, der Kommentare sowie der bisher bestehenden Feedback-Funktionen in Fan Fiction Archiven und anderen Tools durchgeführt.
Diese Untersuchungen zeigen, dass es sich um drei Zielgruppen handelt, deren Bedürfnisse und Bereitschaft zur Beteiligung in der Community variieren: Autoren, kritische Leser und unkritische Leser.
Zudem werden Kommentar-Kategorien ermittelt und Schwachstellen in den Fan Fiction Archiven identifziert. Basierend auf diesen Erkenntnissen wird das Konzept Feeding Fandom entwickelt. Dieses Konzept kombiniert unterschiedliche Formen des Feedbacks und bietet darüber hinaus eine statistische Visualisierung dieser Interaktionen.
Somit ermöglicht das Konzept, dass sich jede Zielgruppe gemäß ihrer Fähigkeiten in der Community einbringen kann und Rückmeldung zur Verbesserung der eigenen Fähigkeiten und Steigerung der Beteiligungsbereitschaft erhält.
Die Entwicklung von mobilen Anwendungen und Web-Anwendungen ist aufgrund der großen Zahl von Zielplattformen aufwendig. Gegenstand dieser Arbeit ist die Evaluation von Technologien zur Erstellung von mobilen und Web-Anwendungen aus derselben Codebasis mit Hilfe von Webtechnologien und die Erweiterung der JavaScript-Syntax durch Transpiler. Dabei wird das Ziel verfolgt, Anwendungen aus Perspektive der Wartbarkeit zu konstruieren. Der Begriff der Wartbarkeit im Rahmen der Softwareentwicklung wird geklärt und bildet zusammen mit einem Anforderungskatalog eine Liste von Kriterien, welche zur Auswahl einer geeigneten Technologie verwendet wird. Es wird eine prototypische Anwendung implementiert, anhand der die ausgewählte Technologie hinsichtlich ihrer Eignung evaluiert wird.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
This bachelor thesis wants to describe a prototypical implementation of a 3D user interface for intuitive real-time set editing in virtual production. Furthermore this approach is evaluated qualitatively through a user group, testing the device and fill in a questionnaire. The dimension of virtual elements created with computer graphics technology in all areas of entertainment industry is steadily growing since the past years. Nevertheless can the editing process of virtual elements still require a costly process in terms of time and money. With the appearance of new input devices and improved tracking technologies it is interesting to evaluate if a real-time editing process could improve this situation. Being currently bound to experts on special workstations, this could lead to a more intuitive and real-time workflow, enabling everybody on a film set to influence the digital editing process and work collaboratively on the scene consisting of virtual and real elements.
Der vermehrte Einsatz von erneuerbaren Energien, welche nicht ständig verfügbar und nur begrenzt speicherbar sind, erschweren die Steuerung der Stromnetze. Zur Anpassung der Energieerzeugung an den tatsächlichen Bedarf werden Smart Grids („intelligente Stromnetze“) aufgebaut, die eine Steuerung des Energieverbrauchs in Abhängigkeit von der Verfügbarkeit ermöglichen. Die bereits vorhandenen Stromnetze werden hierzu um Kommunikationsnetze erweitert. Smart Meter („intelligente Stromzähler“) die beim Verbraucher eingesetzt werden, senden über die Kommunikationsnetze Messdaten zyklisch an die jeweiligen Stromnetzbetreiber. In Zukunft soll auch eine Steuerung von Haushaltsgeräten möglich werden. Daraus ergeben sich neue Herausforderungen in Bezug auf Sicherheit und Datenschutz. Die hier vorliegende Arbeit bietet eine kurze Einführung in die Grundlagen zum Thema Smart Grid. Es wird eine Referenzarchitektur definiert und die einzelnen Bestandteile des Smart Grids werden vorgestellt. Eine Auseinandersetzung mit den rechtlichen und regulatorischen Rahmenbedingungen sowie ein Überblick über den Stand der Entwicklungen intelligenter Stromnetze, insbesondere der Verbreitung von Smart Metern, vervollständigt die Grundlagen. Zusätzlich werden wesentliche Aspekte von Sicherheit und Datenschutz angesprochen. Darauf aufbauend wird die Sicherheit in Smart Grids untersucht. Hierzu werden die Ursachen für Bedrohungen im Rahmen einer Bedrohungsanalyse anhand eines Szenarios analysiert. Abgeleitet von den Ergebnissen der Bedrohungsanalyse werden Risiken innerhalb einer Risikoanalyse evaluiert und Maßnahmen empfohlen, um die festgestellten Risiken zu bewältigen
Diese Arbeit evaluiert die Herausforderungen, denen Scrum bei der Skalierung für große Projekte gegenübersteht. Diese bestehen hauptsächlich aus der Synchronisation der Teams, dem effizienten Auflösen von Abhängigkeiten, dem Sicherstellen von regelmäßiger sowie direkter Kommunikation, der Reduktion von Komplexität sowie dem Fördern und Fordern von regelmäßigem Feedback aller Projektbeteiligten. Abstract Die Herausforderungen unterteilen sich in die Skalierung der Scrum Artefakte, Rollen und Meetings. Für jeden der drei Bereiche werden in dieser Arbeit mehrere Lösungsmöglichkeiten vorgestellt, evaluiert und bewertet. Abstract Neben den Scrum Artefakten, Rollen und Meetings gibt es weitere, querschnittliche Herausforderungen, welche es bei der Skalierung von Scrum zu beachten gilt. Dabei handelt es sich um die Gebiete Softwarearchitektur, Unternehmenskultur, Projekt- und Prozessmanagement sowie Unternehmensstruktur. Abstract Die als starr angesehene Entwicklung einer Softwarearchitektur für ein großes Softwareprodukt steht der agilen Entwicklungswelt gegenüber und auch bei den unterschiedlichen Unternehmenskulturen gibt es Differenzen hinsichtlich der Kompatibilität mit Scrum und dessen Skalierung. Bezüglich der Softwarearchitektur im skalierten Umfeld wurde ein Mittelweg gefunden, der sich als „Enough Design Up Front” betitelt. Dieser stellt einen Kompromiss zwischen dem rein inkrementellen Ansatz des „No Design Up Front” und dem an das Wasserfallmodell angelehnten „Big Design Up Front” dar. Abstract Hinsichtlich der in den Unternehmen vorgefundenen Unternehmenskulturen obliegt es den jeweiligen Vorständen, sich für eine Entwicklung der vorhandenen Unternehmenskultur zu entscheiden oder versuchen, eine gänzlich andere Unternehmenskultur anzustreben. Beide Möglichkeiten können je nach Grad und Ausprägung der vorliegenden Unternehmenskultur mehrere Jahre des Wandels in Anspruch nehmen. Abstract Das Projekt- und Prozessmanagement muss für die Skalierung von Scrum geeignete Teamstrukturen sowie Integrationsstrategien finden, um die Produktinkremente der einzelnen Teams optimal zusammenzuführen. Die in dieser Arbeit vorgeschlagenen Möglichkeiten bieten den Verantwortlichen einige Optionen, müssen jedoch mit Bedacht gewählt und eingeführt werden. Viele dieser Lösungsmöglichkeiten fordern Veränderungen in der Unternehmensstruktur. Der Wandel der Unternehmensstruktur zur Unterstützung der Teams für eine effektive Produktentwicklung stellt somit eine weitere Herausforderung bei der Skalierung von Scrum dar.
In Smart Grids übermittelt der Stromzähler im Haushalt hochauflösende Messdaten des aktuellen Stromverbrauchs an den Energieversorger. Diese Daten ermöglichen es, sowohl dem Energieversorger, als auch potenziellen Angreifern, Aussagen über den Verbraucher zu treffen, die tief in die Privatsphäre eingreifen und Rückschlüsse auf die Lebensgewohnheiten erlauben. In dieser Arbeit wird die Aussagekraft dieser Informationen zunächst theoretisch erläutert und dann, am Beispiel eines Kühlschranks, überprüft. Ein wesentlicher Bestandteil des Vorgehens ist zunächst das automatische Erkennen und Extrahieren des Kühlschranks aus der Stromverbrauchskurve und die Analyse dieser Daten auf verschiedene Merkmale. Im zweiten Teil werden diese Merkmale anhand mehrerer Beispiele auf datenschutzrelevante Spuren hin untersucht. So lassen sich, trotz Unterschieden zwischen verschiedenen Kühlschrankmodellen, Anwesenheitsprofile der Benutzer erstellen und weitere Aussagen treffen.
Die Anforderungen an ein E-Commerce-Projekt sollten strukturiert dokumentiert werden, um daraus technische Lösungskonzepte abzuleiten. Eine solche Planungsphase erhöht die Chancen auf ein erfolgreiches Projekt und minimiert Projektrisiken, ist jedoch mit Zeitaufwand und Kosten verbunden. Viele Webshop-Betreiber möchten diese Aufwände minimieren, da eine kurze Projektdauer als kritischer Erfolgsfaktor am Markt angesehen wird. Diese Arbeit zeigt ein Dokumentationsmodell für Software- und Infrastrukturanforderungen auf, das die Branchenspezifika berücksichtigt und die Dokumentation von Anforderungen und Lösungskonzept erheblich beschleunigen soll. Dazu setzt es auf Wiederverwendung und die visuelle Modellierung mit einem CASE-Tool der aktuellen Generation. Sie reflektiert den Nutzen anhand eines Tests des Dokumentationsmodells im Projekteinsatz.
Websites or web applications, whether they represent shopping systems, on demand services or a social networks, have something in common: data must be stored somewhere and somehow. This job can be achieved by various solutions with very different performance characteristics, e.g. based on simple data files, databases or high performance RAM storage solutions. For todays popular web applications it is important to handle database operations in a minimum amount of time, because they are struggling with a vast increase in visitors and user generated data. Therefore, a major requirement for modern database application is to handle huge data (also called big data) in a short amount of time and to provide high availability for that data. A very popular database application in the open source community is MySQL, which was originally developed by a swedisch company called MySQL AB and is now maintenanced by Oracle. MySQL is shipped in a bundle with the Apache web server and therefore has a large distribution. This database is easily installed, maintained and administrated. By default MySQL is shipped with the MyISAM storage engine, which has good performance on read requests, but a poor one on massive parallel write requests. With appropriate tuning of various database settings, special architecture setups (replication, partitioning, etc.) or other storage engines, MySQL can be turned into a fast database application. For example Wikipedia uses MySQL for their backend data storage. In the lecture Ultra Large Scale Systems and System Engineering teached by Walter Kriha at Media University Stuttgart, the question Can a MySQL database application handle more then 3000 database requests per second? came up some time. Inspired by this issue, I got myself going to find out, if MySQL is able to handle such a amount of requests per second. At that time I also read something about the high availability and scalability solution MySQL Cluster and it was the right time to test the performance of that solution. In this paper I describe how to set up a MySQL database server with the additional MySQL Cluster storage engine ndbcluster and how to configure a database cluster. In addition I execute some database tests on that cluster to proof that its possible the get a throughput of >= 3000 read requests per second with a MySQL database.
Secure Search
(2011)
Nowadays it is easy to track web users among websites: cookies, web bugs or browser fingerprints are very useful techniques to achieve this. The data collected can be used to derive a specific user profile. This information can be used by third parties to present personalized advertisements while surfing the web. In addition a potential attacker could monitor all web traffic of an user e.g. its search queries. As a conclusion the attacker knows the intentions of the web user and of the company he is working for. As competitors maybe very interested in such information, this could lead to a new form of industrial espionage. In this paper I present some of the techniques commonly used. I illustrate some problems caused by the usage of insecure transmission lines and compromised search engines. Some camouflage techniques presented may help to protect the web users identity. This paper is a based on the lecture "Secure Systems" teached by Professor Walter Kriha at the Media University (HdM) Stuttgart.
RFID-Systeme haben heutzutage einen immer größeren Anreiz: Zugangskontrolle, Bezahlsysteme, Diebstahlsicherung oder Identifikation (Personalausweis, Pass) sind nur einige Bespiele. RFID-Systeme erleichtern Tätigkeiten, bringen jedoch auch sicherheitsrelevante Probleme mit sich. Datenschützern sind RFID-Systeme schon lange ein Dorn im Auge, da dadurch die Privatsphäre des Trägers leichter ausgespäht und ein Bewegungsprofil erstellt werden kann. Der Schutz dieser Systeme und indirekt des Trägers durch Dritte ist unerlässlich. Aktuelle Zugangskontroll- und Identifikationssysteme verwenden neueste Sicherheitsfunktionen und Verschlüsselungen. Ist dieser Schutz nicht ausreichend genug, können RFID-Schutzhüllen das Auslesen durch Dritte erschweren oder gar komplett verhindern. Im Internet werden kommerzielle Hüllen Angeboten, die Schutz bieten sollen. Die Wirkung dieser Schutzhüllen wird in der vorliegenden Arbeit analysiert. Zusätzlich werden die abschirmenden Eigenschaften von weiteren Materialien untersucht. Die Arbeit ist in der Vorlesung "Spezielle Themen der mobilen Kommunikation" bei Prof. Dr. Joachim Charzinski entstanden.
This paper gives an overview of the advantages and weaknesses of distributed source code review tools in software engineering. We cover this topic with a specific focus on Google’s freely available software Gerrit. In chapter 1 we discuss how code-reviews are generally useful for groups of programmers. We lay out how traditional approaches differ from distributed setups where developers may be vastly distributed from a geographical point of view or where meetings are otherwise contraindicated. In chapter 2 we discuss how users can interact with Gerrit, and chapter 3 covers some basic knowledge for those people who have to administer one or more Gerrit installations. Finally, chapter 4 summarizes key points and gives an outlook on the future role of distributed code-review.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Planung einer Evaluation mehrerer Mobile Business Intelligence Lösungen für die Landesbank Baden-Württemberg. Die Frage, welche Anforderungen ein Management Cockpit auf Basis mobiler Medien für ein global tätiges Finanzunternehmen erfüllen muss, steht hierbei im Mittelpunkt. Des Weiteren wird der aktuelle Trend von mobilen Business Intelligence Lösungen im Zusammenhang mit mobilen Endgeräten, wie dem Apple iPad, untersucht. Ziel dieser Arbeit ist, anhand einer zuvor erstellten Evaluationsmethode den Auswahlprozess zu planen und anschließend mit Hilfe von empfohlenen Best Practices die Evaluation durchzuführen. Das Ergebnis dieser Arbeit ist neben einer wissenschaftlichen Aufbereitung des Themas Mobile Business Intelligence auch eine Auswahlempfehlung für das geplante mobile Berichtswesen der Landesbank Baden-Württemberg. Die empfohlene Lösung soll nach Abschluss der Arbeit das derzeitige Berichtswesen der LBBW erst unterstützen und dann eventuell ganz ablösen. Eine positive Durchführung würde außerdem die Funktionalität der Evaluationsmethode bestätigen.
Die Planung oder Durchführung von IT-Projekten zur Gestaltung moderner Büroarbeitsplätze stellt eine wichtige Aufgabe für Unternehmen dar. Der Nutzen solcher Investitionen kann jedoch häufig nur in einem qualitativen Sinne verbal benannt werden kann. Allerdings sind Kenntnisse über den quantitativen Mehrwert eines IT-Projektes und möglicher Projektalternativen notwendig, um beispielsweise eine reale Vergleichbarkeit anhand der Rentabilität tätigen zu können. Im Rahmen dieser Arbeit wird eine Methodik zur Auswahl geeigneter Bewertungsmethoden für IT-Projekte entwickelt und die für diese Methodik relevanten Merkmale der Zielgruppen und Merkmale der Projektzielcluster erläutert.
Soziale Netzwerke nehmen in der Gesellschaft einen immer größer werdenden Stellenwert ein. Bisher beschränkte sich die Nutzung dieser auf zweidimensionale Eingabegeräte wie Tastatur und Maus sowie die mobile Nutzung durch Touchscreen Smartphones. Bis heute existieren noch keine einheitlichen Eingabemethoden und Interaktionselemente für die körpergesteuerte Mensch-Maschine-Kommunikation. Ziel dieser Arbeit ist es, die Machbarkeit einer dreidimensionalen Körpersteuerung für ein soziales Netzwerk mittels eines Natural User Interfaces (NUI) und des Kinect Sensors zu beweisen. Das NUI soll dem Nutzer ein möglichst natürliches Nutzungserlebnis bieten und seinen Anforderungen und Bedürfnissen gerecht werden. Dafür werden die Interaktionen und das NUI speziell für die Körpersteuerung ausgerichtet. Die Machbarkeit des Konzepts wird durch die Erstellung eines interaktiven Prototypen sowie eines Proof-Of-Concept bewiesen.
Entwicklung von Schnittstellen zur Konfiguration und Verwaltung eines Ambient Intelligence Systems
(2007)
Ein Ambient Intelligence System kann Anwendern vielfältige Möglichkeiten zur Steuerung und Konfiguration des Systems geben. Der Zugriff auf diese Funktionalität kann auf verschiedene Arten realisiert werden. Eine ist die Nutzung eines mobilen Gerätes als Zugangsmedium. Damit dies möglich wird, sind Konzepte und Schnittstellen notwendig, die den Informationsaustausch zwischen Anwendern, Gerät und Ambient Intelligence System ermöglichen. Diese Diplomarbeit beschäftigt sich mit der Erarbeitung dieser Grundlagen.
Die vorliegende Diplomarbeit beschäftigt sich mit der Ablösung eines Generator Frameworks und der Generierung von Artefakten für die Businesslayer einer J2EE-Applikation. Der bestehende Generator sowie die Transformationsabbildungen sollen durch openArchitectureWare 4, einem metamodellbasiertem Generator Framework, ersetzt werden. Mittels des openArchitectureWare Frameworks wird der viel diskutierte Model Driven Architecture (MDA) Ansatz der OMG vorgestellt. Es wird der Unterschied zwischen herkömmlicher Softwareentwicklung und der modellgetriebenen Entwicklung aufgezeigt, sowie alle damit verbundenen Vor- und Nachteile. Es soll gezeigt werden, dass Modelle nicht nur zur Dokumentation dienen, sondern als Code gesehen werden können und sollten. Im Bezug auf die technische Realisierung der MDA werden die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen betrachtet und die eingesetzten Technologien wie z.B. UML, UML–Profile und Meta Object Facility vorgestellt. Außerdem wird ein Ausblick in neue Technologien im Kontext modellgetriebener Architekturen, wie zum Beispiel das Eclipse Modelling Framework (EMF) und das Graphical Modelling Framework (GMF) gegeben. Da die Schwerpunkte der Diplomarbeit auf der von BMW verwendeten Architekur für verteilte Applikationen sowie der Generatormigration liegen, wird die Architektur und der Generator von BMW im Aufbau sowie der Funktionsweise näher betrachtet. Die von BMW eingesetzte Architektur „Component Architecture 2.0“ ist eine komponentenbasierte Architektur, welche bei BMW entwickelt wurde und projektübergreifend zum Einsatz kommt. Des Weiteren liegt der Diplomarbeit das PEP-PDM Projekt, das bei BMW zurzeit durch Softlab realisiert wird, zugrunde. Durch PEP-PDM wird bei BMW eine zentrale Datenreferenz über den gesamten Entstehungsprozess eines Produktes erreicht. Das gesamte Wissen über ein Fahrzeug mit allen Daten des Entstehungsprozesses wird an einer zentralen Stelle zusammengeführt und dadurch, zu jedem Zeitpunkt, der aktuelle Stand im Entwickluingsprozess eines Fahrzeuges bekannt. Durch die Migration auf openArchitectureWare, dem Open Source Generator Framework und dem dazugehörigen Vorgehensmodell der generativen Entwicklung, werden die eingesetzten Technologien des Frameworks und deren Möglichkeiten wie Templates, Extensions und Modellvalidierung erläutert. Die Technologien und Designentscheidungen werden an der Transformation eines bestehenden Platform Independent Model (PIM) des Projektes PEP-PDM näher betrachtet und erläutert. Die Transformationsabbildungen für das PEP-PDM PIM basiert auf der von BMW eingestzten Component Architecture 2.0 und der Enterprise Technolgie J2EE. Ein Benefit der Diplomarbeit ist die Evaluierung des Graphical Modeling Framework von Eclipse. Dies beinhaltet implizit den Einsatz des Eclipse Modeling Framework (EMF) als Design Sprache für die Anwendung und das Metamodell. Mit diesen Technologien könnte zukünftig die Möglichkeit bestehen vom Erstellen der domänenspezifischen Sprache (Metamodell), über das Anwendungsdesign (PIM), bis hin zur Transformation und Implementierung alles in einem Entwicklungstool (Eclipse) zu bearbeiten. Abschließend werden die gewonnenen Erkenntnisse und Erfahrungen bezüglich der MDA unter Verwendung von openArchitectureWare zusammengetragen und bewertet.
Diese Diplomarbeit befasst sich mit der Model Driven Architecture (MDA) und deren Anwendung auf Basis von Open Source. Für ein Unternehmen ist es immer wichtig zu wissen, wie der aktuelle Stand der Technik ist und ob diese Technik produktiv eingesetzt werden kann, um sich dadurch Vorteile am Markt zu verschaffen. Es werden zunächst einige Grundlagen von Open Source und MDA erörtert. Danach wird mittels einer Evaluierung von Open Source Modellierungs- und Generierungswerkzeugen ein Überblick über die am Markt verfügbaren Werkzeuge gegeben. Anschließend wird die prototypenhafte Umsetzung eines Geschäftsvorfalles einer Versicherung beschrieben, um den Stand der Technik zu demonstrieren. In der Schlussbetrachtung folgt ein Fazit über den Verlauf und die Resultate der Diplomarbeit. Zum Schluss wird ein Ausblick für die Model Driven Architecture gegeben.
AJAX in the Enterprise
(2007)
Mit Rich Internet Applications wurde in letzter Zeit eine Lösung geschaffen, um reichhaltige, interaktive und ansprechende Benutzerschnittstellen für Webanwendungen zu entwickeln. RIAs können mit den verschiedensten Technologien entwickelt werden. Seit geraumer Zeit ruft in diesem Umfeld die neue Technologie AJAX sehr viel Interesse hervor. Es liegt im Interesse von Daimler Chrysler neue Clientparadigmen zu erforschen. Diese Arbeit untersucht, welche Vorteile, Risiken und Herausforderungen beim Einsatz von AJAX in Enterprise Umgebungen auftreten. Es werden diverser AJAX-Frameworks und die auftretenden Integrationsprobleme betrachtet. Außerdem werden die Vorteile von AJAX durch die Implementierung einer Beispielanwendung aufgezeigt.
Thema der vorliegenden Diplomarbeit ist der Entwurf einer Integrationsschnittstelle für Content-Management-Systeme basierend auf dem Datenmodell BMF. Konkret soll für das Content-Management-System (CMS) des Bayerischen Rundfunks (BR) eine Softwareschnittstelle entworfen werden, die auf dem Datenmodell Broadcast Metadata exchange Format (BMF) basiert. Die Schnittstelle soll Daten aus dem CMS ausgeben und in die BMF-Struktur transformieren. Das CMS des BR beinhaltet u.a. Metadaten der Fernsehproduktionsumgebung (z.B. den Namen eines beteiligten Kameramanns oder den technische Aufbau einer Sendung) in einer nicht veröffentlichten Datenstruktur. Bekannt ist, daß diese Struktur auf FESAD, der Fernseharchivdatenbank der öffentlich-rechtlichen Rundfunkanstalten, basiert, und daß CMS-Daten über das proprietäre AXF-Format ausgetauscht werden können. Um einen standardisierten Metadatenaustausch zwischen Rundfunkanstalten und Applikationen (z.B. Schnittsystemen) zu erm¨oglichen, wurde das Datenmodell BMF entwickelt, das die Struktur von Metadaten der Fernsehproduktion festlegt. Für BMF ist diese Diplomarbeit ein erster Praxistest. Zunächst wurden objektive Anforderungen an die Schnittstelle gesammelt und der tatsächliche Informationsgehalt von FESAD mit dem des CMS verglichen, da dessen Datenstruktur wie erwähnt nicht veröffentlicht ist. Insgesamt zeigte sich eine große Übereinstimmung beider Modelle, es gab jedoch auch Unterschiede. Diese Arbeit behandelt daher nicht nur die Abbildung des unternehmensinternen BR-Datenmodells auf BMF, sondern auch die des ARD-weiten Datenmodells FESAD. Nach Abgrenzung des abzubildenden Informationsgehaltes wurde geprüft, inwiefern sich dieser im derzeit aktuellen BMF-Klassenmodell wiederfindet. Im Zuge dessen wurden einige BMF-Pakete neu modelliert. Der letztendliche Entwurf der Schnittstelle umfasst die Spezifikation von Zugriffsmethoden und die Datentransformation von CMS- bzw. FESAD-Daten auf BMF. Als Ergebnis dieser Arbeit kann festgehalten werden, daß die vom BR gestellten Anforderungen an die Schnittstelle erf¨ullt und das BR-Datenmodell bzw. FESAD auf BMF abgebildet werden konnten. Dieser Diplomarbeit kann nun eine Implementierung der Schnittstelle folgen.
Anbindung mobiler Endgeräte mittels standisierter Web Services auf Basis von Java 2 Micro Edition
(2006)
Das Ziel dieser Diplomarbeit ist die Realisierung eines Clients für mobile Endgeräte auf Basis von J2ME1 unter Verwendung von MIDP 22. Mit Hilfe dieses Clients sollen Anbindungen an Standard Web Services auf Basis von SOAP möglich sein. Die Client-Anwendung stellt Formulare zur Ein- und Ausgabe von Daten bereit. Diese Formulare werden zur Laufzeit anhand der dem Dienst zu Grunde liegenden WSDL erzeugt und die erfassten Daten werden bis zum Absenden dieser an den Server lokal auf dem Endgerät gespeichert.
Die Aufgabe im Rahmen meiner Diplomarbeit ist die Entwicklung der Videotechnik, insbesondere im Hinblick der Einführung neuster High Definition – Videotechnik sowie die Analyse verschiedener Videokompressionsverfahren für HD Video, um durch Vergleich dieser verschiedenen Codierungsverfahren das jeweils geeignetste für die entsprechende Anwendung zu wählen. Aus obigen Vorbereitungen ist eine Lösung zu entwickeln, mit der möglichst einfach ein HD-Video mit maximaler Qualität auf einem PC-basierenden Präsentationsmedium fließend abgespielt werden kann. Damit das Ziel, dass HD Film zur Heimkinoanwendung bzw. Messepräsentation gebracht werden kann, erreicht. Für den Zeitraum der Erstellung der Diplomarbeit war ich in der Postproduktionsfirma Mackevision, wo die Bearbeitung des HD-Standards schon seit mehreren Jahren intensiv verfolgt wird. Als erster Post-Produktions-Anbieter in der Region beherrscht die Mackevision den Kompletten HD-Bearbeitungsprozess. Das zur Analyse der Codierungsverfahren verwendete HD-Rohmaterial stammt aus dem HD-Demoreel der Firma Mackevision.
Diese Arbeit ist in acht Kapitel eingeteilt, wobei die erste Hälfte die theoretische Grundlage sowie die Bestandsaufnahme beinhaltet, und die zweite Hälfte auf die Umsetzung der domänenspezifischen Sprachen eingeht. Kapitel 1 skizziert einen groben Überblick ¨uber die Themen und die Ziele dieser Arbeit Kapitel 2 gibt eine Einführung in die Konzepte der modellgetriebenen Softwareentwicklung, stellt verschiedene Ansätze vor, und stellt das Produkt PAI vor Kapitel 3 beschäftigt sich mit der Softwarearchitektur und den operationalen Aspekten der Softwareentwicklung sowie deren Handhabung durch den Rational Unified Process und der IBM Global Services Method Kapitel 4 stellt das Operational Model bei PAI vor, wie es im Projekt entsteht und wie es verwendet wird, sowie die Gründe für den Bedarf einer formalen Modellierung Kapitel 5 beschäftigt sich mit der Erstellung der domänenspezifischen Sprachen, also dem Domänendesign Kapitel 6 stellt verschiedene Ansätze und Sprachen der Modelltransformation vor und erkundet die Möglichkeit bei der Transformation des Operational Models Kapitel 7 befasst sich mit der Unterstützung der in den vorigen beiden Kapiteln beschriebenen Aufgaben durch entsprechende Werkzeuge, einschließlich einer prototypischen Implementierung in Eclipse EMF Kapitel 8 gibt ein kurze Zusammenfassung dieser Arbeit sowie eine Bewertung der gewonnenen Ergebnisse
Diese Arbeit beginnt mit der allgemeinen Beschreibung von Adventure Games. Es werden hier zahlreiche Begriffe, die im späteren Verlauf der Arbeit wiederkehrend verwendet werden, näher erläutert. Nach einer Übersicht über die Historie, folgt eine Untersuchung der Struktur und des dahinter liegenden Regelwerks der Adventure Games. Abschließend folgt im Kapitel 2 eine Untersuchung einiger auf dem Markt befindlicher Autorensysteme. Nachfolgend sollen die Grundlagen beschrieben werden, die zur Herleitung der Architektur führen. Hierzu werden Konzepte aus den Bereichen Storytelling, Maschine-Mensch-Kommunikation und virtuelle Welten herangezogen, um so möglichst viele Aspekte zu vereinen. In Kapitel 4 sollen die Konzepte zusammenfließen und eine Einheit bilden. Die entstandene Architektur soll in ihren Grundzügen erläutert und die erwendungsweise dargelegt werden.
Die programmierbare Hardware-Pipeline und ihre Verwendung für glaubhafte künstliche Charaktere
(2005)
Nach dem ersten Kapitel, das der Einleitung und der Heranführung an die Materie diente, werde ich im zweiten Kapitel die Hardware moderner Grafikkarten gründlich beleuchten. Ich werde den Fluss der Daten durch die Rendering-Pipeline nachzeichnen und aufzeigen, an welchen Stellen sich Veränderungen durch die neuen Generationen der programmierbaren Shadereinheiten ergeben. Diese neuen Shadereinheiten werde ich im einzelnen erläutern und stelle zuletzt einen Vergleich zwischen Echtzeit-Shading und Shadingtechniken im herkömmlichen Offline-Rendering an. Im dritten Kapitel möchte ich die die Programmierschnittstelle der GPUs beschreiben. Nach einem kurzen Abriss über den Assembler-Dialekt für Grafikkarten gehe ich direkt über zur Beschreibung der meistverwendeten Shader-Hochsprache HLSL. Ich erläutere den Gebrauch von Datentypen, Funktionen und Strukturen sowie einige grundlegende intrinsische Funktionen. Das vierte Kapitel dreht sich ganz um verschiedene Rendertechniken und ihre Umsetzung in HLSL. Vom simplen Texture Mapping über Shadow Maps, Normalenmapping und Depth-of-Field bis hin zum Image Based Lighting erläutere ich hier die verschiedensten Techniken am Beispiel. Alle Effekte liegen dieser Arbeit in Projektdateien für ATIs freies Tool „RenderMonkey 1.6“ bei [ATI01]. Im fünften und letzten Kapitel schließlich gehe ich auf die speziellen Probleme und Lösungsansätze beim Echtzeit-Rendering realistischer menschlicher Charaktere ein. Ich erläutere im einzelnen die Techniken, die angewandt wurden, um Haut, Haare, Gebiss und Augen unseres künstlichen Charakters „Hank“ so realistisch wie möglich erscheinen zu lassen.
Das Heimnetz diente früher lediglich der Vernetzung der im Haushalt vorhandenen Desktop PCs und Notebooks. Durch die stetig voranschreitende technische Entwicklung findet man im heutigen Heimnetz jedoch eine Fülle an Geräten aus den verschiedensten Branchenbereichen. Neben Handys und Fernsehern können auch Waschmaschinen und Kühlschränke sowie Heizungs- und Beleuchtungsanlagen mit dem Heimnetz verbunden werden und eröffnen dem Anwender so eine Vielzahl neuer Möglichkeiten. Für die Bereitstellung dieser neuen Funktionalitäten benötigen die Geräte immer komplexere Software, die bei der Inbetriebnahme der Geräte im Heimnetz eingerichtet, konfiguriert und später ggf. überwacht werden muss. Dies ist bei der Vielzahl an Geräten vom Anwender nicht mehr zu leisten und muss somit automatisiert von einem Service Provider übernommen werden. Um dem Service Provider die entfernte Konfiguration der Geräte zu ermöglichen, werden Protokolle benötigt, die ihm den Zugriff auf die Geräte des Heimnetzes erlauben. Dabei gibt es für verschiedene Gerätetypen unterschiedliche Protokolle, von denen die zwei bedeutendsten – TR-069 und OMA DM – in dieser Arbeit ausführlich analysiert werden. Die Vielfalt an Auto-Konfigurationsprotokollen erschwert dem Service Provider die automatisierte Konfiguration möglichst vieler Geräte im Heimnetz des Anwenders. In dieser Diplomarbeit wird deshalb ein Auto-Konfigurationsszenario entwickelt, bei dem die verschiedenen Auto-Konfigurationsprotokolle mit Hilfe semantischer Modelle beschrieben werden. Dies ermöglicht dem Service Provider, Geräte ohne großen Aufwand mit beliebigen Protokollen zu konfigurieren und erleichtert so dem Anwender den Umgang mit seinen im Heimnetz vorhandenen Geräten. Die Umsetzbarkeit des in dieser Diplomarbeit konzipierten Szenarios wird durch die Realisierung eines auf Semantic Web Services basierenden Prototypen überprüft.
Nach dem ersten Kapitel, welches der Einleitung und Heranführung an das Thema dient, wird im folgenden zweiten Kapitel ein Überblick über die geschichtliche Entwicklung von GUIs in Spielen folgen. In diesem Rahmen soll auch erörtert werden, welche Formen von GUIs in Spielen existieren, und wie diese definiert werden. Außerdem umfasst das zweite Kapitel eine Analyse, welche Gemeinsamkeiten Oberflächen in herkömmlichen Anwendungsprogrammen und Spielen aufweisen. Auf die spezifischen Anforderungen die an GUIs in Spielen gestellt werden, wird ebenfalls eingegangen werden. Das dritte Kapitel widmet sich der Programmierung von GUIs. Hierbei wird darauf eingegangen werden, warum existierende Programmiertoolkits wie MFC, Java, oder QT, für die Erstellung von GUIs in Computerspielen unzureichend sind. Weiterhin werden in diesem Kapitel die einzelnen Teile, aus denen ein GUIs zusammensetzt ist, behandelt. Deren Umsetzung wird anhand des im Praxisteil erstellten Toolkits erörtert. Kapitel vier widmet sich der konkreten Einbindung und Verwirklichung der GUI Elemente in einem Spiel. Neben allgemeinen Ansätzen werden Beispiele anhand des im Praxisteil erstellten Prototyps „Sweeper“ behandelt. Das fünfte und letzte Kapitel soll schließlich ein Resumé enthalten und wagt einen kleinen Ausblick in die Zukunft.
Integrationsmöglichkeiten einer Swing-Anwendung in Eclipse am Beispiel des abaXX Process Modelers
(2006)
Das Eclipse-Framework hat sich in den letzten Jahren als Entwicklungsumgebung und Plattform für Tool-Integration etabliert. Immer mehr bekannte Firmen wie BEA, IBM und Nokia integrieren ihre Anwendungen in dieses Framework. Eclipse bietet hierfür ein modulares System an, das auf einfache Weise erweitert werden kann. Die vorliegende Diplomarbeit beschäftigt sich mit der Integration von Anwendungen in die Eclipse-Plattform. Hauptsächliches Augenmerk liegt dabei auf der Integration vorhandener Swing-Applikationen in das Framework. Grundlage hierfür bildet der Process Modeler, eine Swing-Applikation von der abaXX Technology AG zum Modellieren von Geschäftsprozessen. Aufbauend auf den theoretischen Grundlagen und der Motivation für eine Integration werden zuerst der Process Modeler und das Eclipse Framework sowie einige weitere verwendete Technologien analysiert. Ziel ist die Untersuchung von Integrationsmöglichkeiten in das Eclipse Framework und das Aufstellen eines konkreten Integrationsszenarios für den Process Modeler, sowie die Erstellung eines ersten Prototypen.
Die vorliegende Arbeit behandelt die theoretischen Hintergründe zur Entwicklung einer mehrsprachigen Webanwendung mit Frontend-Funktionen für so genannte Independent Recordlabels. Die entwickelte Webanwendung vereinfacht die Marketing-Prozesse insbesondere hinsichtlich der Bereitstellung von Information für unterschiedliche Nutzergruppen. Die entwickelte Flash-Anwendung ist dreifach dynamisch: mittels ihrer Hilfe werden dynamisch generierte Inhalte aus der zentralen Recordlabel-Datenbank in ansprechender dynamischer Form präsentiert, der Layoutaufbau erfolgt dabei während der Laufzeit nach Vorgaben einer leicht zu modi-fizierenden Layout-Klasse.Im Speziellen wird in dieser theoretischen Ausarbeitung auf die Problematiken der Entwicklung einer sicheren Flash-Anwendung und eines sicheren Prelistening-Konzeptes sowie auf Usability-Aspekte eingegangen. Erläutert wird zudem, wie die unterschiedlichen Benutzergruppen in das Site-Konzept miteinbezogen wurden.
Die Aufgabenstellung dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Unterstützung des Vertriebs in der Kundenberatung. In wirtschaftlich schwierigen Zeiten, in welchen Investitionsentscheidungen genau durchdacht werden sollten, ist es eine Notwendigkeit dem Kunden diese Entscheidung zu erleichtern, indem der Kundenberater mit ihm gemeinsam versucht eine speziell für ihn entwickelte Lösung zu finden. Wegen der Produktvielfalt des Unternehmens PolarMohr ist dies von großer Bedeutung. Durch die Kombinationsmöglichkeiten der Schnellschneider mit den zahlreichen Peripherie-komponenten und diverser Zusatzoptionen, die wiederum unterschiedliche Automatisierungsstufen beinhalten, entsteht eine Vielzahl an Konfigurationsmöglichkeiten. Diese sind für die unterschiedlichsten Einsatzgebiete geeignet. Das Softwaretool dient hierbei als Entscheidungshilfe und ermöglicht dem Vertriebsmitarbeiter mit dem Kunden gemeinsam Konfigurationen zu vergleichen, verschiedene Schneidprozesse zu simulieren und die Anlagen so zusammenzustellen, dass sie auf das Unternehmen und die Auftragsstruktur des Kunden gezielt abgestimmt sind. Kennzahlen zeigen Trends und Rationalisierungspotenziale auf und machen Investitionsentscheidungen transparenter. Die preisliche Platzierung der Produkte kann durch das Softwaretool einfacher und zielgerechter gestaltet werden.
Dieses vorliegende Dokument stellt den schriftlichen Teil der Diplomarbeit dar, gleichzeitig ist es aber auch als Dokumentation zu betrachten. Es richtet sich hauptsächlich an Systemarchitekten und Software-Entwickler, um einen Überblick darüber zu geben, wie die entwickelte Buchungs-Software aufgebaut ist. Dieses Dokument dient als Grundlage und Referenz; es sollte vor dem Einstieg in den Source Code gelesen und verstanden werden, denn es erläutert die grundlegenden Abläufe, Modelle und Praktiken. Daneben existieren weitere Dokumente, die tieferen Einblick geben oder spezielle technische Probleme anhand von Verfahrensanweisungen lösen helfen. Diese Dokumente befinden sich (neben Source Code, generiertem JavaDoc und den in dieser Diplomarbeit verwendeten Diagrammen und Bildern) auf der beiliegenden CD-ROM. Wie bereits angedeutet, soll diese schriftliche Ausarbeitung den Leser befähigen, sich in die umfangreiche Software einzuarbeiten (z.B. für Wartungsarbeiten oder Weiterentwicklung der Software). Deshalb werden grundlegende Kenntnisse und Begriffe der Programmiersprache Java, von Entwurfsmustern (Design Patterns), von Betriebssystemen (Linux und Windows) und Internet-Technologien (Web- und Applicationserver, Protokolle, HTML, CSS, etc.) vorausgesetzt. Die Kapitel 2 bis 4 können darüber nur einen groben Überblick geben und gehen nur selten richtig ins Detail. Für Interessierte, die sich eingehender damit beschäftigen wollen, existiert eine Vielzahl an weiterführender Literatur. Kapitel 5 geht ausführlich auf die Anforderungen der Software ein, so wie sie in einem Pflichtenheft hätten definiert worden sein können. Besonders hier kommen viele großformatige UML-Diagramme (Unified Modeling Language) zum Einsatz, sind sie doch aussagekräftig und erschließen sich schnell wie einfach dem Betrachter. In Kapitel 6 wird dann erläutert, wie die Geschäftsprozesse aus dem vorhergehenden Kapitel umgesetzt wurden. Es handelt sich dabei hauptsächlich um Komponenten, die auf dem Server installiert sind und den wesentlichen Teil der Software bilden (Teile davon werden allerdings von anderen, lokalen Komponenten wiederverwendet). Eine solche lokale Komponente ist das Import-Export-Tool (Kapitel 7) – eine reine Java- Applikation mit einfacher Benutzeroberfläche. Sie ermöglicht den regelmäßigen Austausch von Mitgliederdaten zwischen der Online-Datenbank MySQL und der Offline-Datenbank Access. Dies ist notwendig, da der Segelverein, für den diese Software erstellt wurde, auf die bisher verwendete Access-Datenbank nicht verzichten konnte. Deshalb kann oder muss man hier durchaus von Individual-Software sprechen. Allerdings ist es auch möglich, auf die Offline-Datenbank zu verzichten, was den Einsatz der Buchungs-Software bei anderen Segelvereinen mit ähnlichen Geschäftsprozessen ermöglicht. Kapitel 8 widmet sich einer Zusatz-Software (ebenfalls eine Java-Applikation), während Kapitel 9 eine Schlussbetrachtung und persönliche Erfahrungen des Autors enthält.