004 Informatik
Refine
Year of publication
Document Type
- Diploma Thesis (39)
- Bachelor Thesis (21)
- Master's Thesis (10)
- Study Thesis (3)
- Researchpaper (2)
- Book (1)
- Report (1)
Is part of the Bibliography
- no (77)
Keywords
- Barrierefreiheit (5)
- Datenschutz (3)
- J2EE (3)
- Softwareentwicklung (3)
- Agile Softwareentwicklung (2)
- Benutzerfreundlichkeit (2)
- Computergraphik (2)
- Deterministic Lockstep (2)
- Graphische Benutzeroberfläche (2)
- Intelligentes Stromnetz (2)
Institute
- Medieninformatik (Bachelor, Diplom) (29)
- FB 1: Druck und Medien (17)
- Audiovisuelle Medien (Bachelor, Diplom) (11)
- Computer Science and Media (Master) (7)
- FB 3: Information und Kommunikation (2)
- Mediapublishing und Verlagswirtschaft (Diplom) (2)
- Wirtschaftsinformatik (Bachelor) (2)
- Bibliotheks- und Medienmanagement (Bachelor, Diplom) (1)
- FB 2: Electronic Media (1)
- Informationsdesign (Bachelor, Diplom) (1)
Multiplayer games can increase player enjoyment through social interactions, cooperation and competition. The popularity of such games is shown by current market trends. Especially networked multiplayer games frequently achieve great success, but confront game developers with additional networking challenges in the already complex field of game production. The primary challenge is game state synchronization across all players. Based on the current research, there are three main methods for this task – deterministic lockstep, snapshot interpolation and state-sync – with their own advantages and disadvantages.
This work quantitatively evaluated and discussed the vertical (entity count) and horizontal (player count) limitations of deterministic lockstep and compared the method to snapshot interpolation. Results showed, that deterministic lockstep has no indicated vertical scaling limitation with a player count of up to 10 supporting 16,000 or more entities. A horizontal scaling limitation could not be found either and lockstep was confirmed to work with 40 or more players while handling 1024 entities. However, both scaling dimensions correlate negatively, which was indicated by the maximum scaling configurations 30 players and 4096 entities or 20 players and 8192 entities.
An unoptimized snapshot interpolation implementation achieved a vertical scaling limitation of 4096 entities with 10 players and a horizontal scaling limit of 40 or more players with 1024 entities and therefore was found to have a lower entity limit compared to deterministic lockstep.
Furthermore, results are compared to related work. Other contributions of this thesis include an overview of game networks and the three game state synchronization techniques. An architecture model for deterministic lockstep including a hybrid approach combining it with snapshot interpolation for re-synchronization and hot-joins. And finally, a network packet deconstruction of the implemented networking framework Unity Transport Package (UTP).
Multiplayer games can increase player enjoyment through social interactions, cooperation, and competition. Their market popularity shows the success of especially networked multiplayer games, which pose new networking challenges to game developers. The main challenge is synchronizing game state across players. Research identifies deterministic lockstep, snapshot interpolation, and state-sync as primary methods for this task, each with distinct advantages and disadvantages.
This work, and the master thesis this paper is based on, quantitatively evaluated deterministic lockstep, demonstrating its vertical (entity count) and horizontal (player count) scaling limitations and compares the method to snapshot interpolation. Lockstep supports minimum 16,000 entities for up to 10 players and a horizontal scaling of 40 or more players with 1024 entities. However, a negative correlation between entity and player count limits was observed, which was indicated by the maximum scaling configurations 30 players with 4096 entities or 20 players with 8192 entities. Snapshot interpolation faced a vertical limit with 4096 entities and 10 players and horizontally with 40 or more players and 1024 entities.
The paper further contributes by comparing results to related work, summarizing synchronization methods, proposing a hybrid architecture model of deterministic lockstep with snapshot interpolation for re-synchronization and hot-joins, and deconstructing Unity Transport Package’s (UTP) network packets.
Ab Mitte 2025 wird das Barrierefreiheitsstärkungsgesetz viele Unternehmen in Deutschland dazu verpflichten, ihre Websites und Online-Shops barrierefrei zu gestalten. Sie stehen vor der Herausforderung, die Barrierefreiheit künftig in den Entwicklungsprozess ihrer digitalen Plattformen zu integrieren.
Um dies zu erleichtern, entwarfen wir im Rahmen dieser Arbeit einen Entwicklungsprozess für barrierefreie Webanwendungen in Scrum, der in einem Experiment mit anschließender heuristischer Evaluation und einer Befragung in einem E-Commerce-Unternehmen validiert wurde. Der Entwicklungsprozess befasst sich mit der Einbeziehung von Barrierefreiheit in Scrum-Elemente wie Product Backlog Items, die Definition of Ready und Definition of Done. Außerdem zeigt er bewährte Praktiken für die Implementation und das Testen von Barrierefreiheit auf.
Die Ergebnisse zeigten, dass die Erfassung von Barrierefreiheitsanforderungen in Form von Gherkin-Szenarien zu einer schnelleren Bearbeitung von Aufgaben und höheren Zufriedenheit mit dem Entwicklungsansatz im Scrum-Team beiträgt. Ferner wurde deutlich, dass die Schulung des Personals unerlässlich ist, um die Anforderungen der EN 301 549 und der WCAG vollständig zu erfüllen.
Diese Arbeit macht deutlich, dass Unternehmen zeitnah Maßnahmen ergreifen müssen, um das Barrierefreiheitsstärkungsgesetz rechtzeitig umsetzen zu können.
Today’s digital cameras use a mosaic of red, green, and blue color filters to capture images in three color channels on a single sensor plane. This thesis investigates the use of convolutional neural networks (CNNs) for demosaicing – the process of reconstructing full-color images from raw mosaic sensor data. While there are existing CNNs for demosaicing raw images from the well-established regular Bayer color filter array (CFA), this thesis focuses on how they perform on alternative non-regular sampling patterns that produce less aliasing artifacts, namely the stochastic Gaussian- and the RandomQuarter sampling pattern (Backes and Fröhlich, 2020).
A basic UNet (Ronneberger et al., 2015) and the spatially adaptive SANet (T. Zhang et al., 2022) are implemented in a supervised training pipeline based on the PixelShift200 image dataset (Qian et al., 2021) to investigate their suitability for the irregular demosaicing task. The experiments indicate that the basic UNet encounters difficulties in restoring the missing color values, whereas the spatially adaptive convolutional layers help in processing the irregularly sampled raw images.
In addition, this thesis enhances SANet effectiveness by employing an alternative residual branch based on a CFA-normalized Gaussian filter, as well as a tileable modification to the Gaussian CFA pattern. The modified SANet is shown to outperform the conventional dFSR algorithm (Backes & Fröhlich, 2020) in terms of peak signal to noise ratio (PSNR) and structural similarity index measure (SSIM).
Über 90 % der umlaufenden PDF-Dokumente sind zumindest teilweise unzugänglich. Aus diesem Grund hat Adobe eine künstliche Intelligenz (KI) entwickelt, die automatisch Tags in PDF-Dokumente setzt, um sie barrierefreier zu gestalten.
Um dies zu überprüfen, wurde in unserer Bachelorarbeit die barrierefreien PDF-Dokumente nach dem Standard PDF/UA (DIN ISO 14289-1:2016-12) untersucht. Wir verwendeten für die Ermittlung des PDF/UA Standards das Matterhorn Protokoll. Für den Versuch erstellten wir PDF-Dokumente, die die Fehlerbedingungen des Matterhorn Protokolls und den Richtlinien von PDF/UA verstoßen.
Unsere Ergebnisse zeigen, dass 37 % der Fehler vom Matterhorn Protokoll behoben wurden, während 42 % nicht behoben wurden. Die restlichen 21 % der Fehler konnten von der KI technisch nicht gelöst werden, da sie nicht dafür entwickelt wurde. Zu den 21 % gehören auch Fehler, die technisch nicht von uns umgesetzt werden konnten oder nicht den heutigen Standards angepasst worden sind.
Wenn die manuellen Fehler von den maschinellen Fehlern in der Gesamtstatistik getrennt werden, dann konnte die KI 46 % der manuellen Fehlerbedingungen beheben. Bei den maschinellen Fehlerbedingungen konnten 32 % gelöst werden.
Anhand der Ergebnisse kann erkannt werden, dass die bearbeiteten PDFs nicht PDF/UA Standard entsprechen. Zudem konnte die KI in der Auswertung die Fehler in den PDFs nicht zuverlässig beheben und erkennen. Während der Untersuchung konnten wir außerdem inhaltliche Veränderungen feststellen und zusätzlich generierte sie auch neue Fehler.
Obwohl es nicht den PDF/UA Standard entspricht, konnten 46 % der manuellen Fehlerbedingungen des Matterhorn Protokolls gelöst werden. Dieses Ergebnis ist beeindruckend, weil die manuellen Fehler zurzeit nur von Menschen behoben werden können. Mit ausreichenden Optimierungen kann diese KI-Technologie in Zukunft als hilfreiches Werkzeug für die Gestaltung von barrierefreien PDF-Dokumenten verwendet werden.
Diese Arbeit stellt aktuell verfügbare Prüf-Tools auf Erfolgskriterium 1.3.5 der Web
Content Accessibility Guidelines 2.1 (WCAG) zusammen und vergleicht diese miteinander.
Der Vergleich zeigt, dass die derzeitigen Test-Anwendungen nicht ausreichend
in ihrem Vorgehen und ihrer Funktionalität sind. Die Prüferinnen und Prüfer müssen
dabei immer selbst beurteilen, ob der autocomplete-Attributs-Wert korrekt und
erforderlich ist.
Das im Zuge dieser Arbeit programmierte Autocomplete-Check-Plugin ist den aktuellen
Prüf-Tools vor allem durch das Alleinstellungsmerkmal der heuristisch getroffenen
autocomplete-Vorschläge überlegen und unterstützt und komplementiert den
Prüfvorgang somit bestens. Die wichtigsten Komponenten des Plugins werden vorgestellt
und deren Implementierung erläutert. Außerdem werden die methodischen
Vorgehensweisen, die in dieser Arbeit angewendet wurden, behandelt. Die Validierung
des Plugins wurde anhand vorher unbekannter Test-Webseiten durchgeführt, sie bescheinigt
dem Autocomplete-Check-Plugin eine hohe Genauigkeit bei der Vorhersage
von autocomplete-Werten, damit ist es hervorragend geeignet, Webseiten auf das Erfolgskriterium
1.3.5 zu untersuchen. Das Plugin wird unter der MIT-Lizenz auf Github
veröffentlicht.
Um Websites für jeden Menschen ohne Einschränkungen verfügbar zu
machen, wurden auf nationaler sowie internationaler Ebene Gesetze und Normen verabschiedet, welche die Barrierefreiheit für Internetauftritte anhand festgelegter Richtlinien
wahren sollen. Zur Einhaltung dieser Richtlinien wurden Prüfverfahren entwickelt, die anhand unterschiedlicher Evaluationsmethoden den Grad der Zugänglichkeit von Webseiten
und ihren Inhalten bewerten. Zwei dieser Prüfverfahren sind der Barrierefreiheitscheck-Web sowie der BIK BITV-Test. Für die manuelle Durchführung der Tests wird üblicherweise
eine repräsentative Stichprobe der Website erstellt und das Ergebnis der Prüfung auf die
Stichprobe für die gesamte Website generalisierend angenommen. Die Erstellung der Seitenauswahl ist bei umfangreichen Websites jedoch mit großem Aufwand verbunden und
soll im Zuge dieser Arbeit mit Hilfe einer serverseitigen Web-Anwendung automatisiert
werden.
Dazu wurden verschiedene existierende Stichprobenverfahren und Crawling-Methoden
analysiert und anschließend für die Eignung der technischen Umsetzung eingeordnet. Im
Rahmen der Arbeit wird ein eigener Ansatz für die automatisierte Seitenauswahl präsentiert, der auf dem HTML class-Attribut basiert. Dieser Ansatz nutzt die Eigenschaft von
Klassennamen aus, den Namen des Strukturelements zu beinhalten. Dadurch zielen wir
darauf ab, wichtige Inhalte der zu prüfenden Website zu erfassen und diese Informationen als Grundlage für die Auswahl der Stichprobe zu nehmen.
Die Evaluation wurde durch den Vergleich der generierten Liste unserer Anwendung von
drei ausgewählten Webseiten, mit der von Experten des Kompetenzzentrums Digitale
Barrierefreiheit der HdM erstellten Liste, durchgeführt. Die Ergebnisse zeigten, dass unsere Anwendung eine Liste von Seiten generieren konnte, die ein breites Spektrum an
Inhalten abdeckte, jedoch begrenzte Fähigkeiten hatte, der Liste der Experten zu gleichen
und daher in der aktuellen Version für den Barrierefreiheitscheck-Web nicht als alleinstehendes Tool geeignet ist.
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
Die vorliegende Arbeit befasst sich mit dem Thema A/B Testing, insbesondere im Kontext der Optimierung der User Experience in Onlineshops. In einer quantitativen empirischen Untersuchung, die in Zusammenarbeit mit der DRIP AGENCY und SNOCKS durchgeführt wurde, wurden zwei A/B-Test-Methoden – Fixed-Horizon Tests und sequentielle Tests – anhand von drei spezifischen Testideen in realen Onlineshop-Szenarien angewendet und auf ihre Effektivität verglichen sowie bewertet. Die Ergebnisse zeigen signifikante Unterschiede in der Performance und liefern daraus resultierende Empfehlungen für Onlineshops. Diese Erkenntnisse bieten Unter-nehmen, die mit den beiden A/B-Test-Methoden ihre UX optimieren und dadurch ihre Conversion Rates steigern möchten, wertvolle Einblicke. Dabei wird auch die Barrierefreiheit als ein zentrales und immer relevanter werdendes Thema hervorgehoben, um sicherzustellen, dass alle Nutzer eine zugängliche und positive Shopping-Erfahrung erleben können.
Die Nachfrage an Videospielen ist in den letzten Jahren stark gestiegen,
während weniger als die Hälfte der Entwickler angeben, dass
Barrierefreiheitsmaßnahmen in aktuellen Projekten integriert werden.
Werkzeuge und Richtlinien sind hilfreich bei der Implementierung von
barrierefreien Videospielen. Weitere Referenzen werden jedoch benötigt, um
auf die Barrierefreiheit aufmerksam zu machen.
Diese Arbeit ermittelt die Auswirkungen eines Serious Games auf blinde und
sehende Spieler. Schwerpunkt ist die Implementierung von Maßnahmen für
blinde Spieler. Anhand einer Analyse von ausgezeichneten Videospielen und
Filterung der Xbox Accessibility Guidelines, wurde „Sensory“ entwickelt. Das
Spiel wurde durch eine Benutzerstudie mit 11 Teilnehmern validiert. Während
der Benutzerstudie wurde das Spiel getestet und dadurch wurden Usability-
Probleme entdeckt. Anhand der Benutzerstudie konnte der Spielspaß und
Lerneffekt bestätigt werden.
Die Auswertung der Studie zeigt, dass Geräusche und Vibrationen den
Spielspaß für blinde Spieler positiv beeinflussen. Die Steuerung und fehlenden
Einstellungen wirken sich negativ aus. Außerdem erhalten sehende Spieler
einen Einblick in die barrierefreie Entwicklung von Videospielen und dadurch
wird die Empathie für Barrierefreiheit gesteigert.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
Der Schlaganfall ist die relevanteste Ursache bleibender Behinderungen im Erwachsenenalter. Eine häufige Beeinträchtigung der Patienten ist insbesondere die Lähmung eines Arms. Um die Funktion desselben wieder teilweise zurückzuerlangen, müssen Betroffene auch zu Hause regelmäßige Rehabilitationsübungen ausführen. Allerdings empfinden sie diese als langweilig und verlieren schnell die Motivation daran.
Gamification, also die Nutzung von Spielelementen in einem nicht-spielerischen Kontext, kann nachweislich dabei helfen, profane Aufgaben aufzuwerten und langfristige Verhaltensänderungen zu forcieren. Um bestmöglich zu funktionieren muss die Gamification sich an die jeweilige Zielgruppe, deren Vorlieben und Bedürfnisse anpassen. Bei der Zielgruppe der Schlaganfallbetroffenen handelt es sich um ältere Menschen, die körperlich eingeschränkt sind, ein geringes Technikverständnis haben, denen soziale Kontakte wichtig sind, die sich jedoch durch kompetitive Handlungen schnell demotiviert fühlen.
Soziale Mechaniken sind vielversprechende Motivationsmechanismen, die allerdings bisher nur wenig Anwendung in der Gamification finden. Für die gegebene Zielgruppe haben sie eine noch höhere Relevanz und eignen sich daher gut, sofern auf kompetitive Elemente verzichtet wird. Reziproke Handlungen wie das Senden und Empfangen von Geschenken und Nachrichten konnten in dieser Arbeit als geeignete Motivatoren herausgearbeitet werden.
Dafür wurden eine Literaturrecherche zur Funktionsweise der Gamification und eine Zielgruppenanalyse durchgeführt, mögliche Mechaniken anhand von Beispielen betrachtet und frühe Konzepte mit Experten der Gamification evaluiert. Auf Basis der erlangten Erkenntnisse konnte die bestehende gamifizierte Rehabilitationsanwendung “Subliminal Home Rehab” um neue, motivierende Mechaniken erweitert werden, die von Repräsentanten der Zielgruppe positiv validiert wurden.
Der Traum von adaptiven und personalisierten Computerlernsystemen, welche die Lehrkräfte von langweiligen und mühseligen Arbeiten befreien sollen, beschäftigt die Forschung schon seit den 1920er Jahren. Jüngste Bemühungen setzen sich vor allem mit dem Personalisieren von Lernpfaden auseinander. Das Ziel dieser Bachelorthesis ist die Implementation einer adaptiven Erweiterung in ein bestehendes Lernmanagementsystem namens "Schule 4.0", sodass dadurch individueller auf die Bedürfnisse des Lernenden eingegangen werden kann. Hierfür wird ein Überblick über das Themenfeld des adaptiven Lernens gegeben, sowie die Verfahren und Funktionsweise adaptiver Lernsysteme erklärt. Weiter werden Verfahren zur Generierung von adaptiven Lernpfaden vorgestellt und der "State of the Art" von Lernpfade Editoren untersucht. Basierend auf diesen Erkenntnissen wird ein Konzept für einen grafischen Lernpfade Editor zum Erstellen adaptiver Lernpfade erstellt und systematisch mit Vorgehensmodellen aus dem Software Engineering in das bestehende System implementiert. Mithilfe der Implementation werden Beispielszenarien konstruiert und durch Experten der Pädagogik in einer Fokusgruppe evaluiert. Das Ergebnis dieser Arbeit ist ein grafischer Lernpfade Editor für "Schule 4.0", welcher in vielen Szenarien pädagogisch sinnvoll eingesetzt werden kann.
Virtual-reality (VR) is an immersive technology with a growing market and many applications for gesture recognition. This thesis presents a VR gesture recognition method using signal processing techniques. The core concept is based on the comparison of motion features in the form of signals between a runtime recording of users and a possible gesture set. This comparison yields a similarity score through which the most similar gesture can be recognized by a continuous recognition system. Some selected comparison methods are presented, evaluated and discussed. An example implementation is demonstrated. However, due to an introduced layer model parts of the method and its implementation are interchangeable.
Similar or even better performance is achieved compared to other related work. The comparison method Dynamic Time Warping (DTW) reaches an average positive recognitions rate of 98.18% with acceptable real-time application performance. Additionally, the method comes with some benefits: position and direction of users is irrelevant, body proportions have no significant negative impact on recognition rates, faster and slower gesture executions are possible, no user inputs are needed to communicate gesture start and end (continuous recognition), also continuous gestures can be recognized, and the recognition is fast enough to trigger gesture specific events already during the execution.
ReMotion ist ein Team der grow platform GmbH, welches die besonderen Herausforderungen der Nutzer und potenziellen Kunden des modernen Fitnesstrainings mit einer innovativen Geschäftsidee lösen will. Dazu soll ein effizientes Training geschaffen werden, das an den individuellen Leistungsstand der Nutzer angepasst ist und ein hohes Erlebnispotenzial bietet. Mithilfe einer firmeninternen und eigens dafür entwickelten Bewegungsplattform, einem Fahrrad-Ergometer als erstes Trainingsgerät, sowie in zusätzlicher Kombination mit Gamification und Technologien, die das Eintauchen in die virtuelle Realität ermöglichen, soll so der Fitnesssport der Zukunft technologisch revolutioniert werden.
Mit dem Ziel, die durch Kundenbefragungen identifizierten Herausforderungen von fehlendem Spaß und fehlender Motivation zu untersuchen, behandelt die vorliegende Arbeit das Thema Gamification in Bezug auf die Tätigkeit des hochintensiven Intervalltrainings auf einem realen, stationären Fahrradprototyp in der virtuellen Realität. Anhand eines User-Centered Design-Ansatzes und mehreren iterativen Entwicklungs-schritten wird das Konzept einer VR-Fitnesstraining Experience entwickelt. Dieses wird in Kooperation mit einem interdisziplinären Projektteam realisiert und anschließend von der Autorin dieser Arbeit evaluiert.
Die Ergebnisse aus einer umfangreichen Nutzerstudie zeigen grundsätzlich, dass der entwickelte Prototyp ein hohes Potenzial für positive und freudvolle Erlebnisse sowie der Motivierung zu einer optimalen Leistung aufweist. Abgeleitet werden konnten sieben mögliche Einflussfaktoren, die mit dem positiven Ergebnis in Verbindung stehen könnten. Herausgreifend betrachtet wird der mögliche Anreiz des Flow-Erlebens, für dessen Einsetzen ein Zusammenspiel mit den anderen sechs Einflussfaktoren essenziell zu sein scheint.
Außerdem wird in einer Erörterung der theoretischen Grundlagen zur Trainingswissenschaft festgestellt, dass in einem regulären Fitnesstraining zwei der vier in der Trainingswissenschaft definierten Gegenstandsbereiche aktuell wenig oder gar keine Berücksichtigung finden. Die Erkenntnisse dieser Arbeit deuten je-doch darauf hin, dass eine Integration, der noch nicht vorhandenen Gegenstandsbereiche in die Konzeption und Gestaltung eines Trainings ein positives Trainingserlebnis und leistungsmotiviertes Handeln begünstigen könnte.
Abschließend wird anhand einer theoretischen und übergreifenden Betrachtung der Vorgehensweise zur Erarbeitung des Gamification-Konzepts, als Hauptgegenstand dieser Arbeit, ein Vorschlag für ein allgemeines Gamification-Modell abgeleitet.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
The legitimacy of users is of great importance for the security of information systems. The authentication process is a trade-off between system security and user experience. E.g., forced password complexity or multi-factor authentication can increase protection, but the application becomes more cumbersome for the users. Therefore, it makes sense to investigate whether the identity of a user can be verified reliably enough, without his active participation, to replace or supplement existing login processes.
This master thesis examines if the inertial sensors of a smartphone can be leveraged to continuously determine whether the device is currently in possession of its legitimate owner or by another person. To this end, an approach proposed in related studies will be implemented and examined in detail. This approach is based on the use of a so-called Siamese artificial neural network to transform the measured values of the sensors into a new vector that can be classified more reliably.
It is demonstrated that the reported results of the proposed approach can be reproduced under certain conditions. However, if the same model is used under conditions that are closer to a real-world application, its reliability decreases significantly. Therefore, a variant of the proposed approach is derived whose results are superior to the original model under real conditions.
The thesis concludes with concrete recommendations for further development of the model and provides methodological suggestions for improving the quality of research in the topic of "Continuous Authentication".
Head Mounted Displays (HMD) are increasingly used in various industries. But apart from the industry environment, the potentials of HMDs in a private environment like at home has been rel- atively unexplored so far. What daily tasks can these help with, in the home kitchen for example?
The aim of this thesis is to obtain knowledge about the usefulness of such an HMD, the HoloLens, in combination with an application, while following a new recipe. Therefore a prototype applica- tion for the HoloLens got developed which guides a user through the cooking of a sushi burger by using multimedia content.
With a mixed method design, consisting of quantitative and qualitative methods, the HoloLens in combination with an application was evaluated by 14 participants.
Not only the weight of the device was a problem for users. The test also revealed that the display is darkening the view and participants tend to look below the glasses. An advantage is indeed to reach the next cooking step without the need of using hands and always having in sight what needs to be done next. Positive feedback was given as well for the application. Through voice control the user communicates to a character which will guide through the recipe by videos and text.
If in future the technical characteristics of HMD devices will improve, an application in this con- text will be of advantage in order to simplify learning a new recipe. This device, in combination with an application, could help early-middle stage cognitive impaired people and blind people to cook.
Massively Multiplayer Online Games (MMOGs) are increasing in both popularity and scale.
One of the reasons for this is that interacting with human counterparts is typically considered much more interesting than playing against an Artificial Intelligence.
Although the visual quality of game worlds has increased over the past years,they often fall short in providing consistency with regard to behavior and interactivity.
This is especially true for the game worlds of MMOGs. One way of making a game world feel more alive is to implement a Fire Propagation System that defines show fire spreads in the game world. Singleplayer games like Far Cry 2 and The Legend of Zelda:
Breath of the Wild already feature implementations of such a system. As far as the author of this thesis knows, however, noMMOGwith an implemented Fire Propagation System has been released yet. This work introduces two approaches for developing such a system for a MMOG with a client-server architecture.
It was implemented using the proprietary game engine Snowdrop. The approaches presented in this thesis can be used as a basis for developing a Fire Propagation System and can be adjusted easily to fit the needs of a specific project.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
Schon immer haben sich Menschen für Geschichten interessiert.
Für viele sind sie eine Ausflucht aus dem Alltag, Identifkationsmittel und Auseinandersetzung mit Themen aller Art.
Die anhaltende Beliebtheit von Fan Fictions ist daher keine Überraschung. Fan Fictions sind Geschichten, die von Fans geschrieben werden und sich dabei Elementen anderer Quellen bedienen, um diese nicht nur passiv zu konsumieren sondern sich aktiv mit ihnen auseinander zu setzen.
Gerade in Zeiten von Social Media,wo jeder, der einen Internetzugang, Kreativität und etwas technologische Affnität besitzt, mit Leichtigkeit Inhalte erstellen und teilen kann ist das Fortbestehen von Fan Fictions kaum verwunderlich.
Jedoch fällt schnell auf, dass Fan Fiction Archive, welche für eine der ältesten Formen von aktivem Medienkonsum stehen, nicht länger mit der raschen Entwicklung des Internets mithalten können.
Das drückt sich trotz der stetig steigenden Anzahl an geteilten Fan Fictions auf den zahlreichen Plattformen, durch sinkende Kommentarzahlen aus. Das Ziel dieser Arbeit ist es daher, ein Konzept zur Verbesserung der Autor-Leser Kommunikation zu entwickeln und dessen Machbarkeit anhand eines Prototypen zu beweisen.
Zunächst werden dazu die Grundlagen der Fan- und Feedback-Forschung zusammengetragen. Anschließend wird eine Analyse der Zielgruppen, der Kommentare sowie der bisher bestehenden Feedback-Funktionen in Fan Fiction Archiven und anderen Tools durchgeführt.
Diese Untersuchungen zeigen, dass es sich um drei Zielgruppen handelt, deren Bedürfnisse und Bereitschaft zur Beteiligung in der Community variieren: Autoren, kritische Leser und unkritische Leser.
Zudem werden Kommentar-Kategorien ermittelt und Schwachstellen in den Fan Fiction Archiven identifziert. Basierend auf diesen Erkenntnissen wird das Konzept Feeding Fandom entwickelt. Dieses Konzept kombiniert unterschiedliche Formen des Feedbacks und bietet darüber hinaus eine statistische Visualisierung dieser Interaktionen.
Somit ermöglicht das Konzept, dass sich jede Zielgruppe gemäß ihrer Fähigkeiten in der Community einbringen kann und Rückmeldung zur Verbesserung der eigenen Fähigkeiten und Steigerung der Beteiligungsbereitschaft erhält.
Die Entwicklung von mobilen Anwendungen und Web-Anwendungen ist aufgrund der großen Zahl von Zielplattformen aufwendig. Gegenstand dieser Arbeit ist die Evaluation von Technologien zur Erstellung von mobilen und Web-Anwendungen aus derselben Codebasis mit Hilfe von Webtechnologien und die Erweiterung der JavaScript-Syntax durch Transpiler. Dabei wird das Ziel verfolgt, Anwendungen aus Perspektive der Wartbarkeit zu konstruieren. Der Begriff der Wartbarkeit im Rahmen der Softwareentwicklung wird geklärt und bildet zusammen mit einem Anforderungskatalog eine Liste von Kriterien, welche zur Auswahl einer geeigneten Technologie verwendet wird. Es wird eine prototypische Anwendung implementiert, anhand der die ausgewählte Technologie hinsichtlich ihrer Eignung evaluiert wird.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
This bachelor thesis wants to describe a prototypical implementation of a 3D user interface for intuitive real-time set editing in virtual production. Furthermore this approach is evaluated qualitatively through a user group, testing the device and fill in a questionnaire. The dimension of virtual elements created with computer graphics technology in all areas of entertainment industry is steadily growing since the past years. Nevertheless can the editing process of virtual elements still require a costly process in terms of time and money. With the appearance of new input devices and improved tracking technologies it is interesting to evaluate if a real-time editing process could improve this situation. Being currently bound to experts on special workstations, this could lead to a more intuitive and real-time workflow, enabling everybody on a film set to influence the digital editing process and work collaboratively on the scene consisting of virtual and real elements.
Der vermehrte Einsatz von erneuerbaren Energien, welche nicht ständig verfügbar und nur begrenzt speicherbar sind, erschweren die Steuerung der Stromnetze. Zur Anpassung der Energieerzeugung an den tatsächlichen Bedarf werden Smart Grids („intelligente Stromnetze“) aufgebaut, die eine Steuerung des Energieverbrauchs in Abhängigkeit von der Verfügbarkeit ermöglichen. Die bereits vorhandenen Stromnetze werden hierzu um Kommunikationsnetze erweitert. Smart Meter („intelligente Stromzähler“) die beim Verbraucher eingesetzt werden, senden über die Kommunikationsnetze Messdaten zyklisch an die jeweiligen Stromnetzbetreiber. In Zukunft soll auch eine Steuerung von Haushaltsgeräten möglich werden. Daraus ergeben sich neue Herausforderungen in Bezug auf Sicherheit und Datenschutz. Die hier vorliegende Arbeit bietet eine kurze Einführung in die Grundlagen zum Thema Smart Grid. Es wird eine Referenzarchitektur definiert und die einzelnen Bestandteile des Smart Grids werden vorgestellt. Eine Auseinandersetzung mit den rechtlichen und regulatorischen Rahmenbedingungen sowie ein Überblick über den Stand der Entwicklungen intelligenter Stromnetze, insbesondere der Verbreitung von Smart Metern, vervollständigt die Grundlagen. Zusätzlich werden wesentliche Aspekte von Sicherheit und Datenschutz angesprochen. Darauf aufbauend wird die Sicherheit in Smart Grids untersucht. Hierzu werden die Ursachen für Bedrohungen im Rahmen einer Bedrohungsanalyse anhand eines Szenarios analysiert. Abgeleitet von den Ergebnissen der Bedrohungsanalyse werden Risiken innerhalb einer Risikoanalyse evaluiert und Maßnahmen empfohlen, um die festgestellten Risiken zu bewältigen
Diese Arbeit evaluiert die Herausforderungen, denen Scrum bei der Skalierung für große Projekte gegenübersteht. Diese bestehen hauptsächlich aus der Synchronisation der Teams, dem effizienten Auflösen von Abhängigkeiten, dem Sicherstellen von regelmäßiger sowie direkter Kommunikation, der Reduktion von Komplexität sowie dem Fördern und Fordern von regelmäßigem Feedback aller Projektbeteiligten. Abstract Die Herausforderungen unterteilen sich in die Skalierung der Scrum Artefakte, Rollen und Meetings. Für jeden der drei Bereiche werden in dieser Arbeit mehrere Lösungsmöglichkeiten vorgestellt, evaluiert und bewertet. Abstract Neben den Scrum Artefakten, Rollen und Meetings gibt es weitere, querschnittliche Herausforderungen, welche es bei der Skalierung von Scrum zu beachten gilt. Dabei handelt es sich um die Gebiete Softwarearchitektur, Unternehmenskultur, Projekt- und Prozessmanagement sowie Unternehmensstruktur. Abstract Die als starr angesehene Entwicklung einer Softwarearchitektur für ein großes Softwareprodukt steht der agilen Entwicklungswelt gegenüber und auch bei den unterschiedlichen Unternehmenskulturen gibt es Differenzen hinsichtlich der Kompatibilität mit Scrum und dessen Skalierung. Bezüglich der Softwarearchitektur im skalierten Umfeld wurde ein Mittelweg gefunden, der sich als „Enough Design Up Front” betitelt. Dieser stellt einen Kompromiss zwischen dem rein inkrementellen Ansatz des „No Design Up Front” und dem an das Wasserfallmodell angelehnten „Big Design Up Front” dar. Abstract Hinsichtlich der in den Unternehmen vorgefundenen Unternehmenskulturen obliegt es den jeweiligen Vorständen, sich für eine Entwicklung der vorhandenen Unternehmenskultur zu entscheiden oder versuchen, eine gänzlich andere Unternehmenskultur anzustreben. Beide Möglichkeiten können je nach Grad und Ausprägung der vorliegenden Unternehmenskultur mehrere Jahre des Wandels in Anspruch nehmen. Abstract Das Projekt- und Prozessmanagement muss für die Skalierung von Scrum geeignete Teamstrukturen sowie Integrationsstrategien finden, um die Produktinkremente der einzelnen Teams optimal zusammenzuführen. Die in dieser Arbeit vorgeschlagenen Möglichkeiten bieten den Verantwortlichen einige Optionen, müssen jedoch mit Bedacht gewählt und eingeführt werden. Viele dieser Lösungsmöglichkeiten fordern Veränderungen in der Unternehmensstruktur. Der Wandel der Unternehmensstruktur zur Unterstützung der Teams für eine effektive Produktentwicklung stellt somit eine weitere Herausforderung bei der Skalierung von Scrum dar.
In Smart Grids übermittelt der Stromzähler im Haushalt hochauflösende Messdaten des aktuellen Stromverbrauchs an den Energieversorger. Diese Daten ermöglichen es, sowohl dem Energieversorger, als auch potenziellen Angreifern, Aussagen über den Verbraucher zu treffen, die tief in die Privatsphäre eingreifen und Rückschlüsse auf die Lebensgewohnheiten erlauben. In dieser Arbeit wird die Aussagekraft dieser Informationen zunächst theoretisch erläutert und dann, am Beispiel eines Kühlschranks, überprüft. Ein wesentlicher Bestandteil des Vorgehens ist zunächst das automatische Erkennen und Extrahieren des Kühlschranks aus der Stromverbrauchskurve und die Analyse dieser Daten auf verschiedene Merkmale. Im zweiten Teil werden diese Merkmale anhand mehrerer Beispiele auf datenschutzrelevante Spuren hin untersucht. So lassen sich, trotz Unterschieden zwischen verschiedenen Kühlschrankmodellen, Anwesenheitsprofile der Benutzer erstellen und weitere Aussagen treffen.
Die Anforderungen an ein E-Commerce-Projekt sollten strukturiert dokumentiert werden, um daraus technische Lösungskonzepte abzuleiten. Eine solche Planungsphase erhöht die Chancen auf ein erfolgreiches Projekt und minimiert Projektrisiken, ist jedoch mit Zeitaufwand und Kosten verbunden. Viele Webshop-Betreiber möchten diese Aufwände minimieren, da eine kurze Projektdauer als kritischer Erfolgsfaktor am Markt angesehen wird. Diese Arbeit zeigt ein Dokumentationsmodell für Software- und Infrastrukturanforderungen auf, das die Branchenspezifika berücksichtigt und die Dokumentation von Anforderungen und Lösungskonzept erheblich beschleunigen soll. Dazu setzt es auf Wiederverwendung und die visuelle Modellierung mit einem CASE-Tool der aktuellen Generation. Sie reflektiert den Nutzen anhand eines Tests des Dokumentationsmodells im Projekteinsatz.
Websites or web applications, whether they represent shopping systems, on demand services or a social networks, have something in common: data must be stored somewhere and somehow. This job can be achieved by various solutions with very different performance characteristics, e.g. based on simple data files, databases or high performance RAM storage solutions. For todays popular web applications it is important to handle database operations in a minimum amount of time, because they are struggling with a vast increase in visitors and user generated data. Therefore, a major requirement for modern database application is to handle huge data (also called big data) in a short amount of time and to provide high availability for that data. A very popular database application in the open source community is MySQL, which was originally developed by a swedisch company called MySQL AB and is now maintenanced by Oracle. MySQL is shipped in a bundle with the Apache web server and therefore has a large distribution. This database is easily installed, maintained and administrated. By default MySQL is shipped with the MyISAM storage engine, which has good performance on read requests, but a poor one on massive parallel write requests. With appropriate tuning of various database settings, special architecture setups (replication, partitioning, etc.) or other storage engines, MySQL can be turned into a fast database application. For example Wikipedia uses MySQL for their backend data storage. In the lecture Ultra Large Scale Systems and System Engineering teached by Walter Kriha at Media University Stuttgart, the question Can a MySQL database application handle more then 3000 database requests per second? came up some time. Inspired by this issue, I got myself going to find out, if MySQL is able to handle such a amount of requests per second. At that time I also read something about the high availability and scalability solution MySQL Cluster and it was the right time to test the performance of that solution. In this paper I describe how to set up a MySQL database server with the additional MySQL Cluster storage engine ndbcluster and how to configure a database cluster. In addition I execute some database tests on that cluster to proof that its possible the get a throughput of >= 3000 read requests per second with a MySQL database.
Secure Search
(2011)
Nowadays it is easy to track web users among websites: cookies, web bugs or browser fingerprints are very useful techniques to achieve this. The data collected can be used to derive a specific user profile. This information can be used by third parties to present personalized advertisements while surfing the web. In addition a potential attacker could monitor all web traffic of an user e.g. its search queries. As a conclusion the attacker knows the intentions of the web user and of the company he is working for. As competitors maybe very interested in such information, this could lead to a new form of industrial espionage. In this paper I present some of the techniques commonly used. I illustrate some problems caused by the usage of insecure transmission lines and compromised search engines. Some camouflage techniques presented may help to protect the web users identity. This paper is a based on the lecture "Secure Systems" teached by Professor Walter Kriha at the Media University (HdM) Stuttgart.
RFID-Systeme haben heutzutage einen immer größeren Anreiz: Zugangskontrolle, Bezahlsysteme, Diebstahlsicherung oder Identifikation (Personalausweis, Pass) sind nur einige Bespiele. RFID-Systeme erleichtern Tätigkeiten, bringen jedoch auch sicherheitsrelevante Probleme mit sich. Datenschützern sind RFID-Systeme schon lange ein Dorn im Auge, da dadurch die Privatsphäre des Trägers leichter ausgespäht und ein Bewegungsprofil erstellt werden kann. Der Schutz dieser Systeme und indirekt des Trägers durch Dritte ist unerlässlich. Aktuelle Zugangskontroll- und Identifikationssysteme verwenden neueste Sicherheitsfunktionen und Verschlüsselungen. Ist dieser Schutz nicht ausreichend genug, können RFID-Schutzhüllen das Auslesen durch Dritte erschweren oder gar komplett verhindern. Im Internet werden kommerzielle Hüllen Angeboten, die Schutz bieten sollen. Die Wirkung dieser Schutzhüllen wird in der vorliegenden Arbeit analysiert. Zusätzlich werden die abschirmenden Eigenschaften von weiteren Materialien untersucht. Die Arbeit ist in der Vorlesung "Spezielle Themen der mobilen Kommunikation" bei Prof. Dr. Joachim Charzinski entstanden.
This paper gives an overview of the advantages and weaknesses of distributed source code review tools in software engineering. We cover this topic with a specific focus on Google’s freely available software Gerrit. In chapter 1 we discuss how code-reviews are generally useful for groups of programmers. We lay out how traditional approaches differ from distributed setups where developers may be vastly distributed from a geographical point of view or where meetings are otherwise contraindicated. In chapter 2 we discuss how users can interact with Gerrit, and chapter 3 covers some basic knowledge for those people who have to administer one or more Gerrit installations. Finally, chapter 4 summarizes key points and gives an outlook on the future role of distributed code-review.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Planung einer Evaluation mehrerer Mobile Business Intelligence Lösungen für die Landesbank Baden-Württemberg. Die Frage, welche Anforderungen ein Management Cockpit auf Basis mobiler Medien für ein global tätiges Finanzunternehmen erfüllen muss, steht hierbei im Mittelpunkt. Des Weiteren wird der aktuelle Trend von mobilen Business Intelligence Lösungen im Zusammenhang mit mobilen Endgeräten, wie dem Apple iPad, untersucht. Ziel dieser Arbeit ist, anhand einer zuvor erstellten Evaluationsmethode den Auswahlprozess zu planen und anschließend mit Hilfe von empfohlenen Best Practices die Evaluation durchzuführen. Das Ergebnis dieser Arbeit ist neben einer wissenschaftlichen Aufbereitung des Themas Mobile Business Intelligence auch eine Auswahlempfehlung für das geplante mobile Berichtswesen der Landesbank Baden-Württemberg. Die empfohlene Lösung soll nach Abschluss der Arbeit das derzeitige Berichtswesen der LBBW erst unterstützen und dann eventuell ganz ablösen. Eine positive Durchführung würde außerdem die Funktionalität der Evaluationsmethode bestätigen.
Die Planung oder Durchführung von IT-Projekten zur Gestaltung moderner Büroarbeitsplätze stellt eine wichtige Aufgabe für Unternehmen dar. Der Nutzen solcher Investitionen kann jedoch häufig nur in einem qualitativen Sinne verbal benannt werden kann. Allerdings sind Kenntnisse über den quantitativen Mehrwert eines IT-Projektes und möglicher Projektalternativen notwendig, um beispielsweise eine reale Vergleichbarkeit anhand der Rentabilität tätigen zu können. Im Rahmen dieser Arbeit wird eine Methodik zur Auswahl geeigneter Bewertungsmethoden für IT-Projekte entwickelt und die für diese Methodik relevanten Merkmale der Zielgruppen und Merkmale der Projektzielcluster erläutert.
Soziale Netzwerke nehmen in der Gesellschaft einen immer größer werdenden Stellenwert ein. Bisher beschränkte sich die Nutzung dieser auf zweidimensionale Eingabegeräte wie Tastatur und Maus sowie die mobile Nutzung durch Touchscreen Smartphones. Bis heute existieren noch keine einheitlichen Eingabemethoden und Interaktionselemente für die körpergesteuerte Mensch-Maschine-Kommunikation. Ziel dieser Arbeit ist es, die Machbarkeit einer dreidimensionalen Körpersteuerung für ein soziales Netzwerk mittels eines Natural User Interfaces (NUI) und des Kinect Sensors zu beweisen. Das NUI soll dem Nutzer ein möglichst natürliches Nutzungserlebnis bieten und seinen Anforderungen und Bedürfnissen gerecht werden. Dafür werden die Interaktionen und das NUI speziell für die Körpersteuerung ausgerichtet. Die Machbarkeit des Konzepts wird durch die Erstellung eines interaktiven Prototypen sowie eines Proof-Of-Concept bewiesen.
Entwicklung von Schnittstellen zur Konfiguration und Verwaltung eines Ambient Intelligence Systems
(2007)
Ein Ambient Intelligence System kann Anwendern vielfältige Möglichkeiten zur Steuerung und Konfiguration des Systems geben. Der Zugriff auf diese Funktionalität kann auf verschiedene Arten realisiert werden. Eine ist die Nutzung eines mobilen Gerätes als Zugangsmedium. Damit dies möglich wird, sind Konzepte und Schnittstellen notwendig, die den Informationsaustausch zwischen Anwendern, Gerät und Ambient Intelligence System ermöglichen. Diese Diplomarbeit beschäftigt sich mit der Erarbeitung dieser Grundlagen.
Die vorliegende Diplomarbeit beschäftigt sich mit der Ablösung eines Generator Frameworks und der Generierung von Artefakten für die Businesslayer einer J2EE-Applikation. Der bestehende Generator sowie die Transformationsabbildungen sollen durch openArchitectureWare 4, einem metamodellbasiertem Generator Framework, ersetzt werden. Mittels des openArchitectureWare Frameworks wird der viel diskutierte Model Driven Architecture (MDA) Ansatz der OMG vorgestellt. Es wird der Unterschied zwischen herkömmlicher Softwareentwicklung und der modellgetriebenen Entwicklung aufgezeigt, sowie alle damit verbundenen Vor- und Nachteile. Es soll gezeigt werden, dass Modelle nicht nur zur Dokumentation dienen, sondern als Code gesehen werden können und sollten. Im Bezug auf die technische Realisierung der MDA werden die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen betrachtet und die eingesetzten Technologien wie z.B. UML, UML–Profile und Meta Object Facility vorgestellt. Außerdem wird ein Ausblick in neue Technologien im Kontext modellgetriebener Architekturen, wie zum Beispiel das Eclipse Modelling Framework (EMF) und das Graphical Modelling Framework (GMF) gegeben. Da die Schwerpunkte der Diplomarbeit auf der von BMW verwendeten Architekur für verteilte Applikationen sowie der Generatormigration liegen, wird die Architektur und der Generator von BMW im Aufbau sowie der Funktionsweise näher betrachtet. Die von BMW eingesetzte Architektur „Component Architecture 2.0“ ist eine komponentenbasierte Architektur, welche bei BMW entwickelt wurde und projektübergreifend zum Einsatz kommt. Des Weiteren liegt der Diplomarbeit das PEP-PDM Projekt, das bei BMW zurzeit durch Softlab realisiert wird, zugrunde. Durch PEP-PDM wird bei BMW eine zentrale Datenreferenz über den gesamten Entstehungsprozess eines Produktes erreicht. Das gesamte Wissen über ein Fahrzeug mit allen Daten des Entstehungsprozesses wird an einer zentralen Stelle zusammengeführt und dadurch, zu jedem Zeitpunkt, der aktuelle Stand im Entwickluingsprozess eines Fahrzeuges bekannt. Durch die Migration auf openArchitectureWare, dem Open Source Generator Framework und dem dazugehörigen Vorgehensmodell der generativen Entwicklung, werden die eingesetzten Technologien des Frameworks und deren Möglichkeiten wie Templates, Extensions und Modellvalidierung erläutert. Die Technologien und Designentscheidungen werden an der Transformation eines bestehenden Platform Independent Model (PIM) des Projektes PEP-PDM näher betrachtet und erläutert. Die Transformationsabbildungen für das PEP-PDM PIM basiert auf der von BMW eingestzten Component Architecture 2.0 und der Enterprise Technolgie J2EE. Ein Benefit der Diplomarbeit ist die Evaluierung des Graphical Modeling Framework von Eclipse. Dies beinhaltet implizit den Einsatz des Eclipse Modeling Framework (EMF) als Design Sprache für die Anwendung und das Metamodell. Mit diesen Technologien könnte zukünftig die Möglichkeit bestehen vom Erstellen der domänenspezifischen Sprache (Metamodell), über das Anwendungsdesign (PIM), bis hin zur Transformation und Implementierung alles in einem Entwicklungstool (Eclipse) zu bearbeiten. Abschließend werden die gewonnenen Erkenntnisse und Erfahrungen bezüglich der MDA unter Verwendung von openArchitectureWare zusammengetragen und bewertet.
Diese Diplomarbeit befasst sich mit der Model Driven Architecture (MDA) und deren Anwendung auf Basis von Open Source. Für ein Unternehmen ist es immer wichtig zu wissen, wie der aktuelle Stand der Technik ist und ob diese Technik produktiv eingesetzt werden kann, um sich dadurch Vorteile am Markt zu verschaffen. Es werden zunächst einige Grundlagen von Open Source und MDA erörtert. Danach wird mittels einer Evaluierung von Open Source Modellierungs- und Generierungswerkzeugen ein Überblick über die am Markt verfügbaren Werkzeuge gegeben. Anschließend wird die prototypenhafte Umsetzung eines Geschäftsvorfalles einer Versicherung beschrieben, um den Stand der Technik zu demonstrieren. In der Schlussbetrachtung folgt ein Fazit über den Verlauf und die Resultate der Diplomarbeit. Zum Schluss wird ein Ausblick für die Model Driven Architecture gegeben.
AJAX in the Enterprise
(2007)
Mit Rich Internet Applications wurde in letzter Zeit eine Lösung geschaffen, um reichhaltige, interaktive und ansprechende Benutzerschnittstellen für Webanwendungen zu entwickeln. RIAs können mit den verschiedensten Technologien entwickelt werden. Seit geraumer Zeit ruft in diesem Umfeld die neue Technologie AJAX sehr viel Interesse hervor. Es liegt im Interesse von Daimler Chrysler neue Clientparadigmen zu erforschen. Diese Arbeit untersucht, welche Vorteile, Risiken und Herausforderungen beim Einsatz von AJAX in Enterprise Umgebungen auftreten. Es werden diverser AJAX-Frameworks und die auftretenden Integrationsprobleme betrachtet. Außerdem werden die Vorteile von AJAX durch die Implementierung einer Beispielanwendung aufgezeigt.
Thema der vorliegenden Diplomarbeit ist der Entwurf einer Integrationsschnittstelle für Content-Management-Systeme basierend auf dem Datenmodell BMF. Konkret soll für das Content-Management-System (CMS) des Bayerischen Rundfunks (BR) eine Softwareschnittstelle entworfen werden, die auf dem Datenmodell Broadcast Metadata exchange Format (BMF) basiert. Die Schnittstelle soll Daten aus dem CMS ausgeben und in die BMF-Struktur transformieren. Das CMS des BR beinhaltet u.a. Metadaten der Fernsehproduktionsumgebung (z.B. den Namen eines beteiligten Kameramanns oder den technische Aufbau einer Sendung) in einer nicht veröffentlichten Datenstruktur. Bekannt ist, daß diese Struktur auf FESAD, der Fernseharchivdatenbank der öffentlich-rechtlichen Rundfunkanstalten, basiert, und daß CMS-Daten über das proprietäre AXF-Format ausgetauscht werden können. Um einen standardisierten Metadatenaustausch zwischen Rundfunkanstalten und Applikationen (z.B. Schnittsystemen) zu erm¨oglichen, wurde das Datenmodell BMF entwickelt, das die Struktur von Metadaten der Fernsehproduktion festlegt. Für BMF ist diese Diplomarbeit ein erster Praxistest. Zunächst wurden objektive Anforderungen an die Schnittstelle gesammelt und der tatsächliche Informationsgehalt von FESAD mit dem des CMS verglichen, da dessen Datenstruktur wie erwähnt nicht veröffentlicht ist. Insgesamt zeigte sich eine große Übereinstimmung beider Modelle, es gab jedoch auch Unterschiede. Diese Arbeit behandelt daher nicht nur die Abbildung des unternehmensinternen BR-Datenmodells auf BMF, sondern auch die des ARD-weiten Datenmodells FESAD. Nach Abgrenzung des abzubildenden Informationsgehaltes wurde geprüft, inwiefern sich dieser im derzeit aktuellen BMF-Klassenmodell wiederfindet. Im Zuge dessen wurden einige BMF-Pakete neu modelliert. Der letztendliche Entwurf der Schnittstelle umfasst die Spezifikation von Zugriffsmethoden und die Datentransformation von CMS- bzw. FESAD-Daten auf BMF. Als Ergebnis dieser Arbeit kann festgehalten werden, daß die vom BR gestellten Anforderungen an die Schnittstelle erf¨ullt und das BR-Datenmodell bzw. FESAD auf BMF abgebildet werden konnten. Dieser Diplomarbeit kann nun eine Implementierung der Schnittstelle folgen.
Anbindung mobiler Endgeräte mittels standisierter Web Services auf Basis von Java 2 Micro Edition
(2006)
Das Ziel dieser Diplomarbeit ist die Realisierung eines Clients für mobile Endgeräte auf Basis von J2ME1 unter Verwendung von MIDP 22. Mit Hilfe dieses Clients sollen Anbindungen an Standard Web Services auf Basis von SOAP möglich sein. Die Client-Anwendung stellt Formulare zur Ein- und Ausgabe von Daten bereit. Diese Formulare werden zur Laufzeit anhand der dem Dienst zu Grunde liegenden WSDL erzeugt und die erfassten Daten werden bis zum Absenden dieser an den Server lokal auf dem Endgerät gespeichert.
Die Aufgabe im Rahmen meiner Diplomarbeit ist die Entwicklung der Videotechnik, insbesondere im Hinblick der Einführung neuster High Definition – Videotechnik sowie die Analyse verschiedener Videokompressionsverfahren für HD Video, um durch Vergleich dieser verschiedenen Codierungsverfahren das jeweils geeignetste für die entsprechende Anwendung zu wählen. Aus obigen Vorbereitungen ist eine Lösung zu entwickeln, mit der möglichst einfach ein HD-Video mit maximaler Qualität auf einem PC-basierenden Präsentationsmedium fließend abgespielt werden kann. Damit das Ziel, dass HD Film zur Heimkinoanwendung bzw. Messepräsentation gebracht werden kann, erreicht. Für den Zeitraum der Erstellung der Diplomarbeit war ich in der Postproduktionsfirma Mackevision, wo die Bearbeitung des HD-Standards schon seit mehreren Jahren intensiv verfolgt wird. Als erster Post-Produktions-Anbieter in der Region beherrscht die Mackevision den Kompletten HD-Bearbeitungsprozess. Das zur Analyse der Codierungsverfahren verwendete HD-Rohmaterial stammt aus dem HD-Demoreel der Firma Mackevision.
Diese Arbeit ist in acht Kapitel eingeteilt, wobei die erste Hälfte die theoretische Grundlage sowie die Bestandsaufnahme beinhaltet, und die zweite Hälfte auf die Umsetzung der domänenspezifischen Sprachen eingeht. Kapitel 1 skizziert einen groben Überblick ¨uber die Themen und die Ziele dieser Arbeit Kapitel 2 gibt eine Einführung in die Konzepte der modellgetriebenen Softwareentwicklung, stellt verschiedene Ansätze vor, und stellt das Produkt PAI vor Kapitel 3 beschäftigt sich mit der Softwarearchitektur und den operationalen Aspekten der Softwareentwicklung sowie deren Handhabung durch den Rational Unified Process und der IBM Global Services Method Kapitel 4 stellt das Operational Model bei PAI vor, wie es im Projekt entsteht und wie es verwendet wird, sowie die Gründe für den Bedarf einer formalen Modellierung Kapitel 5 beschäftigt sich mit der Erstellung der domänenspezifischen Sprachen, also dem Domänendesign Kapitel 6 stellt verschiedene Ansätze und Sprachen der Modelltransformation vor und erkundet die Möglichkeit bei der Transformation des Operational Models Kapitel 7 befasst sich mit der Unterstützung der in den vorigen beiden Kapiteln beschriebenen Aufgaben durch entsprechende Werkzeuge, einschließlich einer prototypischen Implementierung in Eclipse EMF Kapitel 8 gibt ein kurze Zusammenfassung dieser Arbeit sowie eine Bewertung der gewonnenen Ergebnisse
Diese Arbeit beginnt mit der allgemeinen Beschreibung von Adventure Games. Es werden hier zahlreiche Begriffe, die im späteren Verlauf der Arbeit wiederkehrend verwendet werden, näher erläutert. Nach einer Übersicht über die Historie, folgt eine Untersuchung der Struktur und des dahinter liegenden Regelwerks der Adventure Games. Abschließend folgt im Kapitel 2 eine Untersuchung einiger auf dem Markt befindlicher Autorensysteme. Nachfolgend sollen die Grundlagen beschrieben werden, die zur Herleitung der Architektur führen. Hierzu werden Konzepte aus den Bereichen Storytelling, Maschine-Mensch-Kommunikation und virtuelle Welten herangezogen, um so möglichst viele Aspekte zu vereinen. In Kapitel 4 sollen die Konzepte zusammenfließen und eine Einheit bilden. Die entstandene Architektur soll in ihren Grundzügen erläutert und die erwendungsweise dargelegt werden.
Die programmierbare Hardware-Pipeline und ihre Verwendung für glaubhafte künstliche Charaktere
(2005)
Nach dem ersten Kapitel, das der Einleitung und der Heranführung an die Materie diente, werde ich im zweiten Kapitel die Hardware moderner Grafikkarten gründlich beleuchten. Ich werde den Fluss der Daten durch die Rendering-Pipeline nachzeichnen und aufzeigen, an welchen Stellen sich Veränderungen durch die neuen Generationen der programmierbaren Shadereinheiten ergeben. Diese neuen Shadereinheiten werde ich im einzelnen erläutern und stelle zuletzt einen Vergleich zwischen Echtzeit-Shading und Shadingtechniken im herkömmlichen Offline-Rendering an. Im dritten Kapitel möchte ich die die Programmierschnittstelle der GPUs beschreiben. Nach einem kurzen Abriss über den Assembler-Dialekt für Grafikkarten gehe ich direkt über zur Beschreibung der meistverwendeten Shader-Hochsprache HLSL. Ich erläutere den Gebrauch von Datentypen, Funktionen und Strukturen sowie einige grundlegende intrinsische Funktionen. Das vierte Kapitel dreht sich ganz um verschiedene Rendertechniken und ihre Umsetzung in HLSL. Vom simplen Texture Mapping über Shadow Maps, Normalenmapping und Depth-of-Field bis hin zum Image Based Lighting erläutere ich hier die verschiedensten Techniken am Beispiel. Alle Effekte liegen dieser Arbeit in Projektdateien für ATIs freies Tool „RenderMonkey 1.6“ bei [ATI01]. Im fünften und letzten Kapitel schließlich gehe ich auf die speziellen Probleme und Lösungsansätze beim Echtzeit-Rendering realistischer menschlicher Charaktere ein. Ich erläutere im einzelnen die Techniken, die angewandt wurden, um Haut, Haare, Gebiss und Augen unseres künstlichen Charakters „Hank“ so realistisch wie möglich erscheinen zu lassen.
Das Heimnetz diente früher lediglich der Vernetzung der im Haushalt vorhandenen Desktop PCs und Notebooks. Durch die stetig voranschreitende technische Entwicklung findet man im heutigen Heimnetz jedoch eine Fülle an Geräten aus den verschiedensten Branchenbereichen. Neben Handys und Fernsehern können auch Waschmaschinen und Kühlschränke sowie Heizungs- und Beleuchtungsanlagen mit dem Heimnetz verbunden werden und eröffnen dem Anwender so eine Vielzahl neuer Möglichkeiten. Für die Bereitstellung dieser neuen Funktionalitäten benötigen die Geräte immer komplexere Software, die bei der Inbetriebnahme der Geräte im Heimnetz eingerichtet, konfiguriert und später ggf. überwacht werden muss. Dies ist bei der Vielzahl an Geräten vom Anwender nicht mehr zu leisten und muss somit automatisiert von einem Service Provider übernommen werden. Um dem Service Provider die entfernte Konfiguration der Geräte zu ermöglichen, werden Protokolle benötigt, die ihm den Zugriff auf die Geräte des Heimnetzes erlauben. Dabei gibt es für verschiedene Gerätetypen unterschiedliche Protokolle, von denen die zwei bedeutendsten – TR-069 und OMA DM – in dieser Arbeit ausführlich analysiert werden. Die Vielfalt an Auto-Konfigurationsprotokollen erschwert dem Service Provider die automatisierte Konfiguration möglichst vieler Geräte im Heimnetz des Anwenders. In dieser Diplomarbeit wird deshalb ein Auto-Konfigurationsszenario entwickelt, bei dem die verschiedenen Auto-Konfigurationsprotokolle mit Hilfe semantischer Modelle beschrieben werden. Dies ermöglicht dem Service Provider, Geräte ohne großen Aufwand mit beliebigen Protokollen zu konfigurieren und erleichtert so dem Anwender den Umgang mit seinen im Heimnetz vorhandenen Geräten. Die Umsetzbarkeit des in dieser Diplomarbeit konzipierten Szenarios wird durch die Realisierung eines auf Semantic Web Services basierenden Prototypen überprüft.
Nach dem ersten Kapitel, welches der Einleitung und Heranführung an das Thema dient, wird im folgenden zweiten Kapitel ein Überblick über die geschichtliche Entwicklung von GUIs in Spielen folgen. In diesem Rahmen soll auch erörtert werden, welche Formen von GUIs in Spielen existieren, und wie diese definiert werden. Außerdem umfasst das zweite Kapitel eine Analyse, welche Gemeinsamkeiten Oberflächen in herkömmlichen Anwendungsprogrammen und Spielen aufweisen. Auf die spezifischen Anforderungen die an GUIs in Spielen gestellt werden, wird ebenfalls eingegangen werden. Das dritte Kapitel widmet sich der Programmierung von GUIs. Hierbei wird darauf eingegangen werden, warum existierende Programmiertoolkits wie MFC, Java, oder QT, für die Erstellung von GUIs in Computerspielen unzureichend sind. Weiterhin werden in diesem Kapitel die einzelnen Teile, aus denen ein GUIs zusammensetzt ist, behandelt. Deren Umsetzung wird anhand des im Praxisteil erstellten Toolkits erörtert. Kapitel vier widmet sich der konkreten Einbindung und Verwirklichung der GUI Elemente in einem Spiel. Neben allgemeinen Ansätzen werden Beispiele anhand des im Praxisteil erstellten Prototyps „Sweeper“ behandelt. Das fünfte und letzte Kapitel soll schließlich ein Resumé enthalten und wagt einen kleinen Ausblick in die Zukunft.
Integrationsmöglichkeiten einer Swing-Anwendung in Eclipse am Beispiel des abaXX Process Modelers
(2006)
Das Eclipse-Framework hat sich in den letzten Jahren als Entwicklungsumgebung und Plattform für Tool-Integration etabliert. Immer mehr bekannte Firmen wie BEA, IBM und Nokia integrieren ihre Anwendungen in dieses Framework. Eclipse bietet hierfür ein modulares System an, das auf einfache Weise erweitert werden kann. Die vorliegende Diplomarbeit beschäftigt sich mit der Integration von Anwendungen in die Eclipse-Plattform. Hauptsächliches Augenmerk liegt dabei auf der Integration vorhandener Swing-Applikationen in das Framework. Grundlage hierfür bildet der Process Modeler, eine Swing-Applikation von der abaXX Technology AG zum Modellieren von Geschäftsprozessen. Aufbauend auf den theoretischen Grundlagen und der Motivation für eine Integration werden zuerst der Process Modeler und das Eclipse Framework sowie einige weitere verwendete Technologien analysiert. Ziel ist die Untersuchung von Integrationsmöglichkeiten in das Eclipse Framework und das Aufstellen eines konkreten Integrationsszenarios für den Process Modeler, sowie die Erstellung eines ersten Prototypen.
Die vorliegende Arbeit behandelt die theoretischen Hintergründe zur Entwicklung einer mehrsprachigen Webanwendung mit Frontend-Funktionen für so genannte Independent Recordlabels. Die entwickelte Webanwendung vereinfacht die Marketing-Prozesse insbesondere hinsichtlich der Bereitstellung von Information für unterschiedliche Nutzergruppen. Die entwickelte Flash-Anwendung ist dreifach dynamisch: mittels ihrer Hilfe werden dynamisch generierte Inhalte aus der zentralen Recordlabel-Datenbank in ansprechender dynamischer Form präsentiert, der Layoutaufbau erfolgt dabei während der Laufzeit nach Vorgaben einer leicht zu modi-fizierenden Layout-Klasse.Im Speziellen wird in dieser theoretischen Ausarbeitung auf die Problematiken der Entwicklung einer sicheren Flash-Anwendung und eines sicheren Prelistening-Konzeptes sowie auf Usability-Aspekte eingegangen. Erläutert wird zudem, wie die unterschiedlichen Benutzergruppen in das Site-Konzept miteinbezogen wurden.
Die Aufgabenstellung dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Unterstützung des Vertriebs in der Kundenberatung. In wirtschaftlich schwierigen Zeiten, in welchen Investitionsentscheidungen genau durchdacht werden sollten, ist es eine Notwendigkeit dem Kunden diese Entscheidung zu erleichtern, indem der Kundenberater mit ihm gemeinsam versucht eine speziell für ihn entwickelte Lösung zu finden. Wegen der Produktvielfalt des Unternehmens PolarMohr ist dies von großer Bedeutung. Durch die Kombinationsmöglichkeiten der Schnellschneider mit den zahlreichen Peripherie-komponenten und diverser Zusatzoptionen, die wiederum unterschiedliche Automatisierungsstufen beinhalten, entsteht eine Vielzahl an Konfigurationsmöglichkeiten. Diese sind für die unterschiedlichsten Einsatzgebiete geeignet. Das Softwaretool dient hierbei als Entscheidungshilfe und ermöglicht dem Vertriebsmitarbeiter mit dem Kunden gemeinsam Konfigurationen zu vergleichen, verschiedene Schneidprozesse zu simulieren und die Anlagen so zusammenzustellen, dass sie auf das Unternehmen und die Auftragsstruktur des Kunden gezielt abgestimmt sind. Kennzahlen zeigen Trends und Rationalisierungspotenziale auf und machen Investitionsentscheidungen transparenter. Die preisliche Platzierung der Produkte kann durch das Softwaretool einfacher und zielgerechter gestaltet werden.
Dieses vorliegende Dokument stellt den schriftlichen Teil der Diplomarbeit dar, gleichzeitig ist es aber auch als Dokumentation zu betrachten. Es richtet sich hauptsächlich an Systemarchitekten und Software-Entwickler, um einen Überblick darüber zu geben, wie die entwickelte Buchungs-Software aufgebaut ist. Dieses Dokument dient als Grundlage und Referenz; es sollte vor dem Einstieg in den Source Code gelesen und verstanden werden, denn es erläutert die grundlegenden Abläufe, Modelle und Praktiken. Daneben existieren weitere Dokumente, die tieferen Einblick geben oder spezielle technische Probleme anhand von Verfahrensanweisungen lösen helfen. Diese Dokumente befinden sich (neben Source Code, generiertem JavaDoc und den in dieser Diplomarbeit verwendeten Diagrammen und Bildern) auf der beiliegenden CD-ROM. Wie bereits angedeutet, soll diese schriftliche Ausarbeitung den Leser befähigen, sich in die umfangreiche Software einzuarbeiten (z.B. für Wartungsarbeiten oder Weiterentwicklung der Software). Deshalb werden grundlegende Kenntnisse und Begriffe der Programmiersprache Java, von Entwurfsmustern (Design Patterns), von Betriebssystemen (Linux und Windows) und Internet-Technologien (Web- und Applicationserver, Protokolle, HTML, CSS, etc.) vorausgesetzt. Die Kapitel 2 bis 4 können darüber nur einen groben Überblick geben und gehen nur selten richtig ins Detail. Für Interessierte, die sich eingehender damit beschäftigen wollen, existiert eine Vielzahl an weiterführender Literatur. Kapitel 5 geht ausführlich auf die Anforderungen der Software ein, so wie sie in einem Pflichtenheft hätten definiert worden sein können. Besonders hier kommen viele großformatige UML-Diagramme (Unified Modeling Language) zum Einsatz, sind sie doch aussagekräftig und erschließen sich schnell wie einfach dem Betrachter. In Kapitel 6 wird dann erläutert, wie die Geschäftsprozesse aus dem vorhergehenden Kapitel umgesetzt wurden. Es handelt sich dabei hauptsächlich um Komponenten, die auf dem Server installiert sind und den wesentlichen Teil der Software bilden (Teile davon werden allerdings von anderen, lokalen Komponenten wiederverwendet). Eine solche lokale Komponente ist das Import-Export-Tool (Kapitel 7) – eine reine Java- Applikation mit einfacher Benutzeroberfläche. Sie ermöglicht den regelmäßigen Austausch von Mitgliederdaten zwischen der Online-Datenbank MySQL und der Offline-Datenbank Access. Dies ist notwendig, da der Segelverein, für den diese Software erstellt wurde, auf die bisher verwendete Access-Datenbank nicht verzichten konnte. Deshalb kann oder muss man hier durchaus von Individual-Software sprechen. Allerdings ist es auch möglich, auf die Offline-Datenbank zu verzichten, was den Einsatz der Buchungs-Software bei anderen Segelvereinen mit ähnlichen Geschäftsprozessen ermöglicht. Kapitel 8 widmet sich einer Zusatz-Software (ebenfalls eine Java-Applikation), während Kapitel 9 eine Schlussbetrachtung und persönliche Erfahrungen des Autors enthält.
Diese Diplomarbeit beschäftigt sich mit der Internationalisierung und Lokalisierung von Software. Das Ziel dieser Arbeit war die Realisierung einer Software zur Unterstützung des Übersetzungsprozesses von Sprachressourcen für die IUCCA Anwendung. IUCCA ist ein komplexes webbasiertes Auftragsabwicklungssystem, das europaweit eingesetzt wird. Aufgrund der kontinuierlichen Weiterentwicklung von IUCCA unterliegen auch die Sprachressourcen dieses Systems einem fortlaufenden Übersetzungsprozess. Dieser Prozess erwies sich allerdings als aufwändig und fehleranfällig. Daher wurde im Rahmen dieser Arbeit ein neuer Prozess definiert und eine auf dem Open-Source Framework Struts basierende Anwendung realisiert. Diese Anwendung bildet den neuen Übersetzungsprozess ab und bindet diesen in das eXtreme Programming- Vorgehensmodell der IUCCA-Entwicklung ein. Neben der Analyse der Prozesse wird auch die Realisierung der Anwendung beschrieben. Darüber hinaus wird die bei der Internationalisierung auftretende Zeichensatzproblematik untersucht und der Unicode-Zeichensatz vorgestellt. Weiterhin wird gezeigt, wie die Programmiersprache Java die Internationalisierung von Anwendungen unterstützt.
The Eclipse rich client platform as container for componentoriented plugins provides a framework to host plugins, which concerning its look and feelembed well in a client workstation. J2EE client container provide a runtime environment for applications, integrated in a multitier architecture and therefore have to access services Java 2 Enterprise Edition (J2EE). Combining the two container approaches will create a new runtime environment for application clients, which appear in the user interface style of Eclipse and are able to take up the J2EE services. This diploma thesis discusses concepts of combining Eclipse and the client container.
Die Firma netads, Frech und Iffland GbR betreibt einen mobilen und webbasierten Service auf PHP/MySQLBasis, den sogenannten SMSmonkey. Für Kunden des SMSmonkeys ist es möglich, anhand einer von netads erstellten JavaMobiltelefonApplikation Textnachrichten per Mobiltelefon zu versenden und zu empfangen. Ziel der Diplomarbeit ist es, den SMSmonkeyService von PHP nach Java zu überführen und eine einfach zu erweiternde Plattform für weitere mobile und webbasierte Dienste zu schaffen. Der Schwerpunkt der Diplomarbeit liegt hierbei auf der Entwicklung der PlattformApplikation, welche als Basis für zukünftige Services der Firma netads dienen soll. Als ReferenzService der Plattform wird der SMSmonkeyService auf der Plattform realisiert. Motivation für die Umsetzung dieses Projekts ist der Wunsch von netads, alle ihre mobilen Services zentral, einfach zu warten und leicht erweiterbar unter einem Dach zusammengefasst zu haben. Dabei sollen die Schwierigkeiten, welche bei größeren Projekten mit der Verwendung von PHP als Programmiersprache auftreten, beseitigt werden, indem eine JavaEnterpriseApplikation entsteht. Als ein Nebenziel ist die möglichst kostengünstige Entwicklung und der Betrieb der Applikation gefordert, was den aussschließlichen Einsatz von freier Software erforderlich macht. Diese zu erstellende Applikation wird „netads MobilePlattform“, kurz nMPlattform genannt.
Diese Diplomarbeit beschäftigt sich mit der Frage, wie moderne Haushaltsgeräte wie Waschmaschinen, Kühlschränke oder Gefriertruhen über ein Netzwerk gewartet werden können. Es wird ein Weg gesucht, Geräte zu analysieren und mit neuer Software zu versorgen. Im Laufe der Arbeit wird ein offenes und herstellerunabhängiges Konzept entwickelt, das aus mehreren Schlüsselkomponenten besteht. Eine allgemeine und verständliche Beschreibung aller an der Wartung beteiligter Entitäten in einem semantischen Modell soll einen Hersteller- und Technologie-unabhängigen Austausch von Wissen ermöglichen. Dadurch wird es neuen Anbietern erleichtert, das Konzept für sich zu nutzen. Durch den Einsatz konfigurationsfreier Netzkomponenten soll die Verwaltung vor allem aus Sicht der Benutzer vereinfacht werden. Aufgrund der großen Anzahl der in heutigen Heimnetzen anzutreffenden, unterschiedlichen Technologien bedarf es zudem einer Komponente, die diese Heterogenität berücksichtigt. Die Lösung soll möglichst offen für unterschiedliche Technologien sein. Deshalb sieht das Konzept den Einsatz eines Gateways als zentrale Steuerkomponente vor, das unterschiedliche Teilnetze des Heimes, transparent verbindet. Nach der Untersuchung geeigneter Technologien für die technische Umsetzung wird eine Anwendung entworfen, die das Konzept prototypisch umsetzt.
Diese Diplomarbeit hat das Erstellen einer Anwendung zum Ziel, die es ermöglicht, unterschiedliche Dateiformate, die zur Speicherung von Motion- Capture-Daten verwendet werden, betrachten zu können. Zur Realisation dieses „MoCap-Viewers“ wird Macromedia Director verwendet, das seit der Version 8.5 über die Möglichkeit der Einbindung von Echtzeit-3D-Grafik verfügt. Die Anwendung soll die Möglichkeit bieten, einzelne Ordner oder auch komplette Festplatten nach ausgewählten Formaten (*.csm, *.c3s und/oder *.amc/*.asf) zu durchsucht, wichtige Informationen aus diesen Dateien auszulesen und schließlich auch mit Hilfe von Shockwave 3D die Marker- beziehungsweise Rotationsdaten im 3D-Raum darzustellen. Darüber hinaus wird überprüft, ob ein zugehöriges Informa-tionsfile (*.i3d) vorliegt. Falls nicht, wird die Erstellung dieser Datei angeboten, wo-bei auch die aus der entsprechenden 3D-Datei bekannten Daten eingetragen wer-den. Des Weiteren können bereits bestehende Informationsdateien editiert werden. Die Anwendung soll es Studenten ermöglichen, Motion Capture-Files schnell durchzusehen, ohne auf teure Spezialsoftware zurückgreifen zu müssen, da für diese oft nur eine begrenzte Anzahl an Lizenzen und somit Arbeitsplätzen zur Ver-fügung steht. Außerdem soll ihnen die Möglichkeit geboten werden, beim Durchse-hen auch gleich noch Informationen, zum Beispiel über besonders gut verwendbare Segmente, in den i3d-Files festzuhalten. Inhaltsverzeichnis
Die Aufgabe im Rahmen meiner Diplomarbeit war die Entwicklung einer multimedialen Ausbildungs-CD-ROM für die Wella AG (Darmstadt). Es ist die erste CD-ROM zu dem Buch ‚Gewusst wie’, das bereits in mehreren Auflagen gedruckt worden war und im Friseurhandwerk ein sehr hohes Ansehen genießt. Da dieses Buch überarbeitet und in neuer Auflage gedruckt werden sollte, wollte Wella die neue Auflage mit einer multimedialen Ausbildungs-CD-ROM ausstatten. Meine Arbeiten, die ich bei der von Wella beauftragten Firma BERG Communications (Esslingen) durchgeführt habe, waren die Mitarbeit an der Konzeption des Multimediapakets, bestehend aus Buch und CD-ROM, und die anschließende Programmierung der gesamten ‚Gewusst wie’-CD-ROM. Des Weiteren gehörten zu meinen Aufgaben das Erstellen von Sprachaufnahmen, die Bearbeitung von Fotoaufnahmen, der Neuschnitt von Lehrfilmen und die Leitung der Studenten, die uns bei der Erstellung der insgesamt 408 multimedialen Anleitungen behilflich waren. Da das ‚Gewusst wie’-Buch ebenfalls bei BERG Communications überarbeitet wurde, war ich auch bei der Neugestaltung des Buches intensiv beteiligt. Bis zum Ende meiner Diplomarbeit entstand ein Multimediapaket, in dem das Buch und die neu entwickelte CD-ROM sorgfältig aufeinander abgestimmt wurden, und das - von der Wella AG vervielfältigt - im ersten Quartal 2004 auf den Markt gebracht wird.
Ziel dieser Diplomarbeit war die Realisierung eines standardisierenden webbasierten Zugangs für ein Kommunikationsframework (Message to Anywhere) zu schaffen. Dieses Framework wird in hoch automatisierten Halbleiterfabriken zum Einsatz kommen. Mobile Endgeräte wie Mobiltelefonen, PDAs oder Tablet PCs könne sind über einen Webserver mit Message to Anywhere zu verbinden. Das Framework erlaubt eine einfache Integration von Anlagen. Diese stellen ihre Funktionen in Form von Services innerhalb des Frameworks bereit. Hierfür wurde ein Konzept entwickelt, dass es erlaubt diese Services auf verschieden Mobilen Endgeräten zur Anlagensteuerung abzubilden. Die Daten, die das Framework hierbei liefert, müssen auf die unterschiedlichen Endgeräte angepasst werden. Als eine Beispielanwendung für die Analagensteuerung werden die Services einer 3D- Reinigungsanlage auf unterschiedlichen Mobilen Endgeräten zu Verfügung gestellt.
Die vorliegende Arbeit versucht, die Eignung von Java Sound als Basisplattform für die Entwicklung studiotauglicher Audioanwendungen zu evaluieren. Dafür werden die Besonderheiten der Audioprogrammierung mit Sampling- und MIDI-Daten erarbeitet und daraus Anforderungen an Audiosoftware für den Studiobereich abgeleitet. Es wird kritisch überprüft, inwieweit Java und Java Sound theoretisch geeignet sind, diese Anforderungen zu erfüllen. Gegenstand der Überprüfung ist dabei sowohl das Java Sound API als auch dessen Implementierungen. Im praktischen Teil werden zwei Sampleeditoren und einige PlugIns entwickelt, um aus der praktischen Erfahrung weitere Ergebnisse zu gewinnen. Abschließend wird eine Gesamtbewertung der Studiotauglichkeit von Java Sound vorgenommen und ein Zukunftsausblick gegeben.
Die vorliegende Diplomarbeit beschäftigt sich mit der Generierung der Präsentationsschicht einer J2EE-Applikation unter Einsatz von Apache Struts. Der vieldiskutierte Ansatz der Object Management Group (OMG) - Model Driven Architecture - wird vorgestellt und unter Zuhilfenahme von open ArchitectureWare, einem metamodellbasierten Generator Framework, wird aufgezeigt, wie sich modellbasierte Entwicklung von der herkömmlichen Softwareentwicklung unterscheidet und welche Vor- und Nachteile sich daraus ergeben können. Im Bezug auf die technische Realisierung der MDA werden zum einen die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen und deren Transformationen nach der MDA Spezifikation der OMG erläutert, und zum anderen werden die eingesetzten Basistechnologien, wie zum Beispiel UML, inklusive der Erweiterungsmöglichkeit über UML-Profile, Meta Object Facility (MOF) und XML Metadata Interchange (XMI), vorgestellt. In diesem Zusammenhang werden auch mögliche pragmatische Interpretationen der MDA diskutiert. Darüber hinaus werden die Technologien, die bei der Entwicklung der Präsentationsschicht im Einsatz sind, Apache Struts und Tiles, näher betrachtet. Ein zentraler Bestandteil der Diplomarbeit besteht aus der Beschreibung der Funktionsweise von open ArchitectureWare, dem opensource Generator Framework, und dem dazugehörigen Vorgehensmodell der generativen Entwicklung. Schlussendlich werden die einzelnen Schritte, die während der Umsetzung vonnöten waren, anhand der Generierung der Präsentationsschicht einer dreischichtigen J2EE-Anwendung zur Verwaltung von Stammdaten, exemplarisch erläutert. Wesentliche Punkte während der Entwicklung, wie zum Beispiel Metamodellierung, plattformunabhängiges Design oder Template-Entwicklung werden am konkreten Projektbeispiel aufgezeigt. Nach erfolgreicher Generierung der Stammdatenanwendung wurde das Ergebnis der Diplomarbeit an einem weiteren Projekt namens BONSAI (Bonus Applikation International) erprobt. Im letzten Teil der Diplomarbeit werden die gewonnenen Erfahrungen bezüglich der aktuellen MDA-Entwicklung zusammengetragen und bewertet.
Digital Cinema beschreibt die digitale Distribution von Kinofilmen über Breitbandnetze oder Satellitenverbindungen von einem zentralen Server aus direkt in die einzelnen Kinosäle. Durch die Digitalisierung der Filmdistribution ergibt sich eine Reihe von Vorteilen, aber auch Probleme und Risiken für die einzelnen Marktteilnehmer. Die ungleiche Verteilung der Nutzenund Risikopotentiale entlang der Wertschöpfungskette erschwert die Einigung der bestehenden Marktteilnehmer auf ein für alle Beteiligten akzeptables Geschäftsmodell. Dadurch ergeben sich Chancen für Unternehmen aus der IT- und TK-Branche, sich auf dem Kinomarkt zu positionieren.
Das Ziel dieser Arbeit ist die objektive wissenschaftliche Klärung der Frage nach der effizientesten Kombination von Hardware und Software im Desktop Publishing. Vorweg werden die in den verschiedenen Computersystemen üblichen technischen Standards aufgeführt und erläutert. Dann wird die Hardware aufgrund ihrer technischen Eigenschaften und dem dafür zu bezahlenden Preis verglichen. Es folgen Vergleichstests mit Hilfe von standardisierter Benchmarksoftware. Danach werden die Computersysteme mit der branchenüblichen Anwendersoftware anhand von rechenintensiven praxisbezogenen Aufgaben getestet. Zuletzt wird festgestellt,welches System für welche Aufgabe am besten geeignet ist.
Für die Verbesserung und Unterstützung des Bordnetzentwicklungsprozesses wurde besprochen, Bordnetzentwicklungsdaten in einem standardisierten Format applikationsneutral zu halten und verschiedene Sichten auf diese Informationen zu erzeugen. Hierbei sind folgende Fragen zu beantworten. • Ist es möglich, Bordnetzdaten in XML applikationsneutral abzubilden und zu halten? • Sind verschiedene Sichten auf das Bordnetz ableitbar? • Sind XML und XSLT für die Speicherung und Aufbereitung der Bordnetzinformationen geeignet? • Ist XML als alleiniges natives Datenformat in der Bordnetzentwicklung geeignet? Zur Beantwortung dieser Fragen soll ein Prototyp realisiert werden. Mit Hilfe dieser prototypischen, entwicklungsbegleitenden Plattform soll die Generierung verschiedener Sichten auf Bordnetzdaten ermöglicht werden. Dabei wird der Fokus auf der dynamischen Generierung von Schaltplänen in SVG liegen. Beispielhaft soll die Durchführung einer dynamischen Analyse und eines Reports erfolgen. Darunter sind ebenfalls Sichtgenerierungen zu verstehen, wobei Bordnetzinformationen für Auswertungszwecke extrahiert und in übersichtlicher Form dargestellt werden sollen.
In der vorliegenden Arbeit sollen die grundlegenden Konzepte von XSLT näher untersucht werden und im Anschluss daran nach praktischen Ansätzen zur Verwendung von XSLT speziell im Rahmen der unter 1.2.2 vorgestellten Aufgabestellung gesucht werden. Dabei geht es um die Evaluierung der Möglichkeiten, die sich mit der Verwendung von XSLT bieten sowie deren optimale Anbindung und Nutzung in der bestehenden Infrastruktur, die durch das Gesamtprojekt gestellt wird. Für ein besseres Verständnis des später beschriebenen Lösungsansatzes sowie dessen Umsetzung sollen im anschließenden Kapitel zunächst die Technologien erläutert werden, die den Kern der Anwendung bilden, nämlich XML und XSLT. Im Anschluss daran wird das System analysiert, innerhalb dessen die Anwendung integriert werden muss sowie Anforderungen genannt, die an die Anwendung gestellt werden. Aus den Grundlagen, der Analyse und den Anforderungen wird dann ein Entwurf für das System bzw. die Anwendung abgeleitet, dessen Umsetzung schließlich in Kapitel 5 beschrieben wird. Den Schluss dieser Arbeit bildet das Fazit, in dem nochmals zusammenfassend erläutert werden soll, inwieweit die gestellten Anforderungen an das System konkret umgesetzt werden konnten bzw. welche Schlüsse für die Zukunft der Anwendung und die generelle Verwendung von XSLT gezogen werden können.
Möglichkeiten zur Erstellung eines Flash-Content Management Systems mit Ming – ausgehend von dem Untertitel der Arbeit beschäftigt sich dieses Dokument zunächst mit der Aufgabenstellung und definiert die Zielgruppe. Dem schließt sich eine Betrachtung über Content Mangement Systemen (CMS) an, da vor der Realisierung eines solch komplexen Systems ergründet werden muss, welche Komponenten zu einem CMS gehören und was eine solche Software prinzipiell ausmacht. Überlegungen zur Gestaltung einer Benutzeroberfläche, der Schnittstelle zwischen Benutzer und CMS, runden die ersten Kapitel ab. Weiter soll exemplarisch dokumentiert werden, welche Systeme aktuell auf dem Markt angeboten werden, die einem Flash-CMS zumindest teilweise entsprechen. Eine Beschäftigung mit den vorhandenen Produkten von Macromedia soll zeigen, welche Lösungen derzeit bei der Erstellung von dynamischen und animierten Websites aktuell sind. In einem technischeren Abschnitt stehen das swf- Format, die flashinterne Programmiersprache ActionScript, die Skriptsprache PHP und anschließend deren Ming-Klassen im Mittelpunkt. Außerdem soll der Frage nachgegangen werden, ob sich ein Flash-CMS, mit dem der Benutzer die Möglichkeit erhalten soll, die bisher von Agenturen bewältigten Aufgaben selbst zu übernehmen – also ein „echtes“ Autorensystem“, überhaupt sinnvoll realisierbar ist. Auf welche Weise Ming arbeitet, welche Sprachelemente es beinhaltet und wie einzelne Elemente erzeugt und behandelt werden können, wird anschließend anhand von konkretem Quellcode dokumentiert. Der stärker praktisch orientierte Teil beschäftigt sich mit der Realisierung eines Flash-CMS mit Ming und zeigt mögliche Systemarchitekturen. Eine Zusammenfassung beleuchtet die Realisierbarkeit und die technischen Grenzen eines Flash-CMS in der angedachten Form und weist auf zusätzliche Anwendungsmöglichkeiten von Ming hin.
In dieser Diplomarbeit wurde ein Plugin für die 3D-Software Maya erstellt, mit dem es möglich ist, Motion Capture-Daten (siehe Kapitel 2.1) in Maya zu importieren und beliebig zu kombinieren. Das Plugin ermöglicht es, solche Bewegungen zu importieren, zu schneiden, zu skalieren, sie zu filtern, zwischen mehreren Bewegungen überzublenden und Bewegungen entweder auf das gesamte Skelett anzuwenden oder nur auf einzelne ausgewählte Knochen. Das Plugin wurde mit der Maya-API erstellt, die einen Zugriff auf Maya-interne Objekte erlaubt. Es wurde die Form eines Plugins gewählt, da Plugins 3-10-mal schneller ausgeführt werden als Skripte, die in der Maya-eigenen Skriptsprache MEL geschrieben sind. Motion Capturing wird in der heutigen Zeit immer wichtiger, besonders für Computerspiele und Filme. In den letzten Jahren konnte man deutlich beobachten, dass immer mehr Produktionen aus diesen Bereichen Motion Capturing einsetzen. Der Grund dafür ist, dass manche Animationen schneller und damit billiger mittels Motion Capturing umgesetzt werden können, als die von einem professionellen Animator durch Stop-Motion oder Keyframes erstellten Animationen. Der wichtigste Grund aber ist, dass es viel realistischere Ergebnisse liefert. Denn ein Animator benötigt sehr viel Zeit, wenn er Bewegungen erstellen will, die wirklich menschlich sind und alle Nuancen, die dabei eine Rolle spielen, beachten will. Das menschliche Auge erkennt sehr schnell, ob eine animierte menschliche Bewegung realistisch erscheint oder nicht. Verwendet man Motion Capturing, ist dies kein Problem, denn alle Bewegungen sind absolut realistisch, da sie ja von echten Menschen aufgenommen wurden. Allerdings gibt es hier ein Spannungsfeld zwischen Kunst (die Arbeit des Animators) auf der einen Seite und reinen Zahlen (Motion Capturing) auf der anderen. Beide Techniken besitzen ihre individuellen Vorteile: Motion Capturing bietet höchsten Realismus. Das ist allerdings nicht immer gewünscht, z.B. bei Cartoon-Charakteren. In diesem Bereich liegt die Stärke der Animatoren. Auch an der HdM wird mittlerweile in vielen Studioproduktionen aus dem Bereich Computeranimation Maya und Motion Capturing eingesetzt. Deshalb bietet es sich an, dafür ein Tool zur Verfügung zu stellen, das eine einfache und schnelle Einbindung, Bearbeitung und Gestaltung solcher Daten ermöglicht, ohne den Umweg über dritte Softwareprogramme gehen zu müssen. Diese Arbeit stellt die Vorarbeit für ein Projekt dar, das voraussichtlich ab Oktober 2004 an der HdM in Zusammenarbeit mit der Universität Bonn durchgeführt wird. Das Ziel dieses Projekts ist die Erstellung einer Datenbank, die eine große Zahl an Motion Capture-Bewegungen enthält. Zum Aufbau dieser Datenbank wird die Motion Capture-Anlage an der HdM verwendet. Das Institut für Informatik der Universität Bonn, das ebenfalls an dem Projekt teilnimmt, ist spezialisiert auf Datenbanken. Sie hat bereits eine Datenbank fertiggestellt, mit deren Hilfe der Anwender einen kurzen Teil eines Musikstücks singen kann (z.B. den Anfang von Beethovens fünfter Sinfonie). Die Datenbank sucht dann automatisch das angesungene Stück heraus. Die Forschungsgruppe, die sich an der HdM an dem Projekt beteiligt, kümmert sich um die Erstellung eines Programms (ebenfalls als Maya-Plugin), mit dem der Benutzer eine Bewegung mit Hilfe einer Beschreibungssprache (z.B. einer Skriptsprache) die Bewegung vorgeben kann, die er haben möchte. Das Programm analysiert daraufhin diese Beschreibung, sucht aus der Datenbank die Bewegungen heraus, die dem Gewünschten am besten entsprechen und erstellt dann in Echtzeit die Bewegung.
Diese Diplomarbeit beschreibt die Möglichkeiten des satellitengestützten Datentransfers und richtet sich in erster Linie an Marketing- und Trademanager größerer Handelsketten und Konzerne, sowie Multimedia-Agenturen, die auf der Suche nach technischen Neuerungen bei der Nutzung interaktiver Verkaufsterminals sind. Das Ziel ist, über die Möglichkeiten und Vorteile der Satellitenübertragung umfassend zu informieren, Vorteile und Einsatzmöglichkeiten aufzuzeigen, den wirtschaftlichen Nutzen zu erläutern, sowie eventuell entstehende Probleme anzusprechen und Lösungsmöglichkeiten anzubieten. Darüber hinaus werden die wichtigsten technischen Grundbegriffe geklärt, sowie aktuelle Standards angesprochen. Die Diplomarbeit enthält des weiteren die an einem Fallbeispiel genau erläuterte Phasen der Entstehung und Implementierung eines satellitengestützten POS-Netzes, sowie eine detaillierte Kostenauflistung.
Diese Arbeit soll die verschiedenen derzeit möglichen Wege untersuchen, die begehbar sind, um einen Text ohne großen Nachbearbeitungsaufwand von MS Word in ein DTP-Programm zu transferieren. Die Betrachtungen werden sich ausschließlich auf textuelle Probleme beschränken, sich also nicht auf Grafik- oder Bilddaten beziehen. Die einzelnen Wege werden anhand aufgestellter Kriterien untersucht und bewertet. Daraus ergibt sich ein optimaler Weg, der abschließend begutachtet und diskutiert wird.
Diese Diplomarbeit gibt eine Einsicht in das Themengebiet "Mobile Applications" (mobile Software-Anwendungen). Es wird dabei auf die einzelnen, neuen Technologien eingegangen und aufgezeigt welche Möglichkeiten in diesem Bereich entstehen und wie stark unser Leben in den nächsten Jahren davon geprägt werden kann. Im praktischen Teil der Diplomarbeit habe ich eine mobile Anwendung, einen Instant- Messaging-Client, in J2ME entwickelt. Dieser Instant-Messaging-Client unterstützt das offene, XML-basierte Jabber-Protokoll. Auf die Entwicklung dieses Clients wird hier später genauer eingegangen (5. Kapitel). In dieser Arbeit wird der Begriff "Instant- Messaging" - wie allgemein üblich - mit "IM" abgekürzt. Zuerst wird erklärt worin der Unterschied zwischen herkömmlichen Anwendungen und mobilen Anwendungen besteht und wie die aktuelle Marktsituation ist. Dann geht die Arbeit auf die verschiedenen Technologien ein, zeigt einen Überblick über die verschiedenen Programmiersprachen und Übertragungstechniken. Das J2ME Framework in einem eigenen Kapitel unter die Lupe genommen und die Funktionsweise anhand von einfachen Beispielen sowie typische Probleme und deren Lösungsansätze erklärt. Zum Schluß werden noch einige Möglichkeiten aufgezeigt, was mobile Anwendungen heute schon alles leisten können.
Diese Diplomarbeit beschäftigt sich mit dem Einsatz von XMT und MPEG-4 im Allgemeinen und unter spezieller Betrachtung im RichMedia-Umfeld. Es wird versucht aufzuzeigen, welche Vorteile und Nachteile die Realisierung solcher Anwendungen mittels MPEG-4 in Verbindung mit XMT bringen können. Die Arbeit beginnt in den ersten zwei Kapiteln mit einem generellen Überblick über MPEG-4 und XMT. Dieser Teil vermittelt dem Leser - unabhängig von der später folgenden Betrachtung bezogen auf RichMedia - allgemein die Materie und Technologie, welche sich hinter diesen beiden Schlagwörtern versteckt. Auf einzelne technische Details wird, sofern sie keine besondere Bedeutung im Rahmen dieser Diplomarbeit darstellen, nicht näher eingegangen und bleiben den jeweiligen Spezifikationen vorbehalten. Im dritten Teil wird das Thema RichMedia zunächst unter technischem Aspekt aufgegriffen und versucht, ein Prototyp einer RichMedia-Anwendung praktisch umzusetzen. Schwerpunkte sind dabei unter anderem die Erstellung und Konvertierung von Inhalten sowie deren Distribution und Konsum. Der vierte Abschnitt versucht die beiden Technologien mit anderen, bereits bestehenden Standards und Lösungsansätzen zu vergleichen und gegenüber zustellen. Das letzte Kapitel bietet schließlich eine gesamtheitliche Zusammenfassung der Technologien XMT und MPEG-4 und ein Fazit hinsichtlich der Verwendung dieser beiden Technologien für RichMedia sowie einen Ausblick.
Die technische Infrastruktur in Client/Server Architekturen großer verteilter Anwendungen basiert oftmals auf mehreren Schichten mit immer wiederkehrenden Mustern, als Beispiel sei hier im Besonderen die Komponentenarchitektur von J2EE zu nennen. Die Implementierung dieser Infrastruktur nimmt viel Zeit in Anspruch und steht in den meisten Fällen in keinem Verhältnis zu ihrer intellektuellen Herausforderung an die Entwickler. Hier liegt es nahe, solcherlei Aufgaben durch einen generativen Ansatz zu lösen. Von vielen Ansätzen hat in den letzten Jahren der von der Object Management Group (OMG) spezifizierte Model Driven Architecture (MDA) Ansatz ein großes Interesse in der Fachwelt hervorgerufen, der über die reine Generierung von Code hinausgeht und gar eine Revolution in der Software-Entwicklung auslösen soll. Die Diplomarbeit beschäftigt sich zunächst mit den Spezifikationen, die MDA zugrunde liegen und führt dann über die Basistechnologien wie J2EE und der BMW Component Architecture zum Einsatz eines MDA konformen Generator-Frameworks, mit dessen Hilfe der praktische Einsatz getestet werden soll. Die Diplomarbeit beschreibt die Anpassung und die Möglichkeiten des Frameworks und setzt sie anhand zweier praktischer Beispiele aktueller Software-Projekte der Softlab GmbH im Bereich Supply Chain Management (SCM) ein. Ein Rückblick zum Ende der Diplomarbeit setzt sich mit den aufgetretenen Problematiken und Fallstricken, aber auch den Chancen von MDA kritisch auseinander und bewertet deren praktischen Nutzen. Der anschließende Ausblick gibt die persönliche Einschätzung des Autors über die zukünftige Entwicklung von MDA wieder und stellt einige weiterführende Ideen für Diplomarbeits-Themen vor.
Im ersten Kapitel wird erläutert, welche Basismechanismen der Wirtschaft für den elektronischen Handel nötig sind, was e-Procurement bedeutet, und welche Anforderungen an eine Business-to-Business-Integration gestellt werden, von der ein Teilaspekt die Prozessintegration ist. Im weiteren werden einige Basistechnologien vorgestellt, mit denen eine solche Prozessintegration vorgenommen werden kann. Dazu gehören zum einen die Technologien, die die zu integrierenden Systeme benutzen: openTRANS und Web Services, und zum anderen die Technologien, mit denen eine Prozessintegration umgesetzt werden soll: semantische Technologien, die für eine "Process Description Language" bereitstellen und "Process Execution Languages", die der Komposition von Web Services dienen. Im Lösungskonzept wird die Konzentration auf die Analyse einer Prozessintegration von Web Sevices für den Austausch von openTRANS Geschäftsdokumenten gelegt. Es wird geklärt, wie semantische Technologien verwendet werden könne, um die Bedeutung der Web Service Schnittstellen zu beschreiben. Weiterhin werden die Mindestanforderungen erörtert, die erfüllt sein müssen, um eine Prozessintegration möglich zu machen. Aus den gefundenen Bedingungen wird eine Metaprozessbeschreibung gewonnen, die angibt, welche Mindestbedingungen ein Prozess erfüllen muss. Die Prozessbeschreibungen der Geschäftspartner können entweder exakt gleich sein, sich in wenigen kompensierbaren Punkten unterscheiden, oder völlig inkompatibel sein. Hierzu wird ein Prototyp entwickelt, der die grundlegenden Ergebnisse des Lösungskonzept umsetzt, um seine Realisierbarkeit aufzuzeigen.
Diese Diplomarbeit befasst sich mit einem Informationsdienst, der auf Basis der Funktechnologie Bluetooth Daten übermittelt. Hierzu kommuniziert ein stationärer Informationsprovider mit einem mobilen Endgerät. Zunächst werden mögliche Komponenten und Technologien für ein solches System erörtert. Anschließend wird ein Einblick in die verwendete Übertragungstechnologie Bluetooth gegeben, sowie die Grundlagen und Konzepte der beiden eingesetzten Betriebssysteme beschrieben. Der Hauptteil der Diplomarbeit beschreibt die Ausarbeitung des praktischen Teils, in dem ein Prototyp für einen Stadtinformationsdienst entwickelt und umgesetzt wurde. Hierbei wird auf die Konzeption des Gesamtsystems und die Umsetzung der Anwendungen auf den einzelnen Komponenten eingegangen. In den Schlussbetrachtungen folgt ein Fazit über den Prototypen und mögliche Erweiterungen werden aufgezeigt. Abschließend wird ein Ausblick auf die vielfältigen Einsatzmöglichkeiten der verwendeten Technologien gegeben.
In London, New York oder San Francisco, aber auch in Berlin, Wien oder Zürich blühen drahtlose freie Bürgernetze auf. Die Wavelan-Technik zur Übertragung von Daten per Funk ermöglicht es, eigene Netze aufzubauen, in denen zu vergleichsweise geringen Kosten große Bandbreiten genutzt werden können. Die internationale Free-Network-Bewegung entstand, als die New Economy gerade in die Krise rutschte. Die Nachbarschaftsnetze auf WLAN-Basis bieten sich als Alternative zum kommerziellen Providermodell an. Anstatt die Nutzerinnen in die Rolle von Konsumenten zu zwängen, werden sie in diesen Netzen als gleichberechtigte Partner behandelt, als Anbieter von Information ebenso wie als Nutzer. Mittels des PicoPeering-Abkommens zu freien Datentransit wird der Datenaustausch zwischen den einzelnen unabhängigen Funknetzknoten geregelt. Allein in Großbritannien gibt es bereits über 3000 frei nutzbarer Hotspots, die von Netzwerkenthusiasten zum Wohle der Allgemeinheit bereitgestellt werden, und die weit bessere Bandbreiten als die UMTS-Netze bieten, was z.B. auch die Übertragung von Audio und Video mittels Laptop ermöglicht. Das rasche Wachstum der freien Bürgernetze hat manche ermutigt, bereits übereilt das Ende der Telekommunikationsindustrie zu prophezeien. Armin Medosch beschreibt die Entwicklung der Szene aus einer Nahperspektive: Woher stammt die Motivation, was wurde bisher geleistet, was sind die Ziele? Das Buch verfolgte den Aufbau freier drahtloser Netze in den Großstädten, auf dem Land und in Entwicklungsregionen. Medienpolitische Implikationen im Bereich der Regulierung des elektromagnetischen Spektrums, historische Vorläufer und Parellelen (Bürgernetze, Mailboxen), freie Software und freie Hardware kommen dabei ebenso zur Sprache wie die Auswirkungen auf die Medienfreiheit und die Freiheit der Kommunikation.