004 Informatik
Refine
Year of publication
Document Type
- Diploma Thesis (39)
- Bachelor Thesis (21)
- Master's Thesis (10)
- Study Thesis (3)
- Researchpaper (2)
- Book (1)
- Report (1)
Is part of the Bibliography
- no (77)
Keywords
- Barrierefreiheit (5)
- Datenschutz (3)
- J2EE (3)
- Softwareentwicklung (3)
- Agile Softwareentwicklung (2)
- Benutzerfreundlichkeit (2)
- Computergraphik (2)
- Deterministic Lockstep (2)
- Graphische Benutzeroberfläche (2)
- Intelligentes Stromnetz (2)
Institute
- Medieninformatik (Bachelor, Diplom) (29)
- FB 1: Druck und Medien (17)
- Audiovisuelle Medien (Bachelor, Diplom) (11)
- Computer Science and Media (Master) (7)
- FB 3: Information und Kommunikation (2)
- Mediapublishing und Verlagswirtschaft (Diplom) (2)
- Wirtschaftsinformatik (Bachelor) (2)
- Bibliotheks- und Medienmanagement (Bachelor, Diplom) (1)
- FB 2: Electronic Media (1)
- Informationsdesign (Bachelor, Diplom) (1)
Für die Verbesserung und Unterstützung des Bordnetzentwicklungsprozesses wurde besprochen, Bordnetzentwicklungsdaten in einem standardisierten Format applikationsneutral zu halten und verschiedene Sichten auf diese Informationen zu erzeugen. Hierbei sind folgende Fragen zu beantworten. • Ist es möglich, Bordnetzdaten in XML applikationsneutral abzubilden und zu halten? • Sind verschiedene Sichten auf das Bordnetz ableitbar? • Sind XML und XSLT für die Speicherung und Aufbereitung der Bordnetzinformationen geeignet? • Ist XML als alleiniges natives Datenformat in der Bordnetzentwicklung geeignet? Zur Beantwortung dieser Fragen soll ein Prototyp realisiert werden. Mit Hilfe dieser prototypischen, entwicklungsbegleitenden Plattform soll die Generierung verschiedener Sichten auf Bordnetzdaten ermöglicht werden. Dabei wird der Fokus auf der dynamischen Generierung von Schaltplänen in SVG liegen. Beispielhaft soll die Durchführung einer dynamischen Analyse und eines Reports erfolgen. Darunter sind ebenfalls Sichtgenerierungen zu verstehen, wobei Bordnetzinformationen für Auswertungszwecke extrahiert und in übersichtlicher Form dargestellt werden sollen.
In der vorliegenden Arbeit sollen die grundlegenden Konzepte von XSLT näher untersucht werden und im Anschluss daran nach praktischen Ansätzen zur Verwendung von XSLT speziell im Rahmen der unter 1.2.2 vorgestellten Aufgabestellung gesucht werden. Dabei geht es um die Evaluierung der Möglichkeiten, die sich mit der Verwendung von XSLT bieten sowie deren optimale Anbindung und Nutzung in der bestehenden Infrastruktur, die durch das Gesamtprojekt gestellt wird. Für ein besseres Verständnis des später beschriebenen Lösungsansatzes sowie dessen Umsetzung sollen im anschließenden Kapitel zunächst die Technologien erläutert werden, die den Kern der Anwendung bilden, nämlich XML und XSLT. Im Anschluss daran wird das System analysiert, innerhalb dessen die Anwendung integriert werden muss sowie Anforderungen genannt, die an die Anwendung gestellt werden. Aus den Grundlagen, der Analyse und den Anforderungen wird dann ein Entwurf für das System bzw. die Anwendung abgeleitet, dessen Umsetzung schließlich in Kapitel 5 beschrieben wird. Den Schluss dieser Arbeit bildet das Fazit, in dem nochmals zusammenfassend erläutert werden soll, inwieweit die gestellten Anforderungen an das System konkret umgesetzt werden konnten bzw. welche Schlüsse für die Zukunft der Anwendung und die generelle Verwendung von XSLT gezogen werden können.
Virtual-reality (VR) is an immersive technology with a growing market and many applications for gesture recognition. This thesis presents a VR gesture recognition method using signal processing techniques. The core concept is based on the comparison of motion features in the form of signals between a runtime recording of users and a possible gesture set. This comparison yields a similarity score through which the most similar gesture can be recognized by a continuous recognition system. Some selected comparison methods are presented, evaluated and discussed. An example implementation is demonstrated. However, due to an introduced layer model parts of the method and its implementation are interchangeable.
Similar or even better performance is achieved compared to other related work. The comparison method Dynamic Time Warping (DTW) reaches an average positive recognitions rate of 98.18% with acceptable real-time application performance. Additionally, the method comes with some benefits: position and direction of users is irrelevant, body proportions have no significant negative impact on recognition rates, faster and slower gesture executions are possible, no user inputs are needed to communicate gesture start and end (continuous recognition), also continuous gestures can be recognized, and the recognition is fast enough to trigger gesture specific events already during the execution.
ReMotion ist ein Team der grow platform GmbH, welches die besonderen Herausforderungen der Nutzer und potenziellen Kunden des modernen Fitnesstrainings mit einer innovativen Geschäftsidee lösen will. Dazu soll ein effizientes Training geschaffen werden, das an den individuellen Leistungsstand der Nutzer angepasst ist und ein hohes Erlebnispotenzial bietet. Mithilfe einer firmeninternen und eigens dafür entwickelten Bewegungsplattform, einem Fahrrad-Ergometer als erstes Trainingsgerät, sowie in zusätzlicher Kombination mit Gamification und Technologien, die das Eintauchen in die virtuelle Realität ermöglichen, soll so der Fitnesssport der Zukunft technologisch revolutioniert werden.
Mit dem Ziel, die durch Kundenbefragungen identifizierten Herausforderungen von fehlendem Spaß und fehlender Motivation zu untersuchen, behandelt die vorliegende Arbeit das Thema Gamification in Bezug auf die Tätigkeit des hochintensiven Intervalltrainings auf einem realen, stationären Fahrradprototyp in der virtuellen Realität. Anhand eines User-Centered Design-Ansatzes und mehreren iterativen Entwicklungs-schritten wird das Konzept einer VR-Fitnesstraining Experience entwickelt. Dieses wird in Kooperation mit einem interdisziplinären Projektteam realisiert und anschließend von der Autorin dieser Arbeit evaluiert.
Die Ergebnisse aus einer umfangreichen Nutzerstudie zeigen grundsätzlich, dass der entwickelte Prototyp ein hohes Potenzial für positive und freudvolle Erlebnisse sowie der Motivierung zu einer optimalen Leistung aufweist. Abgeleitet werden konnten sieben mögliche Einflussfaktoren, die mit dem positiven Ergebnis in Verbindung stehen könnten. Herausgreifend betrachtet wird der mögliche Anreiz des Flow-Erlebens, für dessen Einsetzen ein Zusammenspiel mit den anderen sechs Einflussfaktoren essenziell zu sein scheint.
Außerdem wird in einer Erörterung der theoretischen Grundlagen zur Trainingswissenschaft festgestellt, dass in einem regulären Fitnesstraining zwei der vier in der Trainingswissenschaft definierten Gegenstandsbereiche aktuell wenig oder gar keine Berücksichtigung finden. Die Erkenntnisse dieser Arbeit deuten je-doch darauf hin, dass eine Integration, der noch nicht vorhandenen Gegenstandsbereiche in die Konzeption und Gestaltung eines Trainings ein positives Trainingserlebnis und leistungsmotiviertes Handeln begünstigen könnte.
Abschließend wird anhand einer theoretischen und übergreifenden Betrachtung der Vorgehensweise zur Erarbeitung des Gamification-Konzepts, als Hauptgegenstand dieser Arbeit, ein Vorschlag für ein allgemeines Gamification-Modell abgeleitet.
Die vorliegende Arbeit befasst sich mit dem Thema A/B Testing, insbesondere im Kontext der Optimierung der User Experience in Onlineshops. In einer quantitativen empirischen Untersuchung, die in Zusammenarbeit mit der DRIP AGENCY und SNOCKS durchgeführt wurde, wurden zwei A/B-Test-Methoden – Fixed-Horizon Tests und sequentielle Tests – anhand von drei spezifischen Testideen in realen Onlineshop-Szenarien angewendet und auf ihre Effektivität verglichen sowie bewertet. Die Ergebnisse zeigen signifikante Unterschiede in der Performance und liefern daraus resultierende Empfehlungen für Onlineshops. Diese Erkenntnisse bieten Unter-nehmen, die mit den beiden A/B-Test-Methoden ihre UX optimieren und dadurch ihre Conversion Rates steigern möchten, wertvolle Einblicke. Dabei wird auch die Barrierefreiheit als ein zentrales und immer relevanter werdendes Thema hervorgehoben, um sicherzustellen, dass alle Nutzer eine zugängliche und positive Shopping-Erfahrung erleben können.
Ziel dieser Diplomarbeit war die Realisierung eines standardisierenden webbasierten Zugangs für ein Kommunikationsframework (Message to Anywhere) zu schaffen. Dieses Framework wird in hoch automatisierten Halbleiterfabriken zum Einsatz kommen. Mobile Endgeräte wie Mobiltelefonen, PDAs oder Tablet PCs könne sind über einen Webserver mit Message to Anywhere zu verbinden. Das Framework erlaubt eine einfache Integration von Anlagen. Diese stellen ihre Funktionen in Form von Services innerhalb des Frameworks bereit. Hierfür wurde ein Konzept entwickelt, dass es erlaubt diese Services auf verschieden Mobilen Endgeräten zur Anlagensteuerung abzubilden. Die Daten, die das Framework hierbei liefert, müssen auf die unterschiedlichen Endgeräte angepasst werden. Als eine Beispielanwendung für die Analagensteuerung werden die Services einer 3D- Reinigungsanlage auf unterschiedlichen Mobilen Endgeräten zu Verfügung gestellt.
Der Schlaganfall ist die relevanteste Ursache bleibender Behinderungen im Erwachsenenalter. Eine häufige Beeinträchtigung der Patienten ist insbesondere die Lähmung eines Arms. Um die Funktion desselben wieder teilweise zurückzuerlangen, müssen Betroffene auch zu Hause regelmäßige Rehabilitationsübungen ausführen. Allerdings empfinden sie diese als langweilig und verlieren schnell die Motivation daran.
Gamification, also die Nutzung von Spielelementen in einem nicht-spielerischen Kontext, kann nachweislich dabei helfen, profane Aufgaben aufzuwerten und langfristige Verhaltensänderungen zu forcieren. Um bestmöglich zu funktionieren muss die Gamification sich an die jeweilige Zielgruppe, deren Vorlieben und Bedürfnisse anpassen. Bei der Zielgruppe der Schlaganfallbetroffenen handelt es sich um ältere Menschen, die körperlich eingeschränkt sind, ein geringes Technikverständnis haben, denen soziale Kontakte wichtig sind, die sich jedoch durch kompetitive Handlungen schnell demotiviert fühlen.
Soziale Mechaniken sind vielversprechende Motivationsmechanismen, die allerdings bisher nur wenig Anwendung in der Gamification finden. Für die gegebene Zielgruppe haben sie eine noch höhere Relevanz und eignen sich daher gut, sofern auf kompetitive Elemente verzichtet wird. Reziproke Handlungen wie das Senden und Empfangen von Geschenken und Nachrichten konnten in dieser Arbeit als geeignete Motivatoren herausgearbeitet werden.
Dafür wurden eine Literaturrecherche zur Funktionsweise der Gamification und eine Zielgruppenanalyse durchgeführt, mögliche Mechaniken anhand von Beispielen betrachtet und frühe Konzepte mit Experten der Gamification evaluiert. Auf Basis der erlangten Erkenntnisse konnte die bestehende gamifizierte Rehabilitationsanwendung “Subliminal Home Rehab” um neue, motivierende Mechaniken erweitert werden, die von Repräsentanten der Zielgruppe positiv validiert wurden.
Diese Arbeit evaluiert die Herausforderungen, denen Scrum bei der Skalierung für große Projekte gegenübersteht. Diese bestehen hauptsächlich aus der Synchronisation der Teams, dem effizienten Auflösen von Abhängigkeiten, dem Sicherstellen von regelmäßiger sowie direkter Kommunikation, der Reduktion von Komplexität sowie dem Fördern und Fordern von regelmäßigem Feedback aller Projektbeteiligten. Abstract Die Herausforderungen unterteilen sich in die Skalierung der Scrum Artefakte, Rollen und Meetings. Für jeden der drei Bereiche werden in dieser Arbeit mehrere Lösungsmöglichkeiten vorgestellt, evaluiert und bewertet. Abstract Neben den Scrum Artefakten, Rollen und Meetings gibt es weitere, querschnittliche Herausforderungen, welche es bei der Skalierung von Scrum zu beachten gilt. Dabei handelt es sich um die Gebiete Softwarearchitektur, Unternehmenskultur, Projekt- und Prozessmanagement sowie Unternehmensstruktur. Abstract Die als starr angesehene Entwicklung einer Softwarearchitektur für ein großes Softwareprodukt steht der agilen Entwicklungswelt gegenüber und auch bei den unterschiedlichen Unternehmenskulturen gibt es Differenzen hinsichtlich der Kompatibilität mit Scrum und dessen Skalierung. Bezüglich der Softwarearchitektur im skalierten Umfeld wurde ein Mittelweg gefunden, der sich als „Enough Design Up Front” betitelt. Dieser stellt einen Kompromiss zwischen dem rein inkrementellen Ansatz des „No Design Up Front” und dem an das Wasserfallmodell angelehnten „Big Design Up Front” dar. Abstract Hinsichtlich der in den Unternehmen vorgefundenen Unternehmenskulturen obliegt es den jeweiligen Vorständen, sich für eine Entwicklung der vorhandenen Unternehmenskultur zu entscheiden oder versuchen, eine gänzlich andere Unternehmenskultur anzustreben. Beide Möglichkeiten können je nach Grad und Ausprägung der vorliegenden Unternehmenskultur mehrere Jahre des Wandels in Anspruch nehmen. Abstract Das Projekt- und Prozessmanagement muss für die Skalierung von Scrum geeignete Teamstrukturen sowie Integrationsstrategien finden, um die Produktinkremente der einzelnen Teams optimal zusammenzuführen. Die in dieser Arbeit vorgeschlagenen Möglichkeiten bieten den Verantwortlichen einige Optionen, müssen jedoch mit Bedacht gewählt und eingeführt werden. Viele dieser Lösungsmöglichkeiten fordern Veränderungen in der Unternehmensstruktur. Der Wandel der Unternehmensstruktur zur Unterstützung der Teams für eine effektive Produktentwicklung stellt somit eine weitere Herausforderung bei der Skalierung von Scrum dar.
Der vermehrte Einsatz von erneuerbaren Energien, welche nicht ständig verfügbar und nur begrenzt speicherbar sind, erschweren die Steuerung der Stromnetze. Zur Anpassung der Energieerzeugung an den tatsächlichen Bedarf werden Smart Grids („intelligente Stromnetze“) aufgebaut, die eine Steuerung des Energieverbrauchs in Abhängigkeit von der Verfügbarkeit ermöglichen. Die bereits vorhandenen Stromnetze werden hierzu um Kommunikationsnetze erweitert. Smart Meter („intelligente Stromzähler“) die beim Verbraucher eingesetzt werden, senden über die Kommunikationsnetze Messdaten zyklisch an die jeweiligen Stromnetzbetreiber. In Zukunft soll auch eine Steuerung von Haushaltsgeräten möglich werden. Daraus ergeben sich neue Herausforderungen in Bezug auf Sicherheit und Datenschutz. Die hier vorliegende Arbeit bietet eine kurze Einführung in die Grundlagen zum Thema Smart Grid. Es wird eine Referenzarchitektur definiert und die einzelnen Bestandteile des Smart Grids werden vorgestellt. Eine Auseinandersetzung mit den rechtlichen und regulatorischen Rahmenbedingungen sowie ein Überblick über den Stand der Entwicklungen intelligenter Stromnetze, insbesondere der Verbreitung von Smart Metern, vervollständigt die Grundlagen. Zusätzlich werden wesentliche Aspekte von Sicherheit und Datenschutz angesprochen. Darauf aufbauend wird die Sicherheit in Smart Grids untersucht. Hierzu werden die Ursachen für Bedrohungen im Rahmen einer Bedrohungsanalyse anhand eines Szenarios analysiert. Abgeleitet von den Ergebnissen der Bedrohungsanalyse werden Risiken innerhalb einer Risikoanalyse evaluiert und Maßnahmen empfohlen, um die festgestellten Risiken zu bewältigen
Secure Search
(2011)
Nowadays it is easy to track web users among websites: cookies, web bugs or browser fingerprints are very useful techniques to achieve this. The data collected can be used to derive a specific user profile. This information can be used by third parties to present personalized advertisements while surfing the web. In addition a potential attacker could monitor all web traffic of an user e.g. its search queries. As a conclusion the attacker knows the intentions of the web user and of the company he is working for. As competitors maybe very interested in such information, this could lead to a new form of industrial espionage. In this paper I present some of the techniques commonly used. I illustrate some problems caused by the usage of insecure transmission lines and compromised search engines. Some camouflage techniques presented may help to protect the web users identity. This paper is a based on the lecture "Secure Systems" teached by Professor Walter Kriha at the Media University (HdM) Stuttgart.
Diese Diplomarbeit beschreibt die Möglichkeiten des satellitengestützten Datentransfers und richtet sich in erster Linie an Marketing- und Trademanager größerer Handelsketten und Konzerne, sowie Multimedia-Agenturen, die auf der Suche nach technischen Neuerungen bei der Nutzung interaktiver Verkaufsterminals sind. Das Ziel ist, über die Möglichkeiten und Vorteile der Satellitenübertragung umfassend zu informieren, Vorteile und Einsatzmöglichkeiten aufzuzeigen, den wirtschaftlichen Nutzen zu erläutern, sowie eventuell entstehende Probleme anzusprechen und Lösungsmöglichkeiten anzubieten. Darüber hinaus werden die wichtigsten technischen Grundbegriffe geklärt, sowie aktuelle Standards angesprochen. Die Diplomarbeit enthält des weiteren die an einem Fallbeispiel genau erläuterte Phasen der Entstehung und Implementierung eines satellitengestützten POS-Netzes, sowie eine detaillierte Kostenauflistung.
Diese Diplomarbeit beschäftigt sich mit der Frage, wie moderne Haushaltsgeräte wie Waschmaschinen, Kühlschränke oder Gefriertruhen über ein Netzwerk gewartet werden können. Es wird ein Weg gesucht, Geräte zu analysieren und mit neuer Software zu versorgen. Im Laufe der Arbeit wird ein offenes und herstellerunabhängiges Konzept entwickelt, das aus mehreren Schlüsselkomponenten besteht. Eine allgemeine und verständliche Beschreibung aller an der Wartung beteiligter Entitäten in einem semantischen Modell soll einen Hersteller- und Technologie-unabhängigen Austausch von Wissen ermöglichen. Dadurch wird es neuen Anbietern erleichtert, das Konzept für sich zu nutzen. Durch den Einsatz konfigurationsfreier Netzkomponenten soll die Verwaltung vor allem aus Sicht der Benutzer vereinfacht werden. Aufgrund der großen Anzahl der in heutigen Heimnetzen anzutreffenden, unterschiedlichen Technologien bedarf es zudem einer Komponente, die diese Heterogenität berücksichtigt. Die Lösung soll möglichst offen für unterschiedliche Technologien sein. Deshalb sieht das Konzept den Einsatz eines Gateways als zentrale Steuerkomponente vor, das unterschiedliche Teilnetze des Heimes, transparent verbindet. Nach der Untersuchung geeigneter Technologien für die technische Umsetzung wird eine Anwendung entworfen, die das Konzept prototypisch umsetzt.
This bachelor thesis wants to describe a prototypical implementation of a 3D user interface for intuitive real-time set editing in virtual production. Furthermore this approach is evaluated qualitatively through a user group, testing the device and fill in a questionnaire. The dimension of virtual elements created with computer graphics technology in all areas of entertainment industry is steadily growing since the past years. Nevertheless can the editing process of virtual elements still require a costly process in terms of time and money. With the appearance of new input devices and improved tracking technologies it is interesting to evaluate if a real-time editing process could improve this situation. Being currently bound to experts on special workstations, this could lead to a more intuitive and real-time workflow, enabling everybody on a film set to influence the digital editing process and work collaboratively on the scene consisting of virtual and real elements.
Das Ziel dieser Arbeit ist die objektive wissenschaftliche Klärung der Frage nach der effizientesten Kombination von Hardware und Software im Desktop Publishing. Vorweg werden die in den verschiedenen Computersystemen üblichen technischen Standards aufgeführt und erläutert. Dann wird die Hardware aufgrund ihrer technischen Eigenschaften und dem dafür zu bezahlenden Preis verglichen. Es folgen Vergleichstests mit Hilfe von standardisierter Benchmarksoftware. Danach werden die Computersysteme mit der branchenüblichen Anwendersoftware anhand von rechenintensiven praxisbezogenen Aufgaben getestet. Zuletzt wird festgestellt,welches System für welche Aufgabe am besten geeignet ist.
Die Nachfrage an Videospielen ist in den letzten Jahren stark gestiegen,
während weniger als die Hälfte der Entwickler angeben, dass
Barrierefreiheitsmaßnahmen in aktuellen Projekten integriert werden.
Werkzeuge und Richtlinien sind hilfreich bei der Implementierung von
barrierefreien Videospielen. Weitere Referenzen werden jedoch benötigt, um
auf die Barrierefreiheit aufmerksam zu machen.
Diese Arbeit ermittelt die Auswirkungen eines Serious Games auf blinde und
sehende Spieler. Schwerpunkt ist die Implementierung von Maßnahmen für
blinde Spieler. Anhand einer Analyse von ausgezeichneten Videospielen und
Filterung der Xbox Accessibility Guidelines, wurde „Sensory“ entwickelt. Das
Spiel wurde durch eine Benutzerstudie mit 11 Teilnehmern validiert. Während
der Benutzerstudie wurde das Spiel getestet und dadurch wurden Usability-
Probleme entdeckt. Anhand der Benutzerstudie konnte der Spielspaß und
Lerneffekt bestätigt werden.
Die Auswertung der Studie zeigt, dass Geräusche und Vibrationen den
Spielspaß für blinde Spieler positiv beeinflussen. Die Steuerung und fehlenden
Einstellungen wirken sich negativ aus. Außerdem erhalten sehende Spieler
einen Einblick in die barrierefreie Entwicklung von Videospielen und dadurch
wird die Empathie für Barrierefreiheit gesteigert.
Websites or web applications, whether they represent shopping systems, on demand services or a social networks, have something in common: data must be stored somewhere and somehow. This job can be achieved by various solutions with very different performance characteristics, e.g. based on simple data files, databases or high performance RAM storage solutions. For todays popular web applications it is important to handle database operations in a minimum amount of time, because they are struggling with a vast increase in visitors and user generated data. Therefore, a major requirement for modern database application is to handle huge data (also called big data) in a short amount of time and to provide high availability for that data. A very popular database application in the open source community is MySQL, which was originally developed by a swedisch company called MySQL AB and is now maintenanced by Oracle. MySQL is shipped in a bundle with the Apache web server and therefore has a large distribution. This database is easily installed, maintained and administrated. By default MySQL is shipped with the MyISAM storage engine, which has good performance on read requests, but a poor one on massive parallel write requests. With appropriate tuning of various database settings, special architecture setups (replication, partitioning, etc.) or other storage engines, MySQL can be turned into a fast database application. For example Wikipedia uses MySQL for their backend data storage. In the lecture Ultra Large Scale Systems and System Engineering teached by Walter Kriha at Media University Stuttgart, the question Can a MySQL database application handle more then 3000 database requests per second? came up some time. Inspired by this issue, I got myself going to find out, if MySQL is able to handle such a amount of requests per second. At that time I also read something about the high availability and scalability solution MySQL Cluster and it was the right time to test the performance of that solution. In this paper I describe how to set up a MySQL database server with the additional MySQL Cluster storage engine ndbcluster and how to configure a database cluster. In addition I execute some database tests on that cluster to proof that its possible the get a throughput of >= 3000 read requests per second with a MySQL database.
Diese Arbeit soll die verschiedenen derzeit möglichen Wege untersuchen, die begehbar sind, um einen Text ohne großen Nachbearbeitungsaufwand von MS Word in ein DTP-Programm zu transferieren. Die Betrachtungen werden sich ausschließlich auf textuelle Probleme beschränken, sich also nicht auf Grafik- oder Bilddaten beziehen. Die einzelnen Wege werden anhand aufgestellter Kriterien untersucht und bewertet. Daraus ergibt sich ein optimaler Weg, der abschließend begutachtet und diskutiert wird.
In dieser Diplomarbeit wurde ein Plugin für die 3D-Software Maya erstellt, mit dem es möglich ist, Motion Capture-Daten (siehe Kapitel 2.1) in Maya zu importieren und beliebig zu kombinieren. Das Plugin ermöglicht es, solche Bewegungen zu importieren, zu schneiden, zu skalieren, sie zu filtern, zwischen mehreren Bewegungen überzublenden und Bewegungen entweder auf das gesamte Skelett anzuwenden oder nur auf einzelne ausgewählte Knochen. Das Plugin wurde mit der Maya-API erstellt, die einen Zugriff auf Maya-interne Objekte erlaubt. Es wurde die Form eines Plugins gewählt, da Plugins 3-10-mal schneller ausgeführt werden als Skripte, die in der Maya-eigenen Skriptsprache MEL geschrieben sind. Motion Capturing wird in der heutigen Zeit immer wichtiger, besonders für Computerspiele und Filme. In den letzten Jahren konnte man deutlich beobachten, dass immer mehr Produktionen aus diesen Bereichen Motion Capturing einsetzen. Der Grund dafür ist, dass manche Animationen schneller und damit billiger mittels Motion Capturing umgesetzt werden können, als die von einem professionellen Animator durch Stop-Motion oder Keyframes erstellten Animationen. Der wichtigste Grund aber ist, dass es viel realistischere Ergebnisse liefert. Denn ein Animator benötigt sehr viel Zeit, wenn er Bewegungen erstellen will, die wirklich menschlich sind und alle Nuancen, die dabei eine Rolle spielen, beachten will. Das menschliche Auge erkennt sehr schnell, ob eine animierte menschliche Bewegung realistisch erscheint oder nicht. Verwendet man Motion Capturing, ist dies kein Problem, denn alle Bewegungen sind absolut realistisch, da sie ja von echten Menschen aufgenommen wurden. Allerdings gibt es hier ein Spannungsfeld zwischen Kunst (die Arbeit des Animators) auf der einen Seite und reinen Zahlen (Motion Capturing) auf der anderen. Beide Techniken besitzen ihre individuellen Vorteile: Motion Capturing bietet höchsten Realismus. Das ist allerdings nicht immer gewünscht, z.B. bei Cartoon-Charakteren. In diesem Bereich liegt die Stärke der Animatoren. Auch an der HdM wird mittlerweile in vielen Studioproduktionen aus dem Bereich Computeranimation Maya und Motion Capturing eingesetzt. Deshalb bietet es sich an, dafür ein Tool zur Verfügung zu stellen, das eine einfache und schnelle Einbindung, Bearbeitung und Gestaltung solcher Daten ermöglicht, ohne den Umweg über dritte Softwareprogramme gehen zu müssen. Diese Arbeit stellt die Vorarbeit für ein Projekt dar, das voraussichtlich ab Oktober 2004 an der HdM in Zusammenarbeit mit der Universität Bonn durchgeführt wird. Das Ziel dieses Projekts ist die Erstellung einer Datenbank, die eine große Zahl an Motion Capture-Bewegungen enthält. Zum Aufbau dieser Datenbank wird die Motion Capture-Anlage an der HdM verwendet. Das Institut für Informatik der Universität Bonn, das ebenfalls an dem Projekt teilnimmt, ist spezialisiert auf Datenbanken. Sie hat bereits eine Datenbank fertiggestellt, mit deren Hilfe der Anwender einen kurzen Teil eines Musikstücks singen kann (z.B. den Anfang von Beethovens fünfter Sinfonie). Die Datenbank sucht dann automatisch das angesungene Stück heraus. Die Forschungsgruppe, die sich an der HdM an dem Projekt beteiligt, kümmert sich um die Erstellung eines Programms (ebenfalls als Maya-Plugin), mit dem der Benutzer eine Bewegung mit Hilfe einer Beschreibungssprache (z.B. einer Skriptsprache) die Bewegung vorgeben kann, die er haben möchte. Das Programm analysiert daraufhin diese Beschreibung, sucht aus der Datenbank die Bewegungen heraus, die dem Gewünschten am besten entsprechen und erstellt dann in Echtzeit die Bewegung.
Diese Arbeit ist in acht Kapitel eingeteilt, wobei die erste Hälfte die theoretische Grundlage sowie die Bestandsaufnahme beinhaltet, und die zweite Hälfte auf die Umsetzung der domänenspezifischen Sprachen eingeht. Kapitel 1 skizziert einen groben Überblick ¨uber die Themen und die Ziele dieser Arbeit Kapitel 2 gibt eine Einführung in die Konzepte der modellgetriebenen Softwareentwicklung, stellt verschiedene Ansätze vor, und stellt das Produkt PAI vor Kapitel 3 beschäftigt sich mit der Softwarearchitektur und den operationalen Aspekten der Softwareentwicklung sowie deren Handhabung durch den Rational Unified Process und der IBM Global Services Method Kapitel 4 stellt das Operational Model bei PAI vor, wie es im Projekt entsteht und wie es verwendet wird, sowie die Gründe für den Bedarf einer formalen Modellierung Kapitel 5 beschäftigt sich mit der Erstellung der domänenspezifischen Sprachen, also dem Domänendesign Kapitel 6 stellt verschiedene Ansätze und Sprachen der Modelltransformation vor und erkundet die Möglichkeit bei der Transformation des Operational Models Kapitel 7 befasst sich mit der Unterstützung der in den vorigen beiden Kapiteln beschriebenen Aufgaben durch entsprechende Werkzeuge, einschließlich einer prototypischen Implementierung in Eclipse EMF Kapitel 8 gibt ein kurze Zusammenfassung dieser Arbeit sowie eine Bewertung der gewonnenen Ergebnisse
Diese Diplomarbeit gibt eine Einsicht in das Themengebiet "Mobile Applications" (mobile Software-Anwendungen). Es wird dabei auf die einzelnen, neuen Technologien eingegangen und aufgezeigt welche Möglichkeiten in diesem Bereich entstehen und wie stark unser Leben in den nächsten Jahren davon geprägt werden kann. Im praktischen Teil der Diplomarbeit habe ich eine mobile Anwendung, einen Instant- Messaging-Client, in J2ME entwickelt. Dieser Instant-Messaging-Client unterstützt das offene, XML-basierte Jabber-Protokoll. Auf die Entwicklung dieses Clients wird hier später genauer eingegangen (5. Kapitel). In dieser Arbeit wird der Begriff "Instant- Messaging" - wie allgemein üblich - mit "IM" abgekürzt. Zuerst wird erklärt worin der Unterschied zwischen herkömmlichen Anwendungen und mobilen Anwendungen besteht und wie die aktuelle Marktsituation ist. Dann geht die Arbeit auf die verschiedenen Technologien ein, zeigt einen Überblick über die verschiedenen Programmiersprachen und Übertragungstechniken. Das J2ME Framework in einem eigenen Kapitel unter die Lupe genommen und die Funktionsweise anhand von einfachen Beispielen sowie typische Probleme und deren Lösungsansätze erklärt. Zum Schluß werden noch einige Möglichkeiten aufgezeigt, was mobile Anwendungen heute schon alles leisten können.
Möglichkeiten zur Erstellung eines Flash-Content Management Systems mit Ming – ausgehend von dem Untertitel der Arbeit beschäftigt sich dieses Dokument zunächst mit der Aufgabenstellung und definiert die Zielgruppe. Dem schließt sich eine Betrachtung über Content Mangement Systemen (CMS) an, da vor der Realisierung eines solch komplexen Systems ergründet werden muss, welche Komponenten zu einem CMS gehören und was eine solche Software prinzipiell ausmacht. Überlegungen zur Gestaltung einer Benutzeroberfläche, der Schnittstelle zwischen Benutzer und CMS, runden die ersten Kapitel ab. Weiter soll exemplarisch dokumentiert werden, welche Systeme aktuell auf dem Markt angeboten werden, die einem Flash-CMS zumindest teilweise entsprechen. Eine Beschäftigung mit den vorhandenen Produkten von Macromedia soll zeigen, welche Lösungen derzeit bei der Erstellung von dynamischen und animierten Websites aktuell sind. In einem technischeren Abschnitt stehen das swf- Format, die flashinterne Programmiersprache ActionScript, die Skriptsprache PHP und anschließend deren Ming-Klassen im Mittelpunkt. Außerdem soll der Frage nachgegangen werden, ob sich ein Flash-CMS, mit dem der Benutzer die Möglichkeit erhalten soll, die bisher von Agenturen bewältigten Aufgaben selbst zu übernehmen – also ein „echtes“ Autorensystem“, überhaupt sinnvoll realisierbar ist. Auf welche Weise Ming arbeitet, welche Sprachelemente es beinhaltet und wie einzelne Elemente erzeugt und behandelt werden können, wird anschließend anhand von konkretem Quellcode dokumentiert. Der stärker praktisch orientierte Teil beschäftigt sich mit der Realisierung eines Flash-CMS mit Ming und zeigt mögliche Systemarchitekturen. Eine Zusammenfassung beleuchtet die Realisierbarkeit und die technischen Grenzen eines Flash-CMS in der angedachten Form und weist auf zusätzliche Anwendungsmöglichkeiten von Ming hin.
Die Planung oder Durchführung von IT-Projekten zur Gestaltung moderner Büroarbeitsplätze stellt eine wichtige Aufgabe für Unternehmen dar. Der Nutzen solcher Investitionen kann jedoch häufig nur in einem qualitativen Sinne verbal benannt werden kann. Allerdings sind Kenntnisse über den quantitativen Mehrwert eines IT-Projektes und möglicher Projektalternativen notwendig, um beispielsweise eine reale Vergleichbarkeit anhand der Rentabilität tätigen zu können. Im Rahmen dieser Arbeit wird eine Methodik zur Auswahl geeigneter Bewertungsmethoden für IT-Projekte entwickelt und die für diese Methodik relevanten Merkmale der Zielgruppen und Merkmale der Projektzielcluster erläutert.
Head Mounted Displays (HMD) are increasingly used in various industries. But apart from the industry environment, the potentials of HMDs in a private environment like at home has been rel- atively unexplored so far. What daily tasks can these help with, in the home kitchen for example?
The aim of this thesis is to obtain knowledge about the usefulness of such an HMD, the HoloLens, in combination with an application, while following a new recipe. Therefore a prototype applica- tion for the HoloLens got developed which guides a user through the cooking of a sushi burger by using multimedia content.
With a mixed method design, consisting of quantitative and qualitative methods, the HoloLens in combination with an application was evaluated by 14 participants.
Not only the weight of the device was a problem for users. The test also revealed that the display is darkening the view and participants tend to look below the glasses. An advantage is indeed to reach the next cooking step without the need of using hands and always having in sight what needs to be done next. Positive feedback was given as well for the application. Through voice control the user communicates to a character which will guide through the recipe by videos and text.
If in future the technical characteristics of HMD devices will improve, an application in this con- text will be of advantage in order to simplify learning a new recipe. This device, in combination with an application, could help early-middle stage cognitive impaired people and blind people to cook.
Password-based authentication is widely used online, despite its numerous shortcomings, enabling attackers to take over users’ accounts. Phishing-resistant Fast IDentity Online (FIDO) credentials have therefore been proposed to improve account security and authentication user experience. With the recent introduction of FIDO-based passkeys, industry-leading corporations aim to drive widespread adoption of passwordless authentication to eliminate some of the most common account takeover attacks their users are exposed to. This thesis presents the first iteration of a distributed web crawler measuring the adoption of FIDO-based authentication methods on the web to observe ongoing developments and assess the viability of the promised passwordless future. The feasibility of automatically detecting authentication methods is investigated by analyzing crawled web content. Because today’s web is increasingly client-side rendered, capturing relevant data with traditional scraping methods is challenging. Thus, the traditional approach is compared to the browser-based crawling of dynamic content to optimize the detection rate. The results show that authentication method detection is possible, although there are some limitations regarding accuracy and coverage. Moreover, browser-based crawling is found to significantly increase detection rate.
Diese Diplomarbeit befasst sich mit der Model Driven Architecture (MDA) und deren Anwendung auf Basis von Open Source. Für ein Unternehmen ist es immer wichtig zu wissen, wie der aktuelle Stand der Technik ist und ob diese Technik produktiv eingesetzt werden kann, um sich dadurch Vorteile am Markt zu verschaffen. Es werden zunächst einige Grundlagen von Open Source und MDA erörtert. Danach wird mittels einer Evaluierung von Open Source Modellierungs- und Generierungswerkzeugen ein Überblick über die am Markt verfügbaren Werkzeuge gegeben. Anschließend wird die prototypenhafte Umsetzung eines Geschäftsvorfalles einer Versicherung beschrieben, um den Stand der Technik zu demonstrieren. In der Schlussbetrachtung folgt ein Fazit über den Verlauf und die Resultate der Diplomarbeit. Zum Schluss wird ein Ausblick für die Model Driven Architecture gegeben.
Today’s digital cameras use a mosaic of red, green, and blue color filters to capture images in three color channels on a single sensor plane. This thesis investigates the use of convolutional neural networks (CNNs) for demosaicing – the process of reconstructing full-color images from raw mosaic sensor data. While there are existing CNNs for demosaicing raw images from the well-established regular Bayer color filter array (CFA), this thesis focuses on how they perform on alternative non-regular sampling patterns that produce less aliasing artifacts, namely the stochastic Gaussian- and the RandomQuarter sampling pattern (Backes and Fröhlich, 2020).
A basic UNet (Ronneberger et al., 2015) and the spatially adaptive SANet (T. Zhang et al., 2022) are implemented in a supervised training pipeline based on the PixelShift200 image dataset (Qian et al., 2021) to investigate their suitability for the irregular demosaicing task. The experiments indicate that the basic UNet encounters difficulties in restoring the missing color values, whereas the spatially adaptive convolutional layers help in processing the irregularly sampled raw images.
In addition, this thesis enhances SANet effectiveness by employing an alternative residual branch based on a CFA-normalized Gaussian filter, as well as a tileable modification to the Gaussian CFA pattern. The modified SANet is shown to outperform the conventional dFSR algorithm (Backes & Fröhlich, 2020) in terms of peak signal to noise ratio (PSNR) and structural similarity index measure (SSIM).
Schon immer haben sich Menschen für Geschichten interessiert.
Für viele sind sie eine Ausflucht aus dem Alltag, Identifkationsmittel und Auseinandersetzung mit Themen aller Art.
Die anhaltende Beliebtheit von Fan Fictions ist daher keine Überraschung. Fan Fictions sind Geschichten, die von Fans geschrieben werden und sich dabei Elementen anderer Quellen bedienen, um diese nicht nur passiv zu konsumieren sondern sich aktiv mit ihnen auseinander zu setzen.
Gerade in Zeiten von Social Media,wo jeder, der einen Internetzugang, Kreativität und etwas technologische Affnität besitzt, mit Leichtigkeit Inhalte erstellen und teilen kann ist das Fortbestehen von Fan Fictions kaum verwunderlich.
Jedoch fällt schnell auf, dass Fan Fiction Archive, welche für eine der ältesten Formen von aktivem Medienkonsum stehen, nicht länger mit der raschen Entwicklung des Internets mithalten können.
Das drückt sich trotz der stetig steigenden Anzahl an geteilten Fan Fictions auf den zahlreichen Plattformen, durch sinkende Kommentarzahlen aus. Das Ziel dieser Arbeit ist es daher, ein Konzept zur Verbesserung der Autor-Leser Kommunikation zu entwickeln und dessen Machbarkeit anhand eines Prototypen zu beweisen.
Zunächst werden dazu die Grundlagen der Fan- und Feedback-Forschung zusammengetragen. Anschließend wird eine Analyse der Zielgruppen, der Kommentare sowie der bisher bestehenden Feedback-Funktionen in Fan Fiction Archiven und anderen Tools durchgeführt.
Diese Untersuchungen zeigen, dass es sich um drei Zielgruppen handelt, deren Bedürfnisse und Bereitschaft zur Beteiligung in der Community variieren: Autoren, kritische Leser und unkritische Leser.
Zudem werden Kommentar-Kategorien ermittelt und Schwachstellen in den Fan Fiction Archiven identifziert. Basierend auf diesen Erkenntnissen wird das Konzept Feeding Fandom entwickelt. Dieses Konzept kombiniert unterschiedliche Formen des Feedbacks und bietet darüber hinaus eine statistische Visualisierung dieser Interaktionen.
Somit ermöglicht das Konzept, dass sich jede Zielgruppe gemäß ihrer Fähigkeiten in der Community einbringen kann und Rückmeldung zur Verbesserung der eigenen Fähigkeiten und Steigerung der Beteiligungsbereitschaft erhält.
Soziale Netzwerke nehmen in der Gesellschaft einen immer größer werdenden Stellenwert ein. Bisher beschränkte sich die Nutzung dieser auf zweidimensionale Eingabegeräte wie Tastatur und Maus sowie die mobile Nutzung durch Touchscreen Smartphones. Bis heute existieren noch keine einheitlichen Eingabemethoden und Interaktionselemente für die körpergesteuerte Mensch-Maschine-Kommunikation. Ziel dieser Arbeit ist es, die Machbarkeit einer dreidimensionalen Körpersteuerung für ein soziales Netzwerk mittels eines Natural User Interfaces (NUI) und des Kinect Sensors zu beweisen. Das NUI soll dem Nutzer ein möglichst natürliches Nutzungserlebnis bieten und seinen Anforderungen und Bedürfnissen gerecht werden. Dafür werden die Interaktionen und das NUI speziell für die Körpersteuerung ausgerichtet. Die Machbarkeit des Konzepts wird durch die Erstellung eines interaktiven Prototypen sowie eines Proof-Of-Concept bewiesen.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Planung einer Evaluation mehrerer Mobile Business Intelligence Lösungen für die Landesbank Baden-Württemberg. Die Frage, welche Anforderungen ein Management Cockpit auf Basis mobiler Medien für ein global tätiges Finanzunternehmen erfüllen muss, steht hierbei im Mittelpunkt. Des Weiteren wird der aktuelle Trend von mobilen Business Intelligence Lösungen im Zusammenhang mit mobilen Endgeräten, wie dem Apple iPad, untersucht. Ziel dieser Arbeit ist, anhand einer zuvor erstellten Evaluationsmethode den Auswahlprozess zu planen und anschließend mit Hilfe von empfohlenen Best Practices die Evaluation durchzuführen. Das Ergebnis dieser Arbeit ist neben einer wissenschaftlichen Aufbereitung des Themas Mobile Business Intelligence auch eine Auswahlempfehlung für das geplante mobile Berichtswesen der Landesbank Baden-Württemberg. Die empfohlene Lösung soll nach Abschluss der Arbeit das derzeitige Berichtswesen der LBBW erst unterstützen und dann eventuell ganz ablösen. Eine positive Durchführung würde außerdem die Funktionalität der Evaluationsmethode bestätigen.
Die Aufgabe im Rahmen meiner Diplomarbeit war die Entwicklung einer multimedialen Ausbildungs-CD-ROM für die Wella AG (Darmstadt). Es ist die erste CD-ROM zu dem Buch ‚Gewusst wie’, das bereits in mehreren Auflagen gedruckt worden war und im Friseurhandwerk ein sehr hohes Ansehen genießt. Da dieses Buch überarbeitet und in neuer Auflage gedruckt werden sollte, wollte Wella die neue Auflage mit einer multimedialen Ausbildungs-CD-ROM ausstatten. Meine Arbeiten, die ich bei der von Wella beauftragten Firma BERG Communications (Esslingen) durchgeführt habe, waren die Mitarbeit an der Konzeption des Multimediapakets, bestehend aus Buch und CD-ROM, und die anschließende Programmierung der gesamten ‚Gewusst wie’-CD-ROM. Des Weiteren gehörten zu meinen Aufgaben das Erstellen von Sprachaufnahmen, die Bearbeitung von Fotoaufnahmen, der Neuschnitt von Lehrfilmen und die Leitung der Studenten, die uns bei der Erstellung der insgesamt 408 multimedialen Anleitungen behilflich waren. Da das ‚Gewusst wie’-Buch ebenfalls bei BERG Communications überarbeitet wurde, war ich auch bei der Neugestaltung des Buches intensiv beteiligt. Bis zum Ende meiner Diplomarbeit entstand ein Multimediapaket, in dem das Buch und die neu entwickelte CD-ROM sorgfältig aufeinander abgestimmt wurden, und das - von der Wella AG vervielfältigt - im ersten Quartal 2004 auf den Markt gebracht wird.
Die Firma netads, Frech und Iffland GbR betreibt einen mobilen und webbasierten Service auf PHP/MySQLBasis, den sogenannten SMSmonkey. Für Kunden des SMSmonkeys ist es möglich, anhand einer von netads erstellten JavaMobiltelefonApplikation Textnachrichten per Mobiltelefon zu versenden und zu empfangen. Ziel der Diplomarbeit ist es, den SMSmonkeyService von PHP nach Java zu überführen und eine einfach zu erweiternde Plattform für weitere mobile und webbasierte Dienste zu schaffen. Der Schwerpunkt der Diplomarbeit liegt hierbei auf der Entwicklung der PlattformApplikation, welche als Basis für zukünftige Services der Firma netads dienen soll. Als ReferenzService der Plattform wird der SMSmonkeyService auf der Plattform realisiert. Motivation für die Umsetzung dieses Projekts ist der Wunsch von netads, alle ihre mobilen Services zentral, einfach zu warten und leicht erweiterbar unter einem Dach zusammengefasst zu haben. Dabei sollen die Schwierigkeiten, welche bei größeren Projekten mit der Verwendung von PHP als Programmiersprache auftreten, beseitigt werden, indem eine JavaEnterpriseApplikation entsteht. Als ein Nebenziel ist die möglichst kostengünstige Entwicklung und der Betrieb der Applikation gefordert, was den aussschließlichen Einsatz von freier Software erforderlich macht. Diese zu erstellende Applikation wird „netads MobilePlattform“, kurz nMPlattform genannt.
Diese Diplomarbeit beschäftigt sich mit der Internationalisierung und Lokalisierung von Software. Das Ziel dieser Arbeit war die Realisierung einer Software zur Unterstützung des Übersetzungsprozesses von Sprachressourcen für die IUCCA Anwendung. IUCCA ist ein komplexes webbasiertes Auftragsabwicklungssystem, das europaweit eingesetzt wird. Aufgrund der kontinuierlichen Weiterentwicklung von IUCCA unterliegen auch die Sprachressourcen dieses Systems einem fortlaufenden Übersetzungsprozess. Dieser Prozess erwies sich allerdings als aufwändig und fehleranfällig. Daher wurde im Rahmen dieser Arbeit ein neuer Prozess definiert und eine auf dem Open-Source Framework Struts basierende Anwendung realisiert. Diese Anwendung bildet den neuen Übersetzungsprozess ab und bindet diesen in das eXtreme Programming- Vorgehensmodell der IUCCA-Entwicklung ein. Neben der Analyse der Prozesse wird auch die Realisierung der Anwendung beschrieben. Darüber hinaus wird die bei der Internationalisierung auftretende Zeichensatzproblematik untersucht und der Unicode-Zeichensatz vorgestellt. Weiterhin wird gezeigt, wie die Programmiersprache Java die Internationalisierung von Anwendungen unterstützt.
Die vorliegende Diplomarbeit beschäftigt sich mit der Ablösung eines Generator Frameworks und der Generierung von Artefakten für die Businesslayer einer J2EE-Applikation. Der bestehende Generator sowie die Transformationsabbildungen sollen durch openArchitectureWare 4, einem metamodellbasiertem Generator Framework, ersetzt werden. Mittels des openArchitectureWare Frameworks wird der viel diskutierte Model Driven Architecture (MDA) Ansatz der OMG vorgestellt. Es wird der Unterschied zwischen herkömmlicher Softwareentwicklung und der modellgetriebenen Entwicklung aufgezeigt, sowie alle damit verbundenen Vor- und Nachteile. Es soll gezeigt werden, dass Modelle nicht nur zur Dokumentation dienen, sondern als Code gesehen werden können und sollten. Im Bezug auf die technische Realisierung der MDA werden die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen betrachtet und die eingesetzten Technologien wie z.B. UML, UML–Profile und Meta Object Facility vorgestellt. Außerdem wird ein Ausblick in neue Technologien im Kontext modellgetriebener Architekturen, wie zum Beispiel das Eclipse Modelling Framework (EMF) und das Graphical Modelling Framework (GMF) gegeben. Da die Schwerpunkte der Diplomarbeit auf der von BMW verwendeten Architekur für verteilte Applikationen sowie der Generatormigration liegen, wird die Architektur und der Generator von BMW im Aufbau sowie der Funktionsweise näher betrachtet. Die von BMW eingesetzte Architektur „Component Architecture 2.0“ ist eine komponentenbasierte Architektur, welche bei BMW entwickelt wurde und projektübergreifend zum Einsatz kommt. Des Weiteren liegt der Diplomarbeit das PEP-PDM Projekt, das bei BMW zurzeit durch Softlab realisiert wird, zugrunde. Durch PEP-PDM wird bei BMW eine zentrale Datenreferenz über den gesamten Entstehungsprozess eines Produktes erreicht. Das gesamte Wissen über ein Fahrzeug mit allen Daten des Entstehungsprozesses wird an einer zentralen Stelle zusammengeführt und dadurch, zu jedem Zeitpunkt, der aktuelle Stand im Entwickluingsprozess eines Fahrzeuges bekannt. Durch die Migration auf openArchitectureWare, dem Open Source Generator Framework und dem dazugehörigen Vorgehensmodell der generativen Entwicklung, werden die eingesetzten Technologien des Frameworks und deren Möglichkeiten wie Templates, Extensions und Modellvalidierung erläutert. Die Technologien und Designentscheidungen werden an der Transformation eines bestehenden Platform Independent Model (PIM) des Projektes PEP-PDM näher betrachtet und erläutert. Die Transformationsabbildungen für das PEP-PDM PIM basiert auf der von BMW eingestzten Component Architecture 2.0 und der Enterprise Technolgie J2EE. Ein Benefit der Diplomarbeit ist die Evaluierung des Graphical Modeling Framework von Eclipse. Dies beinhaltet implizit den Einsatz des Eclipse Modeling Framework (EMF) als Design Sprache für die Anwendung und das Metamodell. Mit diesen Technologien könnte zukünftig die Möglichkeit bestehen vom Erstellen der domänenspezifischen Sprache (Metamodell), über das Anwendungsdesign (PIM), bis hin zur Transformation und Implementierung alles in einem Entwicklungstool (Eclipse) zu bearbeiten. Abschließend werden die gewonnenen Erkenntnisse und Erfahrungen bezüglich der MDA unter Verwendung von openArchitectureWare zusammengetragen und bewertet.
Das Heimnetz diente früher lediglich der Vernetzung der im Haushalt vorhandenen Desktop PCs und Notebooks. Durch die stetig voranschreitende technische Entwicklung findet man im heutigen Heimnetz jedoch eine Fülle an Geräten aus den verschiedensten Branchenbereichen. Neben Handys und Fernsehern können auch Waschmaschinen und Kühlschränke sowie Heizungs- und Beleuchtungsanlagen mit dem Heimnetz verbunden werden und eröffnen dem Anwender so eine Vielzahl neuer Möglichkeiten. Für die Bereitstellung dieser neuen Funktionalitäten benötigen die Geräte immer komplexere Software, die bei der Inbetriebnahme der Geräte im Heimnetz eingerichtet, konfiguriert und später ggf. überwacht werden muss. Dies ist bei der Vielzahl an Geräten vom Anwender nicht mehr zu leisten und muss somit automatisiert von einem Service Provider übernommen werden. Um dem Service Provider die entfernte Konfiguration der Geräte zu ermöglichen, werden Protokolle benötigt, die ihm den Zugriff auf die Geräte des Heimnetzes erlauben. Dabei gibt es für verschiedene Gerätetypen unterschiedliche Protokolle, von denen die zwei bedeutendsten – TR-069 und OMA DM – in dieser Arbeit ausführlich analysiert werden. Die Vielfalt an Auto-Konfigurationsprotokollen erschwert dem Service Provider die automatisierte Konfiguration möglichst vieler Geräte im Heimnetz des Anwenders. In dieser Diplomarbeit wird deshalb ein Auto-Konfigurationsszenario entwickelt, bei dem die verschiedenen Auto-Konfigurationsprotokolle mit Hilfe semantischer Modelle beschrieben werden. Dies ermöglicht dem Service Provider, Geräte ohne großen Aufwand mit beliebigen Protokollen zu konfigurieren und erleichtert so dem Anwender den Umgang mit seinen im Heimnetz vorhandenen Geräten. Die Umsetzbarkeit des in dieser Diplomarbeit konzipierten Szenarios wird durch die Realisierung eines auf Semantic Web Services basierenden Prototypen überprüft.
Über 90 % der umlaufenden PDF-Dokumente sind zumindest teilweise unzugänglich. Aus diesem Grund hat Adobe eine künstliche Intelligenz (KI) entwickelt, die automatisch Tags in PDF-Dokumente setzt, um sie barrierefreier zu gestalten.
Um dies zu überprüfen, wurde in unserer Bachelorarbeit die barrierefreien PDF-Dokumente nach dem Standard PDF/UA (DIN ISO 14289-1:2016-12) untersucht. Wir verwendeten für die Ermittlung des PDF/UA Standards das Matterhorn Protokoll. Für den Versuch erstellten wir PDF-Dokumente, die die Fehlerbedingungen des Matterhorn Protokolls und den Richtlinien von PDF/UA verstoßen.
Unsere Ergebnisse zeigen, dass 37 % der Fehler vom Matterhorn Protokoll behoben wurden, während 42 % nicht behoben wurden. Die restlichen 21 % der Fehler konnten von der KI technisch nicht gelöst werden, da sie nicht dafür entwickelt wurde. Zu den 21 % gehören auch Fehler, die technisch nicht von uns umgesetzt werden konnten oder nicht den heutigen Standards angepasst worden sind.
Wenn die manuellen Fehler von den maschinellen Fehlern in der Gesamtstatistik getrennt werden, dann konnte die KI 46 % der manuellen Fehlerbedingungen beheben. Bei den maschinellen Fehlerbedingungen konnten 32 % gelöst werden.
Anhand der Ergebnisse kann erkannt werden, dass die bearbeiteten PDFs nicht PDF/UA Standard entsprechen. Zudem konnte die KI in der Auswertung die Fehler in den PDFs nicht zuverlässig beheben und erkennen. Während der Untersuchung konnten wir außerdem inhaltliche Veränderungen feststellen und zusätzlich generierte sie auch neue Fehler.
Obwohl es nicht den PDF/UA Standard entspricht, konnten 46 % der manuellen Fehlerbedingungen des Matterhorn Protokolls gelöst werden. Dieses Ergebnis ist beeindruckend, weil die manuellen Fehler zurzeit nur von Menschen behoben werden können. Mit ausreichenden Optimierungen kann diese KI-Technologie in Zukunft als hilfreiches Werkzeug für die Gestaltung von barrierefreien PDF-Dokumenten verwendet werden.
Die vorliegende Arbeit versucht, die Eignung von Java Sound als Basisplattform für die Entwicklung studiotauglicher Audioanwendungen zu evaluieren. Dafür werden die Besonderheiten der Audioprogrammierung mit Sampling- und MIDI-Daten erarbeitet und daraus Anforderungen an Audiosoftware für den Studiobereich abgeleitet. Es wird kritisch überprüft, inwieweit Java und Java Sound theoretisch geeignet sind, diese Anforderungen zu erfüllen. Gegenstand der Überprüfung ist dabei sowohl das Java Sound API als auch dessen Implementierungen. Im praktischen Teil werden zwei Sampleeditoren und einige PlugIns entwickelt, um aus der praktischen Erfahrung weitere Ergebnisse zu gewinnen. Abschließend wird eine Gesamtbewertung der Studiotauglichkeit von Java Sound vorgenommen und ein Zukunftsausblick gegeben.
Integrationsmöglichkeiten einer Swing-Anwendung in Eclipse am Beispiel des abaXX Process Modelers
(2006)
Das Eclipse-Framework hat sich in den letzten Jahren als Entwicklungsumgebung und Plattform für Tool-Integration etabliert. Immer mehr bekannte Firmen wie BEA, IBM und Nokia integrieren ihre Anwendungen in dieses Framework. Eclipse bietet hierfür ein modulares System an, das auf einfache Weise erweitert werden kann. Die vorliegende Diplomarbeit beschäftigt sich mit der Integration von Anwendungen in die Eclipse-Plattform. Hauptsächliches Augenmerk liegt dabei auf der Integration vorhandener Swing-Applikationen in das Framework. Grundlage hierfür bildet der Process Modeler, eine Swing-Applikation von der abaXX Technology AG zum Modellieren von Geschäftsprozessen. Aufbauend auf den theoretischen Grundlagen und der Motivation für eine Integration werden zuerst der Process Modeler und das Eclipse Framework sowie einige weitere verwendete Technologien analysiert. Ziel ist die Untersuchung von Integrationsmöglichkeiten in das Eclipse Framework und das Aufstellen eines konkreten Integrationsszenarios für den Process Modeler, sowie die Erstellung eines ersten Prototypen.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
Nach dem ersten Kapitel, welches der Einleitung und Heranführung an das Thema dient, wird im folgenden zweiten Kapitel ein Überblick über die geschichtliche Entwicklung von GUIs in Spielen folgen. In diesem Rahmen soll auch erörtert werden, welche Formen von GUIs in Spielen existieren, und wie diese definiert werden. Außerdem umfasst das zweite Kapitel eine Analyse, welche Gemeinsamkeiten Oberflächen in herkömmlichen Anwendungsprogrammen und Spielen aufweisen. Auf die spezifischen Anforderungen die an GUIs in Spielen gestellt werden, wird ebenfalls eingegangen werden. Das dritte Kapitel widmet sich der Programmierung von GUIs. Hierbei wird darauf eingegangen werden, warum existierende Programmiertoolkits wie MFC, Java, oder QT, für die Erstellung von GUIs in Computerspielen unzureichend sind. Weiterhin werden in diesem Kapitel die einzelnen Teile, aus denen ein GUIs zusammensetzt ist, behandelt. Deren Umsetzung wird anhand des im Praxisteil erstellten Toolkits erörtert. Kapitel vier widmet sich der konkreten Einbindung und Verwirklichung der GUI Elemente in einem Spiel. Neben allgemeinen Ansätzen werden Beispiele anhand des im Praxisteil erstellten Prototyps „Sweeper“ behandelt. Das fünfte und letzte Kapitel soll schließlich ein Resumé enthalten und wagt einen kleinen Ausblick in die Zukunft.
By now GPUs have become powerful general purpose processors that found their way not only into desktop systems but also supercomputers. To use GPUs efficiently one needs to understand their basic architecture and their limitations. We take a look at how GPUs evolved and how they differ from CPUs to gain a deeper understanding of the workloads well suited for GPUs.
Die vorliegende Diplomarbeit beschäftigt sich mit der Generierung der Präsentationsschicht einer J2EE-Applikation unter Einsatz von Apache Struts. Der vieldiskutierte Ansatz der Object Management Group (OMG) - Model Driven Architecture - wird vorgestellt und unter Zuhilfenahme von open ArchitectureWare, einem metamodellbasierten Generator Framework, wird aufgezeigt, wie sich modellbasierte Entwicklung von der herkömmlichen Softwareentwicklung unterscheidet und welche Vor- und Nachteile sich daraus ergeben können. Im Bezug auf die technische Realisierung der MDA werden zum einen die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen und deren Transformationen nach der MDA Spezifikation der OMG erläutert, und zum anderen werden die eingesetzten Basistechnologien, wie zum Beispiel UML, inklusive der Erweiterungsmöglichkeit über UML-Profile, Meta Object Facility (MOF) und XML Metadata Interchange (XMI), vorgestellt. In diesem Zusammenhang werden auch mögliche pragmatische Interpretationen der MDA diskutiert. Darüber hinaus werden die Technologien, die bei der Entwicklung der Präsentationsschicht im Einsatz sind, Apache Struts und Tiles, näher betrachtet. Ein zentraler Bestandteil der Diplomarbeit besteht aus der Beschreibung der Funktionsweise von open ArchitectureWare, dem opensource Generator Framework, und dem dazugehörigen Vorgehensmodell der generativen Entwicklung. Schlussendlich werden die einzelnen Schritte, die während der Umsetzung vonnöten waren, anhand der Generierung der Präsentationsschicht einer dreischichtigen J2EE-Anwendung zur Verwaltung von Stammdaten, exemplarisch erläutert. Wesentliche Punkte während der Entwicklung, wie zum Beispiel Metamodellierung, plattformunabhängiges Design oder Template-Entwicklung werden am konkreten Projektbeispiel aufgezeigt. Nach erfolgreicher Generierung der Stammdatenanwendung wurde das Ergebnis der Diplomarbeit an einem weiteren Projekt namens BONSAI (Bonus Applikation International) erprobt. Im letzten Teil der Diplomarbeit werden die gewonnenen Erfahrungen bezüglich der aktuellen MDA-Entwicklung zusammengetragen und bewertet.
In London, New York oder San Francisco, aber auch in Berlin, Wien oder Zürich blühen drahtlose freie Bürgernetze auf. Die Wavelan-Technik zur Übertragung von Daten per Funk ermöglicht es, eigene Netze aufzubauen, in denen zu vergleichsweise geringen Kosten große Bandbreiten genutzt werden können. Die internationale Free-Network-Bewegung entstand, als die New Economy gerade in die Krise rutschte. Die Nachbarschaftsnetze auf WLAN-Basis bieten sich als Alternative zum kommerziellen Providermodell an. Anstatt die Nutzerinnen in die Rolle von Konsumenten zu zwängen, werden sie in diesen Netzen als gleichberechtigte Partner behandelt, als Anbieter von Information ebenso wie als Nutzer. Mittels des PicoPeering-Abkommens zu freien Datentransit wird der Datenaustausch zwischen den einzelnen unabhängigen Funknetzknoten geregelt. Allein in Großbritannien gibt es bereits über 3000 frei nutzbarer Hotspots, die von Netzwerkenthusiasten zum Wohle der Allgemeinheit bereitgestellt werden, und die weit bessere Bandbreiten als die UMTS-Netze bieten, was z.B. auch die Übertragung von Audio und Video mittels Laptop ermöglicht. Das rasche Wachstum der freien Bürgernetze hat manche ermutigt, bereits übereilt das Ende der Telekommunikationsindustrie zu prophezeien. Armin Medosch beschreibt die Entwicklung der Szene aus einer Nahperspektive: Woher stammt die Motivation, was wurde bisher geleistet, was sind die Ziele? Das Buch verfolgte den Aufbau freier drahtloser Netze in den Großstädten, auf dem Land und in Entwicklungsregionen. Medienpolitische Implikationen im Bereich der Regulierung des elektromagnetischen Spektrums, historische Vorläufer und Parellelen (Bürgernetze, Mailboxen), freie Software und freie Hardware kommen dabei ebenso zur Sprache wie die Auswirkungen auf die Medienfreiheit und die Freiheit der Kommunikation.
Diese Arbeit beginnt mit der allgemeinen Beschreibung von Adventure Games. Es werden hier zahlreiche Begriffe, die im späteren Verlauf der Arbeit wiederkehrend verwendet werden, näher erläutert. Nach einer Übersicht über die Historie, folgt eine Untersuchung der Struktur und des dahinter liegenden Regelwerks der Adventure Games. Abschließend folgt im Kapitel 2 eine Untersuchung einiger auf dem Markt befindlicher Autorensysteme. Nachfolgend sollen die Grundlagen beschrieben werden, die zur Herleitung der Architektur führen. Hierzu werden Konzepte aus den Bereichen Storytelling, Maschine-Mensch-Kommunikation und virtuelle Welten herangezogen, um so möglichst viele Aspekte zu vereinen. In Kapitel 4 sollen die Konzepte zusammenfließen und eine Einheit bilden. Die entstandene Architektur soll in ihren Grundzügen erläutert und die erwendungsweise dargelegt werden.
Die Entwicklung von mobilen Anwendungen und Web-Anwendungen ist aufgrund der großen Zahl von Zielplattformen aufwendig. Gegenstand dieser Arbeit ist die Evaluation von Technologien zur Erstellung von mobilen und Web-Anwendungen aus derselben Codebasis mit Hilfe von Webtechnologien und die Erweiterung der JavaScript-Syntax durch Transpiler. Dabei wird das Ziel verfolgt, Anwendungen aus Perspektive der Wartbarkeit zu konstruieren. Der Begriff der Wartbarkeit im Rahmen der Softwareentwicklung wird geklärt und bildet zusammen mit einem Anforderungskatalog eine Liste von Kriterien, welche zur Auswahl einer geeigneten Technologie verwendet wird. Es wird eine prototypische Anwendung implementiert, anhand der die ausgewählte Technologie hinsichtlich ihrer Eignung evaluiert wird.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
Die technische Infrastruktur in Client/Server Architekturen großer verteilter Anwendungen basiert oftmals auf mehreren Schichten mit immer wiederkehrenden Mustern, als Beispiel sei hier im Besonderen die Komponentenarchitektur von J2EE zu nennen. Die Implementierung dieser Infrastruktur nimmt viel Zeit in Anspruch und steht in den meisten Fällen in keinem Verhältnis zu ihrer intellektuellen Herausforderung an die Entwickler. Hier liegt es nahe, solcherlei Aufgaben durch einen generativen Ansatz zu lösen. Von vielen Ansätzen hat in den letzten Jahren der von der Object Management Group (OMG) spezifizierte Model Driven Architecture (MDA) Ansatz ein großes Interesse in der Fachwelt hervorgerufen, der über die reine Generierung von Code hinausgeht und gar eine Revolution in der Software-Entwicklung auslösen soll. Die Diplomarbeit beschäftigt sich zunächst mit den Spezifikationen, die MDA zugrunde liegen und führt dann über die Basistechnologien wie J2EE und der BMW Component Architecture zum Einsatz eines MDA konformen Generator-Frameworks, mit dessen Hilfe der praktische Einsatz getestet werden soll. Die Diplomarbeit beschreibt die Anpassung und die Möglichkeiten des Frameworks und setzt sie anhand zweier praktischer Beispiele aktueller Software-Projekte der Softlab GmbH im Bereich Supply Chain Management (SCM) ein. Ein Rückblick zum Ende der Diplomarbeit setzt sich mit den aufgetretenen Problematiken und Fallstricken, aber auch den Chancen von MDA kritisch auseinander und bewertet deren praktischen Nutzen. Der anschließende Ausblick gibt die persönliche Einschätzung des Autors über die zukünftige Entwicklung von MDA wieder und stellt einige weiterführende Ideen für Diplomarbeits-Themen vor.
Thema der vorliegenden Diplomarbeit ist der Entwurf einer Integrationsschnittstelle für Content-Management-Systeme basierend auf dem Datenmodell BMF. Konkret soll für das Content-Management-System (CMS) des Bayerischen Rundfunks (BR) eine Softwareschnittstelle entworfen werden, die auf dem Datenmodell Broadcast Metadata exchange Format (BMF) basiert. Die Schnittstelle soll Daten aus dem CMS ausgeben und in die BMF-Struktur transformieren. Das CMS des BR beinhaltet u.a. Metadaten der Fernsehproduktionsumgebung (z.B. den Namen eines beteiligten Kameramanns oder den technische Aufbau einer Sendung) in einer nicht veröffentlichten Datenstruktur. Bekannt ist, daß diese Struktur auf FESAD, der Fernseharchivdatenbank der öffentlich-rechtlichen Rundfunkanstalten, basiert, und daß CMS-Daten über das proprietäre AXF-Format ausgetauscht werden können. Um einen standardisierten Metadatenaustausch zwischen Rundfunkanstalten und Applikationen (z.B. Schnittsystemen) zu erm¨oglichen, wurde das Datenmodell BMF entwickelt, das die Struktur von Metadaten der Fernsehproduktion festlegt. Für BMF ist diese Diplomarbeit ein erster Praxistest. Zunächst wurden objektive Anforderungen an die Schnittstelle gesammelt und der tatsächliche Informationsgehalt von FESAD mit dem des CMS verglichen, da dessen Datenstruktur wie erwähnt nicht veröffentlicht ist. Insgesamt zeigte sich eine große Übereinstimmung beider Modelle, es gab jedoch auch Unterschiede. Diese Arbeit behandelt daher nicht nur die Abbildung des unternehmensinternen BR-Datenmodells auf BMF, sondern auch die des ARD-weiten Datenmodells FESAD. Nach Abgrenzung des abzubildenden Informationsgehaltes wurde geprüft, inwiefern sich dieser im derzeit aktuellen BMF-Klassenmodell wiederfindet. Im Zuge dessen wurden einige BMF-Pakete neu modelliert. Der letztendliche Entwurf der Schnittstelle umfasst die Spezifikation von Zugriffsmethoden und die Datentransformation von CMS- bzw. FESAD-Daten auf BMF. Als Ergebnis dieser Arbeit kann festgehalten werden, daß die vom BR gestellten Anforderungen an die Schnittstelle erf¨ullt und das BR-Datenmodell bzw. FESAD auf BMF abgebildet werden konnten. Dieser Diplomarbeit kann nun eine Implementierung der Schnittstelle folgen.