004 Informatik
Refine
Year of publication
Document Type
- Diploma Thesis (38)
- Bachelor Thesis (18)
- Master's Thesis (3)
- Book (1)
- Study Thesis (1)
Language
- German (61) (remove)
Is part of the Bibliography
- no (61)
Keywords
Institute
- Medieninformatik (Bachelor, Diplom) (27)
- Audiovisuelle Medien (Bachelor, Diplom) (11)
- FB 1: Druck und Medien (8)
- Computer Science and Media (Master) (3)
- Mediapublishing und Verlagswirtschaft (Diplom) (2)
- Wirtschaftsinformatik (Bachelor) (2)
- Bibliotheks- und Medienmanagement (Bachelor, Diplom) (1)
- FB 2: Electronic Media (1)
- FB 3: Information und Kommunikation (1)
- Informationsdesign (Bachelor, Diplom) (1)
Ab Mitte 2025 wird das Barrierefreiheitsstärkungsgesetz viele Unternehmen in Deutschland dazu verpflichten, ihre Websites und Online-Shops barrierefrei zu gestalten. Sie stehen vor der Herausforderung, die Barrierefreiheit künftig in den Entwicklungsprozess ihrer digitalen Plattformen zu integrieren.
Um dies zu erleichtern, entwarfen wir im Rahmen dieser Arbeit einen Entwicklungsprozess für barrierefreie Webanwendungen in Scrum, der in einem Experiment mit anschließender heuristischer Evaluation und einer Befragung in einem E-Commerce-Unternehmen validiert wurde. Der Entwicklungsprozess befasst sich mit der Einbeziehung von Barrierefreiheit in Scrum-Elemente wie Product Backlog Items, die Definition of Ready und Definition of Done. Außerdem zeigt er bewährte Praktiken für die Implementation und das Testen von Barrierefreiheit auf.
Die Ergebnisse zeigten, dass die Erfassung von Barrierefreiheitsanforderungen in Form von Gherkin-Szenarien zu einer schnelleren Bearbeitung von Aufgaben und höheren Zufriedenheit mit dem Entwicklungsansatz im Scrum-Team beiträgt. Ferner wurde deutlich, dass die Schulung des Personals unerlässlich ist, um die Anforderungen der EN 301 549 und der WCAG vollständig zu erfüllen.
Diese Arbeit macht deutlich, dass Unternehmen zeitnah Maßnahmen ergreifen müssen, um das Barrierefreiheitsstärkungsgesetz rechtzeitig umsetzen zu können.
Über 90 % der umlaufenden PDF-Dokumente sind zumindest teilweise unzugänglich. Aus diesem Grund hat Adobe eine künstliche Intelligenz (KI) entwickelt, die automatisch Tags in PDF-Dokumente setzt, um sie barrierefreier zu gestalten.
Um dies zu überprüfen, wurde in unserer Bachelorarbeit die barrierefreien PDF-Dokumente nach dem Standard PDF/UA (DIN ISO 14289-1:2016-12) untersucht. Wir verwendeten für die Ermittlung des PDF/UA Standards das Matterhorn Protokoll. Für den Versuch erstellten wir PDF-Dokumente, die die Fehlerbedingungen des Matterhorn Protokolls und den Richtlinien von PDF/UA verstoßen.
Unsere Ergebnisse zeigen, dass 37 % der Fehler vom Matterhorn Protokoll behoben wurden, während 42 % nicht behoben wurden. Die restlichen 21 % der Fehler konnten von der KI technisch nicht gelöst werden, da sie nicht dafür entwickelt wurde. Zu den 21 % gehören auch Fehler, die technisch nicht von uns umgesetzt werden konnten oder nicht den heutigen Standards angepasst worden sind.
Wenn die manuellen Fehler von den maschinellen Fehlern in der Gesamtstatistik getrennt werden, dann konnte die KI 46 % der manuellen Fehlerbedingungen beheben. Bei den maschinellen Fehlerbedingungen konnten 32 % gelöst werden.
Anhand der Ergebnisse kann erkannt werden, dass die bearbeiteten PDFs nicht PDF/UA Standard entsprechen. Zudem konnte die KI in der Auswertung die Fehler in den PDFs nicht zuverlässig beheben und erkennen. Während der Untersuchung konnten wir außerdem inhaltliche Veränderungen feststellen und zusätzlich generierte sie auch neue Fehler.
Obwohl es nicht den PDF/UA Standard entspricht, konnten 46 % der manuellen Fehlerbedingungen des Matterhorn Protokolls gelöst werden. Dieses Ergebnis ist beeindruckend, weil die manuellen Fehler zurzeit nur von Menschen behoben werden können. Mit ausreichenden Optimierungen kann diese KI-Technologie in Zukunft als hilfreiches Werkzeug für die Gestaltung von barrierefreien PDF-Dokumenten verwendet werden.
Diese Arbeit stellt aktuell verfügbare Prüf-Tools auf Erfolgskriterium 1.3.5 der Web
Content Accessibility Guidelines 2.1 (WCAG) zusammen und vergleicht diese miteinander.
Der Vergleich zeigt, dass die derzeitigen Test-Anwendungen nicht ausreichend
in ihrem Vorgehen und ihrer Funktionalität sind. Die Prüferinnen und Prüfer müssen
dabei immer selbst beurteilen, ob der autocomplete-Attributs-Wert korrekt und
erforderlich ist.
Das im Zuge dieser Arbeit programmierte Autocomplete-Check-Plugin ist den aktuellen
Prüf-Tools vor allem durch das Alleinstellungsmerkmal der heuristisch getroffenen
autocomplete-Vorschläge überlegen und unterstützt und komplementiert den
Prüfvorgang somit bestens. Die wichtigsten Komponenten des Plugins werden vorgestellt
und deren Implementierung erläutert. Außerdem werden die methodischen
Vorgehensweisen, die in dieser Arbeit angewendet wurden, behandelt. Die Validierung
des Plugins wurde anhand vorher unbekannter Test-Webseiten durchgeführt, sie bescheinigt
dem Autocomplete-Check-Plugin eine hohe Genauigkeit bei der Vorhersage
von autocomplete-Werten, damit ist es hervorragend geeignet, Webseiten auf das Erfolgskriterium
1.3.5 zu untersuchen. Das Plugin wird unter der MIT-Lizenz auf Github
veröffentlicht.
Um Websites für jeden Menschen ohne Einschränkungen verfügbar zu
machen, wurden auf nationaler sowie internationaler Ebene Gesetze und Normen verabschiedet, welche die Barrierefreiheit für Internetauftritte anhand festgelegter Richtlinien
wahren sollen. Zur Einhaltung dieser Richtlinien wurden Prüfverfahren entwickelt, die anhand unterschiedlicher Evaluationsmethoden den Grad der Zugänglichkeit von Webseiten
und ihren Inhalten bewerten. Zwei dieser Prüfverfahren sind der Barrierefreiheitscheck-Web sowie der BIK BITV-Test. Für die manuelle Durchführung der Tests wird üblicherweise
eine repräsentative Stichprobe der Website erstellt und das Ergebnis der Prüfung auf die
Stichprobe für die gesamte Website generalisierend angenommen. Die Erstellung der Seitenauswahl ist bei umfangreichen Websites jedoch mit großem Aufwand verbunden und
soll im Zuge dieser Arbeit mit Hilfe einer serverseitigen Web-Anwendung automatisiert
werden.
Dazu wurden verschiedene existierende Stichprobenverfahren und Crawling-Methoden
analysiert und anschließend für die Eignung der technischen Umsetzung eingeordnet. Im
Rahmen der Arbeit wird ein eigener Ansatz für die automatisierte Seitenauswahl präsentiert, der auf dem HTML class-Attribut basiert. Dieser Ansatz nutzt die Eigenschaft von
Klassennamen aus, den Namen des Strukturelements zu beinhalten. Dadurch zielen wir
darauf ab, wichtige Inhalte der zu prüfenden Website zu erfassen und diese Informationen als Grundlage für die Auswahl der Stichprobe zu nehmen.
Die Evaluation wurde durch den Vergleich der generierten Liste unserer Anwendung von
drei ausgewählten Webseiten, mit der von Experten des Kompetenzzentrums Digitale
Barrierefreiheit der HdM erstellten Liste, durchgeführt. Die Ergebnisse zeigten, dass unsere Anwendung eine Liste von Seiten generieren konnte, die ein breites Spektrum an
Inhalten abdeckte, jedoch begrenzte Fähigkeiten hatte, der Liste der Experten zu gleichen
und daher in der aktuellen Version für den Barrierefreiheitscheck-Web nicht als alleinstehendes Tool geeignet ist.
Die vorliegende Arbeit befasst sich mit dem Thema A/B Testing, insbesondere im Kontext der Optimierung der User Experience in Onlineshops. In einer quantitativen empirischen Untersuchung, die in Zusammenarbeit mit der DRIP AGENCY und SNOCKS durchgeführt wurde, wurden zwei A/B-Test-Methoden – Fixed-Horizon Tests und sequentielle Tests – anhand von drei spezifischen Testideen in realen Onlineshop-Szenarien angewendet und auf ihre Effektivität verglichen sowie bewertet. Die Ergebnisse zeigen signifikante Unterschiede in der Performance und liefern daraus resultierende Empfehlungen für Onlineshops. Diese Erkenntnisse bieten Unter-nehmen, die mit den beiden A/B-Test-Methoden ihre UX optimieren und dadurch ihre Conversion Rates steigern möchten, wertvolle Einblicke. Dabei wird auch die Barrierefreiheit als ein zentrales und immer relevanter werdendes Thema hervorgehoben, um sicherzustellen, dass alle Nutzer eine zugängliche und positive Shopping-Erfahrung erleben können.
Die Nachfrage an Videospielen ist in den letzten Jahren stark gestiegen,
während weniger als die Hälfte der Entwickler angeben, dass
Barrierefreiheitsmaßnahmen in aktuellen Projekten integriert werden.
Werkzeuge und Richtlinien sind hilfreich bei der Implementierung von
barrierefreien Videospielen. Weitere Referenzen werden jedoch benötigt, um
auf die Barrierefreiheit aufmerksam zu machen.
Diese Arbeit ermittelt die Auswirkungen eines Serious Games auf blinde und
sehende Spieler. Schwerpunkt ist die Implementierung von Maßnahmen für
blinde Spieler. Anhand einer Analyse von ausgezeichneten Videospielen und
Filterung der Xbox Accessibility Guidelines, wurde „Sensory“ entwickelt. Das
Spiel wurde durch eine Benutzerstudie mit 11 Teilnehmern validiert. Während
der Benutzerstudie wurde das Spiel getestet und dadurch wurden Usability-
Probleme entdeckt. Anhand der Benutzerstudie konnte der Spielspaß und
Lerneffekt bestätigt werden.
Die Auswertung der Studie zeigt, dass Geräusche und Vibrationen den
Spielspaß für blinde Spieler positiv beeinflussen. Die Steuerung und fehlenden
Einstellungen wirken sich negativ aus. Außerdem erhalten sehende Spieler
einen Einblick in die barrierefreie Entwicklung von Videospielen und dadurch
wird die Empathie für Barrierefreiheit gesteigert.
This paper deals with the contrast modes of the operating systems Windows, Mac OS, IOS and Android. The various effects, of web browsers and operating systems, on the implementation of contrast modes, are analysed and documented. This is done using a test website created for this purpose, which combines different definitions for fore- and background colors.
Based on the results, own bookmarklets are developed. These, simulate the selected contrast modes from the Windows system, during the implementation in the web brow-sers Google Chrome, Mozilla Firefox and Microsoft Edge.
The work aims to facilitate the creation of barrier-free(accessible) websites. This is at-tempted by implementing checks for sufficient contrast between the font and the back-ground, as well as the effects in different web browsers, during their development or a subsequent test.
To conclude, there is a recommendation on how to best define the fore- and background colours for websites in order to achieve the minimum contrast according to WCAG 2.1, even when using the operating system's own contrast modes.
Anhand der Ergebnisse werden eigene Bookmarklets entwickelt, die die ausgewählten Kontrastmodi aus dem Windowssystem in der Umsetzung in den Webbrowsern Google Chrome, Mozilla Firefox und Microsoft Edge simulieren.
Die Arbeit soll dazu beitragen, das Erstellen von barrierefreien Websites zu erleichtern, indem schon während ihrer Entwicklung oder einem nachfolgenden Test auf ausrei-chend Kontraste zwischen der Schrift und dem Hintergrund und Auswirkungen in ver-schiedenen Webbrowsern geprüft werden kann.
Abschließend gibt es eine Handlungsempfehlung, wie die Vorder- und Hintergrundfar-ben für Websites am besten zu definieren sind, damit sie auch bei Anwendung der Be-triebssystem eigenen Kontrastmodi möglichst das Minimum an Kontrast nach den Vor-gaben WCAG 2.1 erreichen.
Der Schlaganfall ist die relevanteste Ursache bleibender Behinderungen im Erwachsenenalter. Eine häufige Beeinträchtigung der Patienten ist insbesondere die Lähmung eines Arms. Um die Funktion desselben wieder teilweise zurückzuerlangen, müssen Betroffene auch zu Hause regelmäßige Rehabilitationsübungen ausführen. Allerdings empfinden sie diese als langweilig und verlieren schnell die Motivation daran.
Gamification, also die Nutzung von Spielelementen in einem nicht-spielerischen Kontext, kann nachweislich dabei helfen, profane Aufgaben aufzuwerten und langfristige Verhaltensänderungen zu forcieren. Um bestmöglich zu funktionieren muss die Gamification sich an die jeweilige Zielgruppe, deren Vorlieben und Bedürfnisse anpassen. Bei der Zielgruppe der Schlaganfallbetroffenen handelt es sich um ältere Menschen, die körperlich eingeschränkt sind, ein geringes Technikverständnis haben, denen soziale Kontakte wichtig sind, die sich jedoch durch kompetitive Handlungen schnell demotiviert fühlen.
Soziale Mechaniken sind vielversprechende Motivationsmechanismen, die allerdings bisher nur wenig Anwendung in der Gamification finden. Für die gegebene Zielgruppe haben sie eine noch höhere Relevanz und eignen sich daher gut, sofern auf kompetitive Elemente verzichtet wird. Reziproke Handlungen wie das Senden und Empfangen von Geschenken und Nachrichten konnten in dieser Arbeit als geeignete Motivatoren herausgearbeitet werden.
Dafür wurden eine Literaturrecherche zur Funktionsweise der Gamification und eine Zielgruppenanalyse durchgeführt, mögliche Mechaniken anhand von Beispielen betrachtet und frühe Konzepte mit Experten der Gamification evaluiert. Auf Basis der erlangten Erkenntnisse konnte die bestehende gamifizierte Rehabilitationsanwendung “Subliminal Home Rehab” um neue, motivierende Mechaniken erweitert werden, die von Repräsentanten der Zielgruppe positiv validiert wurden.
Der Traum von adaptiven und personalisierten Computerlernsystemen, welche die Lehrkräfte von langweiligen und mühseligen Arbeiten befreien sollen, beschäftigt die Forschung schon seit den 1920er Jahren. Jüngste Bemühungen setzen sich vor allem mit dem Personalisieren von Lernpfaden auseinander. Das Ziel dieser Bachelorthesis ist die Implementation einer adaptiven Erweiterung in ein bestehendes Lernmanagementsystem namens "Schule 4.0", sodass dadurch individueller auf die Bedürfnisse des Lernenden eingegangen werden kann. Hierfür wird ein Überblick über das Themenfeld des adaptiven Lernens gegeben, sowie die Verfahren und Funktionsweise adaptiver Lernsysteme erklärt. Weiter werden Verfahren zur Generierung von adaptiven Lernpfaden vorgestellt und der "State of the Art" von Lernpfade Editoren untersucht. Basierend auf diesen Erkenntnissen wird ein Konzept für einen grafischen Lernpfade Editor zum Erstellen adaptiver Lernpfade erstellt und systematisch mit Vorgehensmodellen aus dem Software Engineering in das bestehende System implementiert. Mithilfe der Implementation werden Beispielszenarien konstruiert und durch Experten der Pädagogik in einer Fokusgruppe evaluiert. Das Ergebnis dieser Arbeit ist ein grafischer Lernpfade Editor für "Schule 4.0", welcher in vielen Szenarien pädagogisch sinnvoll eingesetzt werden kann.
ReMotion ist ein Team der grow platform GmbH, welches die besonderen Herausforderungen der Nutzer und potenziellen Kunden des modernen Fitnesstrainings mit einer innovativen Geschäftsidee lösen will. Dazu soll ein effizientes Training geschaffen werden, das an den individuellen Leistungsstand der Nutzer angepasst ist und ein hohes Erlebnispotenzial bietet. Mithilfe einer firmeninternen und eigens dafür entwickelten Bewegungsplattform, einem Fahrrad-Ergometer als erstes Trainingsgerät, sowie in zusätzlicher Kombination mit Gamification und Technologien, die das Eintauchen in die virtuelle Realität ermöglichen, soll so der Fitnesssport der Zukunft technologisch revolutioniert werden.
Mit dem Ziel, die durch Kundenbefragungen identifizierten Herausforderungen von fehlendem Spaß und fehlender Motivation zu untersuchen, behandelt die vorliegende Arbeit das Thema Gamification in Bezug auf die Tätigkeit des hochintensiven Intervalltrainings auf einem realen, stationären Fahrradprototyp in der virtuellen Realität. Anhand eines User-Centered Design-Ansatzes und mehreren iterativen Entwicklungs-schritten wird das Konzept einer VR-Fitnesstraining Experience entwickelt. Dieses wird in Kooperation mit einem interdisziplinären Projektteam realisiert und anschließend von der Autorin dieser Arbeit evaluiert.
Die Ergebnisse aus einer umfangreichen Nutzerstudie zeigen grundsätzlich, dass der entwickelte Prototyp ein hohes Potenzial für positive und freudvolle Erlebnisse sowie der Motivierung zu einer optimalen Leistung aufweist. Abgeleitet werden konnten sieben mögliche Einflussfaktoren, die mit dem positiven Ergebnis in Verbindung stehen könnten. Herausgreifend betrachtet wird der mögliche Anreiz des Flow-Erlebens, für dessen Einsetzen ein Zusammenspiel mit den anderen sechs Einflussfaktoren essenziell zu sein scheint.
Außerdem wird in einer Erörterung der theoretischen Grundlagen zur Trainingswissenschaft festgestellt, dass in einem regulären Fitnesstraining zwei der vier in der Trainingswissenschaft definierten Gegenstandsbereiche aktuell wenig oder gar keine Berücksichtigung finden. Die Erkenntnisse dieser Arbeit deuten je-doch darauf hin, dass eine Integration, der noch nicht vorhandenen Gegenstandsbereiche in die Konzeption und Gestaltung eines Trainings ein positives Trainingserlebnis und leistungsmotiviertes Handeln begünstigen könnte.
Abschließend wird anhand einer theoretischen und übergreifenden Betrachtung der Vorgehensweise zur Erarbeitung des Gamification-Konzepts, als Hauptgegenstand dieser Arbeit, ein Vorschlag für ein allgemeines Gamification-Modell abgeleitet.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.
Schon immer haben sich Menschen für Geschichten interessiert.
Für viele sind sie eine Ausflucht aus dem Alltag, Identifkationsmittel und Auseinandersetzung mit Themen aller Art.
Die anhaltende Beliebtheit von Fan Fictions ist daher keine Überraschung. Fan Fictions sind Geschichten, die von Fans geschrieben werden und sich dabei Elementen anderer Quellen bedienen, um diese nicht nur passiv zu konsumieren sondern sich aktiv mit ihnen auseinander zu setzen.
Gerade in Zeiten von Social Media,wo jeder, der einen Internetzugang, Kreativität und etwas technologische Affnität besitzt, mit Leichtigkeit Inhalte erstellen und teilen kann ist das Fortbestehen von Fan Fictions kaum verwunderlich.
Jedoch fällt schnell auf, dass Fan Fiction Archive, welche für eine der ältesten Formen von aktivem Medienkonsum stehen, nicht länger mit der raschen Entwicklung des Internets mithalten können.
Das drückt sich trotz der stetig steigenden Anzahl an geteilten Fan Fictions auf den zahlreichen Plattformen, durch sinkende Kommentarzahlen aus. Das Ziel dieser Arbeit ist es daher, ein Konzept zur Verbesserung der Autor-Leser Kommunikation zu entwickeln und dessen Machbarkeit anhand eines Prototypen zu beweisen.
Zunächst werden dazu die Grundlagen der Fan- und Feedback-Forschung zusammengetragen. Anschließend wird eine Analyse der Zielgruppen, der Kommentare sowie der bisher bestehenden Feedback-Funktionen in Fan Fiction Archiven und anderen Tools durchgeführt.
Diese Untersuchungen zeigen, dass es sich um drei Zielgruppen handelt, deren Bedürfnisse und Bereitschaft zur Beteiligung in der Community variieren: Autoren, kritische Leser und unkritische Leser.
Zudem werden Kommentar-Kategorien ermittelt und Schwachstellen in den Fan Fiction Archiven identifziert. Basierend auf diesen Erkenntnissen wird das Konzept Feeding Fandom entwickelt. Dieses Konzept kombiniert unterschiedliche Formen des Feedbacks und bietet darüber hinaus eine statistische Visualisierung dieser Interaktionen.
Somit ermöglicht das Konzept, dass sich jede Zielgruppe gemäß ihrer Fähigkeiten in der Community einbringen kann und Rückmeldung zur Verbesserung der eigenen Fähigkeiten und Steigerung der Beteiligungsbereitschaft erhält.
Die Entwicklung von mobilen Anwendungen und Web-Anwendungen ist aufgrund der großen Zahl von Zielplattformen aufwendig. Gegenstand dieser Arbeit ist die Evaluation von Technologien zur Erstellung von mobilen und Web-Anwendungen aus derselben Codebasis mit Hilfe von Webtechnologien und die Erweiterung der JavaScript-Syntax durch Transpiler. Dabei wird das Ziel verfolgt, Anwendungen aus Perspektive der Wartbarkeit zu konstruieren. Der Begriff der Wartbarkeit im Rahmen der Softwareentwicklung wird geklärt und bildet zusammen mit einem Anforderungskatalog eine Liste von Kriterien, welche zur Auswahl einer geeigneten Technologie verwendet wird. Es wird eine prototypische Anwendung implementiert, anhand der die ausgewählte Technologie hinsichtlich ihrer Eignung evaluiert wird.
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
Der vermehrte Einsatz von erneuerbaren Energien, welche nicht ständig verfügbar und nur begrenzt speicherbar sind, erschweren die Steuerung der Stromnetze. Zur Anpassung der Energieerzeugung an den tatsächlichen Bedarf werden Smart Grids („intelligente Stromnetze“) aufgebaut, die eine Steuerung des Energieverbrauchs in Abhängigkeit von der Verfügbarkeit ermöglichen. Die bereits vorhandenen Stromnetze werden hierzu um Kommunikationsnetze erweitert. Smart Meter („intelligente Stromzähler“) die beim Verbraucher eingesetzt werden, senden über die Kommunikationsnetze Messdaten zyklisch an die jeweiligen Stromnetzbetreiber. In Zukunft soll auch eine Steuerung von Haushaltsgeräten möglich werden. Daraus ergeben sich neue Herausforderungen in Bezug auf Sicherheit und Datenschutz. Die hier vorliegende Arbeit bietet eine kurze Einführung in die Grundlagen zum Thema Smart Grid. Es wird eine Referenzarchitektur definiert und die einzelnen Bestandteile des Smart Grids werden vorgestellt. Eine Auseinandersetzung mit den rechtlichen und regulatorischen Rahmenbedingungen sowie ein Überblick über den Stand der Entwicklungen intelligenter Stromnetze, insbesondere der Verbreitung von Smart Metern, vervollständigt die Grundlagen. Zusätzlich werden wesentliche Aspekte von Sicherheit und Datenschutz angesprochen. Darauf aufbauend wird die Sicherheit in Smart Grids untersucht. Hierzu werden die Ursachen für Bedrohungen im Rahmen einer Bedrohungsanalyse anhand eines Szenarios analysiert. Abgeleitet von den Ergebnissen der Bedrohungsanalyse werden Risiken innerhalb einer Risikoanalyse evaluiert und Maßnahmen empfohlen, um die festgestellten Risiken zu bewältigen
Diese Arbeit evaluiert die Herausforderungen, denen Scrum bei der Skalierung für große Projekte gegenübersteht. Diese bestehen hauptsächlich aus der Synchronisation der Teams, dem effizienten Auflösen von Abhängigkeiten, dem Sicherstellen von regelmäßiger sowie direkter Kommunikation, der Reduktion von Komplexität sowie dem Fördern und Fordern von regelmäßigem Feedback aller Projektbeteiligten. Abstract Die Herausforderungen unterteilen sich in die Skalierung der Scrum Artefakte, Rollen und Meetings. Für jeden der drei Bereiche werden in dieser Arbeit mehrere Lösungsmöglichkeiten vorgestellt, evaluiert und bewertet. Abstract Neben den Scrum Artefakten, Rollen und Meetings gibt es weitere, querschnittliche Herausforderungen, welche es bei der Skalierung von Scrum zu beachten gilt. Dabei handelt es sich um die Gebiete Softwarearchitektur, Unternehmenskultur, Projekt- und Prozessmanagement sowie Unternehmensstruktur. Abstract Die als starr angesehene Entwicklung einer Softwarearchitektur für ein großes Softwareprodukt steht der agilen Entwicklungswelt gegenüber und auch bei den unterschiedlichen Unternehmenskulturen gibt es Differenzen hinsichtlich der Kompatibilität mit Scrum und dessen Skalierung. Bezüglich der Softwarearchitektur im skalierten Umfeld wurde ein Mittelweg gefunden, der sich als „Enough Design Up Front” betitelt. Dieser stellt einen Kompromiss zwischen dem rein inkrementellen Ansatz des „No Design Up Front” und dem an das Wasserfallmodell angelehnten „Big Design Up Front” dar. Abstract Hinsichtlich der in den Unternehmen vorgefundenen Unternehmenskulturen obliegt es den jeweiligen Vorständen, sich für eine Entwicklung der vorhandenen Unternehmenskultur zu entscheiden oder versuchen, eine gänzlich andere Unternehmenskultur anzustreben. Beide Möglichkeiten können je nach Grad und Ausprägung der vorliegenden Unternehmenskultur mehrere Jahre des Wandels in Anspruch nehmen. Abstract Das Projekt- und Prozessmanagement muss für die Skalierung von Scrum geeignete Teamstrukturen sowie Integrationsstrategien finden, um die Produktinkremente der einzelnen Teams optimal zusammenzuführen. Die in dieser Arbeit vorgeschlagenen Möglichkeiten bieten den Verantwortlichen einige Optionen, müssen jedoch mit Bedacht gewählt und eingeführt werden. Viele dieser Lösungsmöglichkeiten fordern Veränderungen in der Unternehmensstruktur. Der Wandel der Unternehmensstruktur zur Unterstützung der Teams für eine effektive Produktentwicklung stellt somit eine weitere Herausforderung bei der Skalierung von Scrum dar.
In Smart Grids übermittelt der Stromzähler im Haushalt hochauflösende Messdaten des aktuellen Stromverbrauchs an den Energieversorger. Diese Daten ermöglichen es, sowohl dem Energieversorger, als auch potenziellen Angreifern, Aussagen über den Verbraucher zu treffen, die tief in die Privatsphäre eingreifen und Rückschlüsse auf die Lebensgewohnheiten erlauben. In dieser Arbeit wird die Aussagekraft dieser Informationen zunächst theoretisch erläutert und dann, am Beispiel eines Kühlschranks, überprüft. Ein wesentlicher Bestandteil des Vorgehens ist zunächst das automatische Erkennen und Extrahieren des Kühlschranks aus der Stromverbrauchskurve und die Analyse dieser Daten auf verschiedene Merkmale. Im zweiten Teil werden diese Merkmale anhand mehrerer Beispiele auf datenschutzrelevante Spuren hin untersucht. So lassen sich, trotz Unterschieden zwischen verschiedenen Kühlschrankmodellen, Anwesenheitsprofile der Benutzer erstellen und weitere Aussagen treffen.
Die Anforderungen an ein E-Commerce-Projekt sollten strukturiert dokumentiert werden, um daraus technische Lösungskonzepte abzuleiten. Eine solche Planungsphase erhöht die Chancen auf ein erfolgreiches Projekt und minimiert Projektrisiken, ist jedoch mit Zeitaufwand und Kosten verbunden. Viele Webshop-Betreiber möchten diese Aufwände minimieren, da eine kurze Projektdauer als kritischer Erfolgsfaktor am Markt angesehen wird. Diese Arbeit zeigt ein Dokumentationsmodell für Software- und Infrastrukturanforderungen auf, das die Branchenspezifika berücksichtigt und die Dokumentation von Anforderungen und Lösungskonzept erheblich beschleunigen soll. Dazu setzt es auf Wiederverwendung und die visuelle Modellierung mit einem CASE-Tool der aktuellen Generation. Sie reflektiert den Nutzen anhand eines Tests des Dokumentationsmodells im Projekteinsatz.
RFID-Systeme haben heutzutage einen immer größeren Anreiz: Zugangskontrolle, Bezahlsysteme, Diebstahlsicherung oder Identifikation (Personalausweis, Pass) sind nur einige Bespiele. RFID-Systeme erleichtern Tätigkeiten, bringen jedoch auch sicherheitsrelevante Probleme mit sich. Datenschützern sind RFID-Systeme schon lange ein Dorn im Auge, da dadurch die Privatsphäre des Trägers leichter ausgespäht und ein Bewegungsprofil erstellt werden kann. Der Schutz dieser Systeme und indirekt des Trägers durch Dritte ist unerlässlich. Aktuelle Zugangskontroll- und Identifikationssysteme verwenden neueste Sicherheitsfunktionen und Verschlüsselungen. Ist dieser Schutz nicht ausreichend genug, können RFID-Schutzhüllen das Auslesen durch Dritte erschweren oder gar komplett verhindern. Im Internet werden kommerzielle Hüllen Angeboten, die Schutz bieten sollen. Die Wirkung dieser Schutzhüllen wird in der vorliegenden Arbeit analysiert. Zusätzlich werden die abschirmenden Eigenschaften von weiteren Materialien untersucht. Die Arbeit ist in der Vorlesung "Spezielle Themen der mobilen Kommunikation" bei Prof. Dr. Joachim Charzinski entstanden.
Die vorliegende Bachelorarbeit beschäftigt sich mit der Planung einer Evaluation mehrerer Mobile Business Intelligence Lösungen für die Landesbank Baden-Württemberg. Die Frage, welche Anforderungen ein Management Cockpit auf Basis mobiler Medien für ein global tätiges Finanzunternehmen erfüllen muss, steht hierbei im Mittelpunkt. Des Weiteren wird der aktuelle Trend von mobilen Business Intelligence Lösungen im Zusammenhang mit mobilen Endgeräten, wie dem Apple iPad, untersucht. Ziel dieser Arbeit ist, anhand einer zuvor erstellten Evaluationsmethode den Auswahlprozess zu planen und anschließend mit Hilfe von empfohlenen Best Practices die Evaluation durchzuführen. Das Ergebnis dieser Arbeit ist neben einer wissenschaftlichen Aufbereitung des Themas Mobile Business Intelligence auch eine Auswahlempfehlung für das geplante mobile Berichtswesen der Landesbank Baden-Württemberg. Die empfohlene Lösung soll nach Abschluss der Arbeit das derzeitige Berichtswesen der LBBW erst unterstützen und dann eventuell ganz ablösen. Eine positive Durchführung würde außerdem die Funktionalität der Evaluationsmethode bestätigen.
Die Planung oder Durchführung von IT-Projekten zur Gestaltung moderner Büroarbeitsplätze stellt eine wichtige Aufgabe für Unternehmen dar. Der Nutzen solcher Investitionen kann jedoch häufig nur in einem qualitativen Sinne verbal benannt werden kann. Allerdings sind Kenntnisse über den quantitativen Mehrwert eines IT-Projektes und möglicher Projektalternativen notwendig, um beispielsweise eine reale Vergleichbarkeit anhand der Rentabilität tätigen zu können. Im Rahmen dieser Arbeit wird eine Methodik zur Auswahl geeigneter Bewertungsmethoden für IT-Projekte entwickelt und die für diese Methodik relevanten Merkmale der Zielgruppen und Merkmale der Projektzielcluster erläutert.
Soziale Netzwerke nehmen in der Gesellschaft einen immer größer werdenden Stellenwert ein. Bisher beschränkte sich die Nutzung dieser auf zweidimensionale Eingabegeräte wie Tastatur und Maus sowie die mobile Nutzung durch Touchscreen Smartphones. Bis heute existieren noch keine einheitlichen Eingabemethoden und Interaktionselemente für die körpergesteuerte Mensch-Maschine-Kommunikation. Ziel dieser Arbeit ist es, die Machbarkeit einer dreidimensionalen Körpersteuerung für ein soziales Netzwerk mittels eines Natural User Interfaces (NUI) und des Kinect Sensors zu beweisen. Das NUI soll dem Nutzer ein möglichst natürliches Nutzungserlebnis bieten und seinen Anforderungen und Bedürfnissen gerecht werden. Dafür werden die Interaktionen und das NUI speziell für die Körpersteuerung ausgerichtet. Die Machbarkeit des Konzepts wird durch die Erstellung eines interaktiven Prototypen sowie eines Proof-Of-Concept bewiesen.
Entwicklung von Schnittstellen zur Konfiguration und Verwaltung eines Ambient Intelligence Systems
(2007)
Ein Ambient Intelligence System kann Anwendern vielfältige Möglichkeiten zur Steuerung und Konfiguration des Systems geben. Der Zugriff auf diese Funktionalität kann auf verschiedene Arten realisiert werden. Eine ist die Nutzung eines mobilen Gerätes als Zugangsmedium. Damit dies möglich wird, sind Konzepte und Schnittstellen notwendig, die den Informationsaustausch zwischen Anwendern, Gerät und Ambient Intelligence System ermöglichen. Diese Diplomarbeit beschäftigt sich mit der Erarbeitung dieser Grundlagen.
Die vorliegende Diplomarbeit beschäftigt sich mit der Ablösung eines Generator Frameworks und der Generierung von Artefakten für die Businesslayer einer J2EE-Applikation. Der bestehende Generator sowie die Transformationsabbildungen sollen durch openArchitectureWare 4, einem metamodellbasiertem Generator Framework, ersetzt werden. Mittels des openArchitectureWare Frameworks wird der viel diskutierte Model Driven Architecture (MDA) Ansatz der OMG vorgestellt. Es wird der Unterschied zwischen herkömmlicher Softwareentwicklung und der modellgetriebenen Entwicklung aufgezeigt, sowie alle damit verbundenen Vor- und Nachteile. Es soll gezeigt werden, dass Modelle nicht nur zur Dokumentation dienen, sondern als Code gesehen werden können und sollten. Im Bezug auf die technische Realisierung der MDA werden die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen betrachtet und die eingesetzten Technologien wie z.B. UML, UML–Profile und Meta Object Facility vorgestellt. Außerdem wird ein Ausblick in neue Technologien im Kontext modellgetriebener Architekturen, wie zum Beispiel das Eclipse Modelling Framework (EMF) und das Graphical Modelling Framework (GMF) gegeben. Da die Schwerpunkte der Diplomarbeit auf der von BMW verwendeten Architekur für verteilte Applikationen sowie der Generatormigration liegen, wird die Architektur und der Generator von BMW im Aufbau sowie der Funktionsweise näher betrachtet. Die von BMW eingesetzte Architektur „Component Architecture 2.0“ ist eine komponentenbasierte Architektur, welche bei BMW entwickelt wurde und projektübergreifend zum Einsatz kommt. Des Weiteren liegt der Diplomarbeit das PEP-PDM Projekt, das bei BMW zurzeit durch Softlab realisiert wird, zugrunde. Durch PEP-PDM wird bei BMW eine zentrale Datenreferenz über den gesamten Entstehungsprozess eines Produktes erreicht. Das gesamte Wissen über ein Fahrzeug mit allen Daten des Entstehungsprozesses wird an einer zentralen Stelle zusammengeführt und dadurch, zu jedem Zeitpunkt, der aktuelle Stand im Entwickluingsprozess eines Fahrzeuges bekannt. Durch die Migration auf openArchitectureWare, dem Open Source Generator Framework und dem dazugehörigen Vorgehensmodell der generativen Entwicklung, werden die eingesetzten Technologien des Frameworks und deren Möglichkeiten wie Templates, Extensions und Modellvalidierung erläutert. Die Technologien und Designentscheidungen werden an der Transformation eines bestehenden Platform Independent Model (PIM) des Projektes PEP-PDM näher betrachtet und erläutert. Die Transformationsabbildungen für das PEP-PDM PIM basiert auf der von BMW eingestzten Component Architecture 2.0 und der Enterprise Technolgie J2EE. Ein Benefit der Diplomarbeit ist die Evaluierung des Graphical Modeling Framework von Eclipse. Dies beinhaltet implizit den Einsatz des Eclipse Modeling Framework (EMF) als Design Sprache für die Anwendung und das Metamodell. Mit diesen Technologien könnte zukünftig die Möglichkeit bestehen vom Erstellen der domänenspezifischen Sprache (Metamodell), über das Anwendungsdesign (PIM), bis hin zur Transformation und Implementierung alles in einem Entwicklungstool (Eclipse) zu bearbeiten. Abschließend werden die gewonnenen Erkenntnisse und Erfahrungen bezüglich der MDA unter Verwendung von openArchitectureWare zusammengetragen und bewertet.
Diese Diplomarbeit befasst sich mit der Model Driven Architecture (MDA) und deren Anwendung auf Basis von Open Source. Für ein Unternehmen ist es immer wichtig zu wissen, wie der aktuelle Stand der Technik ist und ob diese Technik produktiv eingesetzt werden kann, um sich dadurch Vorteile am Markt zu verschaffen. Es werden zunächst einige Grundlagen von Open Source und MDA erörtert. Danach wird mittels einer Evaluierung von Open Source Modellierungs- und Generierungswerkzeugen ein Überblick über die am Markt verfügbaren Werkzeuge gegeben. Anschließend wird die prototypenhafte Umsetzung eines Geschäftsvorfalles einer Versicherung beschrieben, um den Stand der Technik zu demonstrieren. In der Schlussbetrachtung folgt ein Fazit über den Verlauf und die Resultate der Diplomarbeit. Zum Schluss wird ein Ausblick für die Model Driven Architecture gegeben.
AJAX in the Enterprise
(2007)
Mit Rich Internet Applications wurde in letzter Zeit eine Lösung geschaffen, um reichhaltige, interaktive und ansprechende Benutzerschnittstellen für Webanwendungen zu entwickeln. RIAs können mit den verschiedensten Technologien entwickelt werden. Seit geraumer Zeit ruft in diesem Umfeld die neue Technologie AJAX sehr viel Interesse hervor. Es liegt im Interesse von Daimler Chrysler neue Clientparadigmen zu erforschen. Diese Arbeit untersucht, welche Vorteile, Risiken und Herausforderungen beim Einsatz von AJAX in Enterprise Umgebungen auftreten. Es werden diverser AJAX-Frameworks und die auftretenden Integrationsprobleme betrachtet. Außerdem werden die Vorteile von AJAX durch die Implementierung einer Beispielanwendung aufgezeigt.
Thema der vorliegenden Diplomarbeit ist der Entwurf einer Integrationsschnittstelle für Content-Management-Systeme basierend auf dem Datenmodell BMF. Konkret soll für das Content-Management-System (CMS) des Bayerischen Rundfunks (BR) eine Softwareschnittstelle entworfen werden, die auf dem Datenmodell Broadcast Metadata exchange Format (BMF) basiert. Die Schnittstelle soll Daten aus dem CMS ausgeben und in die BMF-Struktur transformieren. Das CMS des BR beinhaltet u.a. Metadaten der Fernsehproduktionsumgebung (z.B. den Namen eines beteiligten Kameramanns oder den technische Aufbau einer Sendung) in einer nicht veröffentlichten Datenstruktur. Bekannt ist, daß diese Struktur auf FESAD, der Fernseharchivdatenbank der öffentlich-rechtlichen Rundfunkanstalten, basiert, und daß CMS-Daten über das proprietäre AXF-Format ausgetauscht werden können. Um einen standardisierten Metadatenaustausch zwischen Rundfunkanstalten und Applikationen (z.B. Schnittsystemen) zu erm¨oglichen, wurde das Datenmodell BMF entwickelt, das die Struktur von Metadaten der Fernsehproduktion festlegt. Für BMF ist diese Diplomarbeit ein erster Praxistest. Zunächst wurden objektive Anforderungen an die Schnittstelle gesammelt und der tatsächliche Informationsgehalt von FESAD mit dem des CMS verglichen, da dessen Datenstruktur wie erwähnt nicht veröffentlicht ist. Insgesamt zeigte sich eine große Übereinstimmung beider Modelle, es gab jedoch auch Unterschiede. Diese Arbeit behandelt daher nicht nur die Abbildung des unternehmensinternen BR-Datenmodells auf BMF, sondern auch die des ARD-weiten Datenmodells FESAD. Nach Abgrenzung des abzubildenden Informationsgehaltes wurde geprüft, inwiefern sich dieser im derzeit aktuellen BMF-Klassenmodell wiederfindet. Im Zuge dessen wurden einige BMF-Pakete neu modelliert. Der letztendliche Entwurf der Schnittstelle umfasst die Spezifikation von Zugriffsmethoden und die Datentransformation von CMS- bzw. FESAD-Daten auf BMF. Als Ergebnis dieser Arbeit kann festgehalten werden, daß die vom BR gestellten Anforderungen an die Schnittstelle erf¨ullt und das BR-Datenmodell bzw. FESAD auf BMF abgebildet werden konnten. Dieser Diplomarbeit kann nun eine Implementierung der Schnittstelle folgen.
Anbindung mobiler Endgeräte mittels standisierter Web Services auf Basis von Java 2 Micro Edition
(2006)
Das Ziel dieser Diplomarbeit ist die Realisierung eines Clients für mobile Endgeräte auf Basis von J2ME1 unter Verwendung von MIDP 22. Mit Hilfe dieses Clients sollen Anbindungen an Standard Web Services auf Basis von SOAP möglich sein. Die Client-Anwendung stellt Formulare zur Ein- und Ausgabe von Daten bereit. Diese Formulare werden zur Laufzeit anhand der dem Dienst zu Grunde liegenden WSDL erzeugt und die erfassten Daten werden bis zum Absenden dieser an den Server lokal auf dem Endgerät gespeichert.
Die Aufgabe im Rahmen meiner Diplomarbeit ist die Entwicklung der Videotechnik, insbesondere im Hinblick der Einführung neuster High Definition – Videotechnik sowie die Analyse verschiedener Videokompressionsverfahren für HD Video, um durch Vergleich dieser verschiedenen Codierungsverfahren das jeweils geeignetste für die entsprechende Anwendung zu wählen. Aus obigen Vorbereitungen ist eine Lösung zu entwickeln, mit der möglichst einfach ein HD-Video mit maximaler Qualität auf einem PC-basierenden Präsentationsmedium fließend abgespielt werden kann. Damit das Ziel, dass HD Film zur Heimkinoanwendung bzw. Messepräsentation gebracht werden kann, erreicht. Für den Zeitraum der Erstellung der Diplomarbeit war ich in der Postproduktionsfirma Mackevision, wo die Bearbeitung des HD-Standards schon seit mehreren Jahren intensiv verfolgt wird. Als erster Post-Produktions-Anbieter in der Region beherrscht die Mackevision den Kompletten HD-Bearbeitungsprozess. Das zur Analyse der Codierungsverfahren verwendete HD-Rohmaterial stammt aus dem HD-Demoreel der Firma Mackevision.
Diese Arbeit ist in acht Kapitel eingeteilt, wobei die erste Hälfte die theoretische Grundlage sowie die Bestandsaufnahme beinhaltet, und die zweite Hälfte auf die Umsetzung der domänenspezifischen Sprachen eingeht. Kapitel 1 skizziert einen groben Überblick ¨uber die Themen und die Ziele dieser Arbeit Kapitel 2 gibt eine Einführung in die Konzepte der modellgetriebenen Softwareentwicklung, stellt verschiedene Ansätze vor, und stellt das Produkt PAI vor Kapitel 3 beschäftigt sich mit der Softwarearchitektur und den operationalen Aspekten der Softwareentwicklung sowie deren Handhabung durch den Rational Unified Process und der IBM Global Services Method Kapitel 4 stellt das Operational Model bei PAI vor, wie es im Projekt entsteht und wie es verwendet wird, sowie die Gründe für den Bedarf einer formalen Modellierung Kapitel 5 beschäftigt sich mit der Erstellung der domänenspezifischen Sprachen, also dem Domänendesign Kapitel 6 stellt verschiedene Ansätze und Sprachen der Modelltransformation vor und erkundet die Möglichkeit bei der Transformation des Operational Models Kapitel 7 befasst sich mit der Unterstützung der in den vorigen beiden Kapiteln beschriebenen Aufgaben durch entsprechende Werkzeuge, einschließlich einer prototypischen Implementierung in Eclipse EMF Kapitel 8 gibt ein kurze Zusammenfassung dieser Arbeit sowie eine Bewertung der gewonnenen Ergebnisse
Diese Arbeit beginnt mit der allgemeinen Beschreibung von Adventure Games. Es werden hier zahlreiche Begriffe, die im späteren Verlauf der Arbeit wiederkehrend verwendet werden, näher erläutert. Nach einer Übersicht über die Historie, folgt eine Untersuchung der Struktur und des dahinter liegenden Regelwerks der Adventure Games. Abschließend folgt im Kapitel 2 eine Untersuchung einiger auf dem Markt befindlicher Autorensysteme. Nachfolgend sollen die Grundlagen beschrieben werden, die zur Herleitung der Architektur führen. Hierzu werden Konzepte aus den Bereichen Storytelling, Maschine-Mensch-Kommunikation und virtuelle Welten herangezogen, um so möglichst viele Aspekte zu vereinen. In Kapitel 4 sollen die Konzepte zusammenfließen und eine Einheit bilden. Die entstandene Architektur soll in ihren Grundzügen erläutert und die erwendungsweise dargelegt werden.
Die programmierbare Hardware-Pipeline und ihre Verwendung für glaubhafte künstliche Charaktere
(2005)
Nach dem ersten Kapitel, das der Einleitung und der Heranführung an die Materie diente, werde ich im zweiten Kapitel die Hardware moderner Grafikkarten gründlich beleuchten. Ich werde den Fluss der Daten durch die Rendering-Pipeline nachzeichnen und aufzeigen, an welchen Stellen sich Veränderungen durch die neuen Generationen der programmierbaren Shadereinheiten ergeben. Diese neuen Shadereinheiten werde ich im einzelnen erläutern und stelle zuletzt einen Vergleich zwischen Echtzeit-Shading und Shadingtechniken im herkömmlichen Offline-Rendering an. Im dritten Kapitel möchte ich die die Programmierschnittstelle der GPUs beschreiben. Nach einem kurzen Abriss über den Assembler-Dialekt für Grafikkarten gehe ich direkt über zur Beschreibung der meistverwendeten Shader-Hochsprache HLSL. Ich erläutere den Gebrauch von Datentypen, Funktionen und Strukturen sowie einige grundlegende intrinsische Funktionen. Das vierte Kapitel dreht sich ganz um verschiedene Rendertechniken und ihre Umsetzung in HLSL. Vom simplen Texture Mapping über Shadow Maps, Normalenmapping und Depth-of-Field bis hin zum Image Based Lighting erläutere ich hier die verschiedensten Techniken am Beispiel. Alle Effekte liegen dieser Arbeit in Projektdateien für ATIs freies Tool „RenderMonkey 1.6“ bei [ATI01]. Im fünften und letzten Kapitel schließlich gehe ich auf die speziellen Probleme und Lösungsansätze beim Echtzeit-Rendering realistischer menschlicher Charaktere ein. Ich erläutere im einzelnen die Techniken, die angewandt wurden, um Haut, Haare, Gebiss und Augen unseres künstlichen Charakters „Hank“ so realistisch wie möglich erscheinen zu lassen.
Das Heimnetz diente früher lediglich der Vernetzung der im Haushalt vorhandenen Desktop PCs und Notebooks. Durch die stetig voranschreitende technische Entwicklung findet man im heutigen Heimnetz jedoch eine Fülle an Geräten aus den verschiedensten Branchenbereichen. Neben Handys und Fernsehern können auch Waschmaschinen und Kühlschränke sowie Heizungs- und Beleuchtungsanlagen mit dem Heimnetz verbunden werden und eröffnen dem Anwender so eine Vielzahl neuer Möglichkeiten. Für die Bereitstellung dieser neuen Funktionalitäten benötigen die Geräte immer komplexere Software, die bei der Inbetriebnahme der Geräte im Heimnetz eingerichtet, konfiguriert und später ggf. überwacht werden muss. Dies ist bei der Vielzahl an Geräten vom Anwender nicht mehr zu leisten und muss somit automatisiert von einem Service Provider übernommen werden. Um dem Service Provider die entfernte Konfiguration der Geräte zu ermöglichen, werden Protokolle benötigt, die ihm den Zugriff auf die Geräte des Heimnetzes erlauben. Dabei gibt es für verschiedene Gerätetypen unterschiedliche Protokolle, von denen die zwei bedeutendsten – TR-069 und OMA DM – in dieser Arbeit ausführlich analysiert werden. Die Vielfalt an Auto-Konfigurationsprotokollen erschwert dem Service Provider die automatisierte Konfiguration möglichst vieler Geräte im Heimnetz des Anwenders. In dieser Diplomarbeit wird deshalb ein Auto-Konfigurationsszenario entwickelt, bei dem die verschiedenen Auto-Konfigurationsprotokolle mit Hilfe semantischer Modelle beschrieben werden. Dies ermöglicht dem Service Provider, Geräte ohne großen Aufwand mit beliebigen Protokollen zu konfigurieren und erleichtert so dem Anwender den Umgang mit seinen im Heimnetz vorhandenen Geräten. Die Umsetzbarkeit des in dieser Diplomarbeit konzipierten Szenarios wird durch die Realisierung eines auf Semantic Web Services basierenden Prototypen überprüft.
Nach dem ersten Kapitel, welches der Einleitung und Heranführung an das Thema dient, wird im folgenden zweiten Kapitel ein Überblick über die geschichtliche Entwicklung von GUIs in Spielen folgen. In diesem Rahmen soll auch erörtert werden, welche Formen von GUIs in Spielen existieren, und wie diese definiert werden. Außerdem umfasst das zweite Kapitel eine Analyse, welche Gemeinsamkeiten Oberflächen in herkömmlichen Anwendungsprogrammen und Spielen aufweisen. Auf die spezifischen Anforderungen die an GUIs in Spielen gestellt werden, wird ebenfalls eingegangen werden. Das dritte Kapitel widmet sich der Programmierung von GUIs. Hierbei wird darauf eingegangen werden, warum existierende Programmiertoolkits wie MFC, Java, oder QT, für die Erstellung von GUIs in Computerspielen unzureichend sind. Weiterhin werden in diesem Kapitel die einzelnen Teile, aus denen ein GUIs zusammensetzt ist, behandelt. Deren Umsetzung wird anhand des im Praxisteil erstellten Toolkits erörtert. Kapitel vier widmet sich der konkreten Einbindung und Verwirklichung der GUI Elemente in einem Spiel. Neben allgemeinen Ansätzen werden Beispiele anhand des im Praxisteil erstellten Prototyps „Sweeper“ behandelt. Das fünfte und letzte Kapitel soll schließlich ein Resumé enthalten und wagt einen kleinen Ausblick in die Zukunft.
Integrationsmöglichkeiten einer Swing-Anwendung in Eclipse am Beispiel des abaXX Process Modelers
(2006)
Das Eclipse-Framework hat sich in den letzten Jahren als Entwicklungsumgebung und Plattform für Tool-Integration etabliert. Immer mehr bekannte Firmen wie BEA, IBM und Nokia integrieren ihre Anwendungen in dieses Framework. Eclipse bietet hierfür ein modulares System an, das auf einfache Weise erweitert werden kann. Die vorliegende Diplomarbeit beschäftigt sich mit der Integration von Anwendungen in die Eclipse-Plattform. Hauptsächliches Augenmerk liegt dabei auf der Integration vorhandener Swing-Applikationen in das Framework. Grundlage hierfür bildet der Process Modeler, eine Swing-Applikation von der abaXX Technology AG zum Modellieren von Geschäftsprozessen. Aufbauend auf den theoretischen Grundlagen und der Motivation für eine Integration werden zuerst der Process Modeler und das Eclipse Framework sowie einige weitere verwendete Technologien analysiert. Ziel ist die Untersuchung von Integrationsmöglichkeiten in das Eclipse Framework und das Aufstellen eines konkreten Integrationsszenarios für den Process Modeler, sowie die Erstellung eines ersten Prototypen.
Die vorliegende Arbeit behandelt die theoretischen Hintergründe zur Entwicklung einer mehrsprachigen Webanwendung mit Frontend-Funktionen für so genannte Independent Recordlabels. Die entwickelte Webanwendung vereinfacht die Marketing-Prozesse insbesondere hinsichtlich der Bereitstellung von Information für unterschiedliche Nutzergruppen. Die entwickelte Flash-Anwendung ist dreifach dynamisch: mittels ihrer Hilfe werden dynamisch generierte Inhalte aus der zentralen Recordlabel-Datenbank in ansprechender dynamischer Form präsentiert, der Layoutaufbau erfolgt dabei während der Laufzeit nach Vorgaben einer leicht zu modi-fizierenden Layout-Klasse.Im Speziellen wird in dieser theoretischen Ausarbeitung auf die Problematiken der Entwicklung einer sicheren Flash-Anwendung und eines sicheren Prelistening-Konzeptes sowie auf Usability-Aspekte eingegangen. Erläutert wird zudem, wie die unterschiedlichen Benutzergruppen in das Site-Konzept miteinbezogen wurden.
Die Aufgabenstellung dieser Diplomarbeit ist die Entwicklung eines Software-Tools zur Unterstützung des Vertriebs in der Kundenberatung. In wirtschaftlich schwierigen Zeiten, in welchen Investitionsentscheidungen genau durchdacht werden sollten, ist es eine Notwendigkeit dem Kunden diese Entscheidung zu erleichtern, indem der Kundenberater mit ihm gemeinsam versucht eine speziell für ihn entwickelte Lösung zu finden. Wegen der Produktvielfalt des Unternehmens PolarMohr ist dies von großer Bedeutung. Durch die Kombinationsmöglichkeiten der Schnellschneider mit den zahlreichen Peripherie-komponenten und diverser Zusatzoptionen, die wiederum unterschiedliche Automatisierungsstufen beinhalten, entsteht eine Vielzahl an Konfigurationsmöglichkeiten. Diese sind für die unterschiedlichsten Einsatzgebiete geeignet. Das Softwaretool dient hierbei als Entscheidungshilfe und ermöglicht dem Vertriebsmitarbeiter mit dem Kunden gemeinsam Konfigurationen zu vergleichen, verschiedene Schneidprozesse zu simulieren und die Anlagen so zusammenzustellen, dass sie auf das Unternehmen und die Auftragsstruktur des Kunden gezielt abgestimmt sind. Kennzahlen zeigen Trends und Rationalisierungspotenziale auf und machen Investitionsentscheidungen transparenter. Die preisliche Platzierung der Produkte kann durch das Softwaretool einfacher und zielgerechter gestaltet werden.
Dieses vorliegende Dokument stellt den schriftlichen Teil der Diplomarbeit dar, gleichzeitig ist es aber auch als Dokumentation zu betrachten. Es richtet sich hauptsächlich an Systemarchitekten und Software-Entwickler, um einen Überblick darüber zu geben, wie die entwickelte Buchungs-Software aufgebaut ist. Dieses Dokument dient als Grundlage und Referenz; es sollte vor dem Einstieg in den Source Code gelesen und verstanden werden, denn es erläutert die grundlegenden Abläufe, Modelle und Praktiken. Daneben existieren weitere Dokumente, die tieferen Einblick geben oder spezielle technische Probleme anhand von Verfahrensanweisungen lösen helfen. Diese Dokumente befinden sich (neben Source Code, generiertem JavaDoc und den in dieser Diplomarbeit verwendeten Diagrammen und Bildern) auf der beiliegenden CD-ROM. Wie bereits angedeutet, soll diese schriftliche Ausarbeitung den Leser befähigen, sich in die umfangreiche Software einzuarbeiten (z.B. für Wartungsarbeiten oder Weiterentwicklung der Software). Deshalb werden grundlegende Kenntnisse und Begriffe der Programmiersprache Java, von Entwurfsmustern (Design Patterns), von Betriebssystemen (Linux und Windows) und Internet-Technologien (Web- und Applicationserver, Protokolle, HTML, CSS, etc.) vorausgesetzt. Die Kapitel 2 bis 4 können darüber nur einen groben Überblick geben und gehen nur selten richtig ins Detail. Für Interessierte, die sich eingehender damit beschäftigen wollen, existiert eine Vielzahl an weiterführender Literatur. Kapitel 5 geht ausführlich auf die Anforderungen der Software ein, so wie sie in einem Pflichtenheft hätten definiert worden sein können. Besonders hier kommen viele großformatige UML-Diagramme (Unified Modeling Language) zum Einsatz, sind sie doch aussagekräftig und erschließen sich schnell wie einfach dem Betrachter. In Kapitel 6 wird dann erläutert, wie die Geschäftsprozesse aus dem vorhergehenden Kapitel umgesetzt wurden. Es handelt sich dabei hauptsächlich um Komponenten, die auf dem Server installiert sind und den wesentlichen Teil der Software bilden (Teile davon werden allerdings von anderen, lokalen Komponenten wiederverwendet). Eine solche lokale Komponente ist das Import-Export-Tool (Kapitel 7) – eine reine Java- Applikation mit einfacher Benutzeroberfläche. Sie ermöglicht den regelmäßigen Austausch von Mitgliederdaten zwischen der Online-Datenbank MySQL und der Offline-Datenbank Access. Dies ist notwendig, da der Segelverein, für den diese Software erstellt wurde, auf die bisher verwendete Access-Datenbank nicht verzichten konnte. Deshalb kann oder muss man hier durchaus von Individual-Software sprechen. Allerdings ist es auch möglich, auf die Offline-Datenbank zu verzichten, was den Einsatz der Buchungs-Software bei anderen Segelvereinen mit ähnlichen Geschäftsprozessen ermöglicht. Kapitel 8 widmet sich einer Zusatz-Software (ebenfalls eine Java-Applikation), während Kapitel 9 eine Schlussbetrachtung und persönliche Erfahrungen des Autors enthält.
Diese Diplomarbeit beschäftigt sich mit der Internationalisierung und Lokalisierung von Software. Das Ziel dieser Arbeit war die Realisierung einer Software zur Unterstützung des Übersetzungsprozesses von Sprachressourcen für die IUCCA Anwendung. IUCCA ist ein komplexes webbasiertes Auftragsabwicklungssystem, das europaweit eingesetzt wird. Aufgrund der kontinuierlichen Weiterentwicklung von IUCCA unterliegen auch die Sprachressourcen dieses Systems einem fortlaufenden Übersetzungsprozess. Dieser Prozess erwies sich allerdings als aufwändig und fehleranfällig. Daher wurde im Rahmen dieser Arbeit ein neuer Prozess definiert und eine auf dem Open-Source Framework Struts basierende Anwendung realisiert. Diese Anwendung bildet den neuen Übersetzungsprozess ab und bindet diesen in das eXtreme Programming- Vorgehensmodell der IUCCA-Entwicklung ein. Neben der Analyse der Prozesse wird auch die Realisierung der Anwendung beschrieben. Darüber hinaus wird die bei der Internationalisierung auftretende Zeichensatzproblematik untersucht und der Unicode-Zeichensatz vorgestellt. Weiterhin wird gezeigt, wie die Programmiersprache Java die Internationalisierung von Anwendungen unterstützt.
Die Firma netads, Frech und Iffland GbR betreibt einen mobilen und webbasierten Service auf PHP/MySQLBasis, den sogenannten SMSmonkey. Für Kunden des SMSmonkeys ist es möglich, anhand einer von netads erstellten JavaMobiltelefonApplikation Textnachrichten per Mobiltelefon zu versenden und zu empfangen. Ziel der Diplomarbeit ist es, den SMSmonkeyService von PHP nach Java zu überführen und eine einfach zu erweiternde Plattform für weitere mobile und webbasierte Dienste zu schaffen. Der Schwerpunkt der Diplomarbeit liegt hierbei auf der Entwicklung der PlattformApplikation, welche als Basis für zukünftige Services der Firma netads dienen soll. Als ReferenzService der Plattform wird der SMSmonkeyService auf der Plattform realisiert. Motivation für die Umsetzung dieses Projekts ist der Wunsch von netads, alle ihre mobilen Services zentral, einfach zu warten und leicht erweiterbar unter einem Dach zusammengefasst zu haben. Dabei sollen die Schwierigkeiten, welche bei größeren Projekten mit der Verwendung von PHP als Programmiersprache auftreten, beseitigt werden, indem eine JavaEnterpriseApplikation entsteht. Als ein Nebenziel ist die möglichst kostengünstige Entwicklung und der Betrieb der Applikation gefordert, was den aussschließlichen Einsatz von freier Software erforderlich macht. Diese zu erstellende Applikation wird „netads MobilePlattform“, kurz nMPlattform genannt.
Diese Diplomarbeit beschäftigt sich mit der Frage, wie moderne Haushaltsgeräte wie Waschmaschinen, Kühlschränke oder Gefriertruhen über ein Netzwerk gewartet werden können. Es wird ein Weg gesucht, Geräte zu analysieren und mit neuer Software zu versorgen. Im Laufe der Arbeit wird ein offenes und herstellerunabhängiges Konzept entwickelt, das aus mehreren Schlüsselkomponenten besteht. Eine allgemeine und verständliche Beschreibung aller an der Wartung beteiligter Entitäten in einem semantischen Modell soll einen Hersteller- und Technologie-unabhängigen Austausch von Wissen ermöglichen. Dadurch wird es neuen Anbietern erleichtert, das Konzept für sich zu nutzen. Durch den Einsatz konfigurationsfreier Netzkomponenten soll die Verwaltung vor allem aus Sicht der Benutzer vereinfacht werden. Aufgrund der großen Anzahl der in heutigen Heimnetzen anzutreffenden, unterschiedlichen Technologien bedarf es zudem einer Komponente, die diese Heterogenität berücksichtigt. Die Lösung soll möglichst offen für unterschiedliche Technologien sein. Deshalb sieht das Konzept den Einsatz eines Gateways als zentrale Steuerkomponente vor, das unterschiedliche Teilnetze des Heimes, transparent verbindet. Nach der Untersuchung geeigneter Technologien für die technische Umsetzung wird eine Anwendung entworfen, die das Konzept prototypisch umsetzt.
Diese Diplomarbeit hat das Erstellen einer Anwendung zum Ziel, die es ermöglicht, unterschiedliche Dateiformate, die zur Speicherung von Motion- Capture-Daten verwendet werden, betrachten zu können. Zur Realisation dieses „MoCap-Viewers“ wird Macromedia Director verwendet, das seit der Version 8.5 über die Möglichkeit der Einbindung von Echtzeit-3D-Grafik verfügt. Die Anwendung soll die Möglichkeit bieten, einzelne Ordner oder auch komplette Festplatten nach ausgewählten Formaten (*.csm, *.c3s und/oder *.amc/*.asf) zu durchsucht, wichtige Informationen aus diesen Dateien auszulesen und schließlich auch mit Hilfe von Shockwave 3D die Marker- beziehungsweise Rotationsdaten im 3D-Raum darzustellen. Darüber hinaus wird überprüft, ob ein zugehöriges Informa-tionsfile (*.i3d) vorliegt. Falls nicht, wird die Erstellung dieser Datei angeboten, wo-bei auch die aus der entsprechenden 3D-Datei bekannten Daten eingetragen wer-den. Des Weiteren können bereits bestehende Informationsdateien editiert werden. Die Anwendung soll es Studenten ermöglichen, Motion Capture-Files schnell durchzusehen, ohne auf teure Spezialsoftware zurückgreifen zu müssen, da für diese oft nur eine begrenzte Anzahl an Lizenzen und somit Arbeitsplätzen zur Ver-fügung steht. Außerdem soll ihnen die Möglichkeit geboten werden, beim Durchse-hen auch gleich noch Informationen, zum Beispiel über besonders gut verwendbare Segmente, in den i3d-Files festzuhalten. Inhaltsverzeichnis
Die Aufgabe im Rahmen meiner Diplomarbeit war die Entwicklung einer multimedialen Ausbildungs-CD-ROM für die Wella AG (Darmstadt). Es ist die erste CD-ROM zu dem Buch ‚Gewusst wie’, das bereits in mehreren Auflagen gedruckt worden war und im Friseurhandwerk ein sehr hohes Ansehen genießt. Da dieses Buch überarbeitet und in neuer Auflage gedruckt werden sollte, wollte Wella die neue Auflage mit einer multimedialen Ausbildungs-CD-ROM ausstatten. Meine Arbeiten, die ich bei der von Wella beauftragten Firma BERG Communications (Esslingen) durchgeführt habe, waren die Mitarbeit an der Konzeption des Multimediapakets, bestehend aus Buch und CD-ROM, und die anschließende Programmierung der gesamten ‚Gewusst wie’-CD-ROM. Des Weiteren gehörten zu meinen Aufgaben das Erstellen von Sprachaufnahmen, die Bearbeitung von Fotoaufnahmen, der Neuschnitt von Lehrfilmen und die Leitung der Studenten, die uns bei der Erstellung der insgesamt 408 multimedialen Anleitungen behilflich waren. Da das ‚Gewusst wie’-Buch ebenfalls bei BERG Communications überarbeitet wurde, war ich auch bei der Neugestaltung des Buches intensiv beteiligt. Bis zum Ende meiner Diplomarbeit entstand ein Multimediapaket, in dem das Buch und die neu entwickelte CD-ROM sorgfältig aufeinander abgestimmt wurden, und das - von der Wella AG vervielfältigt - im ersten Quartal 2004 auf den Markt gebracht wird.
Ziel dieser Diplomarbeit war die Realisierung eines standardisierenden webbasierten Zugangs für ein Kommunikationsframework (Message to Anywhere) zu schaffen. Dieses Framework wird in hoch automatisierten Halbleiterfabriken zum Einsatz kommen. Mobile Endgeräte wie Mobiltelefonen, PDAs oder Tablet PCs könne sind über einen Webserver mit Message to Anywhere zu verbinden. Das Framework erlaubt eine einfache Integration von Anlagen. Diese stellen ihre Funktionen in Form von Services innerhalb des Frameworks bereit. Hierfür wurde ein Konzept entwickelt, dass es erlaubt diese Services auf verschieden Mobilen Endgeräten zur Anlagensteuerung abzubilden. Die Daten, die das Framework hierbei liefert, müssen auf die unterschiedlichen Endgeräte angepasst werden. Als eine Beispielanwendung für die Analagensteuerung werden die Services einer 3D- Reinigungsanlage auf unterschiedlichen Mobilen Endgeräten zu Verfügung gestellt.
Die vorliegende Arbeit versucht, die Eignung von Java Sound als Basisplattform für die Entwicklung studiotauglicher Audioanwendungen zu evaluieren. Dafür werden die Besonderheiten der Audioprogrammierung mit Sampling- und MIDI-Daten erarbeitet und daraus Anforderungen an Audiosoftware für den Studiobereich abgeleitet. Es wird kritisch überprüft, inwieweit Java und Java Sound theoretisch geeignet sind, diese Anforderungen zu erfüllen. Gegenstand der Überprüfung ist dabei sowohl das Java Sound API als auch dessen Implementierungen. Im praktischen Teil werden zwei Sampleeditoren und einige PlugIns entwickelt, um aus der praktischen Erfahrung weitere Ergebnisse zu gewinnen. Abschließend wird eine Gesamtbewertung der Studiotauglichkeit von Java Sound vorgenommen und ein Zukunftsausblick gegeben.
Die vorliegende Diplomarbeit beschäftigt sich mit der Generierung der Präsentationsschicht einer J2EE-Applikation unter Einsatz von Apache Struts. Der vieldiskutierte Ansatz der Object Management Group (OMG) - Model Driven Architecture - wird vorgestellt und unter Zuhilfenahme von open ArchitectureWare, einem metamodellbasierten Generator Framework, wird aufgezeigt, wie sich modellbasierte Entwicklung von der herkömmlichen Softwareentwicklung unterscheidet und welche Vor- und Nachteile sich daraus ergeben können. Im Bezug auf die technische Realisierung der MDA werden zum einen die verschiedenen Vorgehensweisen bei der Entwicklung von Modellen und deren Transformationen nach der MDA Spezifikation der OMG erläutert, und zum anderen werden die eingesetzten Basistechnologien, wie zum Beispiel UML, inklusive der Erweiterungsmöglichkeit über UML-Profile, Meta Object Facility (MOF) und XML Metadata Interchange (XMI), vorgestellt. In diesem Zusammenhang werden auch mögliche pragmatische Interpretationen der MDA diskutiert. Darüber hinaus werden die Technologien, die bei der Entwicklung der Präsentationsschicht im Einsatz sind, Apache Struts und Tiles, näher betrachtet. Ein zentraler Bestandteil der Diplomarbeit besteht aus der Beschreibung der Funktionsweise von open ArchitectureWare, dem opensource Generator Framework, und dem dazugehörigen Vorgehensmodell der generativen Entwicklung. Schlussendlich werden die einzelnen Schritte, die während der Umsetzung vonnöten waren, anhand der Generierung der Präsentationsschicht einer dreischichtigen J2EE-Anwendung zur Verwaltung von Stammdaten, exemplarisch erläutert. Wesentliche Punkte während der Entwicklung, wie zum Beispiel Metamodellierung, plattformunabhängiges Design oder Template-Entwicklung werden am konkreten Projektbeispiel aufgezeigt. Nach erfolgreicher Generierung der Stammdatenanwendung wurde das Ergebnis der Diplomarbeit an einem weiteren Projekt namens BONSAI (Bonus Applikation International) erprobt. Im letzten Teil der Diplomarbeit werden die gewonnenen Erfahrungen bezüglich der aktuellen MDA-Entwicklung zusammengetragen und bewertet.
Digital Cinema beschreibt die digitale Distribution von Kinofilmen über Breitbandnetze oder Satellitenverbindungen von einem zentralen Server aus direkt in die einzelnen Kinosäle. Durch die Digitalisierung der Filmdistribution ergibt sich eine Reihe von Vorteilen, aber auch Probleme und Risiken für die einzelnen Marktteilnehmer. Die ungleiche Verteilung der Nutzenund Risikopotentiale entlang der Wertschöpfungskette erschwert die Einigung der bestehenden Marktteilnehmer auf ein für alle Beteiligten akzeptables Geschäftsmodell. Dadurch ergeben sich Chancen für Unternehmen aus der IT- und TK-Branche, sich auf dem Kinomarkt zu positionieren.
Das Ziel dieser Arbeit ist die objektive wissenschaftliche Klärung der Frage nach der effizientesten Kombination von Hardware und Software im Desktop Publishing. Vorweg werden die in den verschiedenen Computersystemen üblichen technischen Standards aufgeführt und erläutert. Dann wird die Hardware aufgrund ihrer technischen Eigenschaften und dem dafür zu bezahlenden Preis verglichen. Es folgen Vergleichstests mit Hilfe von standardisierter Benchmarksoftware. Danach werden die Computersysteme mit der branchenüblichen Anwendersoftware anhand von rechenintensiven praxisbezogenen Aufgaben getestet. Zuletzt wird festgestellt,welches System für welche Aufgabe am besten geeignet ist.
Für die Verbesserung und Unterstützung des Bordnetzentwicklungsprozesses wurde besprochen, Bordnetzentwicklungsdaten in einem standardisierten Format applikationsneutral zu halten und verschiedene Sichten auf diese Informationen zu erzeugen. Hierbei sind folgende Fragen zu beantworten. • Ist es möglich, Bordnetzdaten in XML applikationsneutral abzubilden und zu halten? • Sind verschiedene Sichten auf das Bordnetz ableitbar? • Sind XML und XSLT für die Speicherung und Aufbereitung der Bordnetzinformationen geeignet? • Ist XML als alleiniges natives Datenformat in der Bordnetzentwicklung geeignet? Zur Beantwortung dieser Fragen soll ein Prototyp realisiert werden. Mit Hilfe dieser prototypischen, entwicklungsbegleitenden Plattform soll die Generierung verschiedener Sichten auf Bordnetzdaten ermöglicht werden. Dabei wird der Fokus auf der dynamischen Generierung von Schaltplänen in SVG liegen. Beispielhaft soll die Durchführung einer dynamischen Analyse und eines Reports erfolgen. Darunter sind ebenfalls Sichtgenerierungen zu verstehen, wobei Bordnetzinformationen für Auswertungszwecke extrahiert und in übersichtlicher Form dargestellt werden sollen.