Refine
Year of publication
Document Type
- Master's Thesis (25) (remove)
Language
- German (25) (remove)
Has Fulltext
- yes (25)
Is part of the Bibliography
- no (25) (remove)
Keywords
- Barrierefreiheit (3)
- Bibliothek (3)
- Bibliothekseinrichtung (2)
- Dokumentation (2)
- EN 301 549 (2)
- Agile Softwareentwicklung (1)
- Anforderung (1)
- Anforderungsanalyse (1)
- Anforderungsmanagement (1)
- Arbeitsbedingungen (1)
Seit dem vermehrten Zugang zum Internet und der damit einhergehenden Digitalisierung hat sich die Lehre aufgrund der technologischen Entwicklungen enorm verändert. Mittlerweile gehören vielfältige E-Learning-Angebote zum Alltag von Studierenden. Die vorliegende Arbeit verdeutlicht die Entwicklungen im E-Learning und den Wandel zu neuen medialen Formen und Konzepten. In vielen Bereichen, insbesondere mit technischen und wissenschaftlichen Schwerpunkten, spielt das Experimentieren im Labor in der Ausbildung der Studierenden eine wichtige Rolle, um die notwendigen praktischen Kenntnisse zu erwerben. Diese Laborerfahrung kann allerdings aufgrund verschiedener Aspekte, wie z.B. der teuren Ausstattung, des begrenzten Zugangs oder der eingeschränkten Kapazität, nicht allen Studierenden angeboten werden. Daher gewinnen seit einigen Jahren virtuelle Labore, welche die Laborarbeit einer höheren Anzahl an Studierenden zugänglich machen, immer mehr an Interesse. Die vorliegende Arbeit widmet sich diesem Thema, zeigt die Möglichkeiten auf und verdeutlicht die wichtige Rolle virtueller Labore in der Lehre. Allerdings werden auch die Defizite deutlich, z.B. der Mangel an didaktisch und qualitativ hochwertigen digitalen Lösungen in vielen Bereichen wie des Internet of Things. Anhand eines Fallbeispiels soll die vorliegende Arbeit den Forschungsstand in diesem Bereich erweitern und die Realisierbarkeit der Virtualisierung eines Smarthome-Labors untersuchen. Neben der Konzeptionsphase, in der die Anforderungen an die Lösung erörtert werden, wird die Implementierung des virtuellen Labors mit geeigneten Technologien sowie die Evaluation der Anwendung mit Hilfe von Benutzertests präsentiert. Die Ergebnisse zeigen, dass die Benutzer das virtuelle PUX-Labor als nützliche Alternative zum realen Labor sehen. Die identifizierten Schwachstellen aus den Benutzertests können genutzt werden, um den Prototyp für die Integration in die DigiLab4U-Plattform und den produktiven Einsatz in Lehrveranstaltungen und Workshops weiter zu verbessern.
Aktuelle Gesetze und Richtlinien wie der Americans with Disabilities Act und 2016/2102 der Europäischen Union dienen der Unterstützung von Menschen mit Behinderung. Gleichzeitig stellen sie aber auch eine Herausforderung für viele Website-Inhaber dar, welche die gesetzlichen Vorgaben erfüllen müssen. Anbieter sogenannter Overlay-Tools bieten hierfür unter anderem vollautomatische Lösungen an, welche nach eigenen Anga-ben innerhalb weniger Minuten installiert werden können und anschließend die Website so verbessern, dass diese barrierefrei und konform zu den Gesetzen und Standards ist.
Die vorliegende Masterthesis untersucht, ob und inwieweit Overlay-Tools tatsächlich Websites im Kontext der Barrierefreiheit unterstützen. Hierbei sollen Potenziale und Grenzen aufgezeigt werden sowie durch diese Erkenntnisse Verbesserungsmöglichkeiten abgeleitet werden.
Auf Basis einer Recherche nach aktuellen Anbietern wurden die Overlay-Tools von ac-cessiBe, EqualWeb und UserWay für diese Untersuchung herangezogen, wobei gleich-zeitig eine Vergleichsstudie dieser Anbieter durchgeführt wurde. Hierfür wurden insge-samt sieben Metriken definiert, welche sowohl auf den Angaben und Versprechen der Anbieter als auch auf den Anforderungen der Web Content Accessibility Guidelines 2.1 beruhen. Zur Untersuchung und Bewertung der Änderungen durch die Overlay-Tools auf einer Test-Website, wurde der BIK BITV-Test angewendet. Ebenso wurde die Sicht des Seiteninhabers berücksichtigt und die dementsprechenden Features und Funktionen in-nerhalb von vier Metriken analysiert und bewertet.
Wesentliche Unterschiede zwischen den Overlay-Tools sind primär bei den Anpassungen an der eigentlichen Website erkennbar. So behebt accessiBe im Vergleich mehr Fehler und Barrieren für blinde Nutzer sowie Nutzer, welche die Tastaturnavigation benutzen und erzielt auch in der Gesamtbewertung somit das beste Ergebnis. Trotz der Verbesse-rungen ist eine vollständige Konformität eindeutig nicht möglich. Allerdings wurden sowohl theoretische als auch konkrete Verbesserungsmöglichkeiten identifiziert.
Das menschliche Auge kann wesentlich mehr Farben wahrnehmen, als heutige
Bildschirme (engl. Displays) darstellen können. Diese Masterarbeit untersucht,
wie mit einem handelsüblichen Flüssigkristall Display (engl. Liquid Crystal
Display (LCD)) mittels Modifikation der Hintergrundbeleuchtung stark gesättigte
Farbtöne erzeugt werden. Standard-Farbräume sind als Referenz für die Farben
definiert, die ein Display darstellen kann. Der in der Recommendation ITU-R
BT.2020 (Rec.2020) definierte Farbraum deckt einen großen Bereich aller möglichen
Farbtöne ab und wird Rec.2020 Gamut genannt. Aber auch hier gibt es
Bereiche der menschlichen Farbwahrnehmung, die der Rec.2020 Gamut nicht
beinhaltet. Mit dieser Masterarbeit wird gezeigt, dass ein handelsüblicher LCD
mit speziell ausgewählten Leuchtdioden (engl. light-emitting diodes (LEDs)) Farbtöne
außerhalb von Rec.2020 erzeugt und somit stärker gesättigte Farbtöne zu
sehen sind.
Die Idee besteht darin, die Flüssigkristallschicht mit den integrierten Farbfiltern
zu verwenden und die Hintergrundbeleuchtung durch zwei Gruppen aus unterschiedlichen
LEDs zu ersetzten. Zur Optimierung der Hintergrundbeleuchtung
wird eine Simulation erarbeitet, die aus der spektralen Transmission der Farbfilter
im LCD und den Spektren verschiedener LEDs ein Transmissionsspektrum berechnet.
Aus dem Transmissionsspektrum wird mit Hilfe der Simulation der neue
Farbraum des LCDs bestimmt, der durch die modifizierte Hintergrundbeleuchtung
aus verschiedenen LEDs entsteht.
Einzelne LEDs und bestimmte Kombinationen aus zwei LEDs erzeugen als Hintergrundbeleuchtung
des LCDs die am stärksten gesättigten Farbtöne, die auch
außerhalb des Standard-Farbraumes Rec.2020 liegen. Den größten Farbraum
bei der Kombination verschiedener LEDs erzeugt das Tripel Rot, Grün und Blau.
Die Spektren des Tripels überlagern sich minimal und in der Transmission mit
den Farbfiltern sind die resultierenden Spektren immer noch schmalbandig und
die Farbtöne stark gesättigt. Wird das Tripel um die Amber-LED ergänzt, ist der
Farbraum etwas kleiner, deckt dafür mehr gesättigte Gelb-Farbtöne ab. Das ist
besonders wichtig für die Darstellung von Hauttönen und Warmweißfarbtönen.
Im zweiten Schritt der Simulation wird der Farbraum des LCDs berechnet, wenn
zwei Kombinationen verschiedener LEDs als alternierende Hintergrundbeleuchtung
eingesetzt werden. Die resultierenden Farbräume des Displays mit verschiedenen
Paare aus LED-Kombinationen erreichen Flächengrößen von bis zu 110
% der Fläche des Rec.2020 Farbraumes. Mit einer alternierenden Hintergrundbeleuchtung
aus zwei bestimmten LED-Kombinationen lassen sich stark gesättigte
Farben außerhalb des Rec.2020 Farbraumes erzeugen und zusätzlich mehr Farben
darstellen, als dieser Standard-Farbraum beinhaltet.
OpenAPETutorial - eine problembasierte Lerneinheit zur Personalisierung von SmartHome Anwendungen
(2021)
Die Arbeit hat die Konzeption einer problembasierten Lerneinheit zur Personalisierung von SmartHome Anwendungen zum Thema.
Dafür wurde neben der Lerneinheit ein Java Client für das Personalisierungsframwork OpenAPE und eine Tutorial Anwendung für OpenAPE, welche in der Lerneinheit als praktische Übung genutzt wird, entwickelt.
Im theoretischen Teil der Arbeit werden drei Themen erörtert. Zu Beginn wird das Thema Personalisierung mit besonderem Schwerpunkt auf das genutzte Personalisierungsframework OpenAPE behandelt.
Darauf folgen die Themen problembasiertes Lernen, hier wird in problembasiertes Lernen im Allgemeinen und problembasiertes Lernen in der Informatik und Programmierung unterschieden.
Für das letzte Thema Learning Analytics wird untersucht, was Learning Analytics bedeutet und wie es in eine Lerneinheit integriert werden kann.
Im praktischen Teil wurde ein Java Client für OpenAPE entwickelt. Dieser kann in Zukunft von allen Java und Android Anwendungen verwendet werden. Außerdem wurde eine Lerneinheit konzipiert, mit welcher die Anwendung der Schnittstellen OpenAPE und OpenHAB erlernt werden kann. Hierfür wurde die sogenannte OpenAPETutorial Anwendung entwickelt. Diese Anwendung wird für die Studierenden in der Lerneinheit als eine Art Lückentext als praktische Übung verwendet. In der sehr einfach aufgebauten Anwendung können Lampen über die OpenHAB Schnittstelle angesprochen werden und Einstellungen, welche zur Personalisierung genutzt werden, können über OpenAPE synchronisiert werden.
Schlussendlich wird die Lerneinheit in qualitativen Benutzertests durchgeführt und somit auf ihre Funktionalität geprüft. Es soll herausgefunden werden, ob die konzipierte Lerneinheit so durchführbar ist. Durch diese Vorgehensweise wurden bereits einige Schwachstellen in der Lerneinheit entdeckt und behoben. Grundsätzlich haben die Benutzertests gezeigt, dass die Lerneinheit so wie geplant durchgeführt werden kann. Dennoch sollte die Lerneinheit in einer größeren Gruppe mit Studierenden der Zielgruppe durchgeführt werden, um herauszufinden, ob sie in einer echten Umgebung funktioniert. Hier sollte besonders auf die benötigte Zeit geachtet werden.
Analyse von manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites nach BITV 2.0
(2021)
Durch die voranschreitende Digitalisierung und die steigende Anzahl von Menschen mit Behinderung hat die Relevanz der Barrierefreiheit von Informationstechnik im Laufe der letzten Jahre stark zugenommen. Mittels der Richtlinie 2016/2102 wurde die Umsetzung der Barrierefreiheit im öffentlichen Sektor für alle EU-Mitgliedsstaaten bereits verpflichtend festgelegt. Automatisierte Prüfverfahren können zwar einen ersten Eindruck über die Barrierefreiheit von Websites liefern, eine umfassende Bewertung der Barrierefreiheit ist derzeit aber nur durch manuelle Prüfmethoden möglich. Ein bekannter Typ von manuellen Methoden ist die konformitätsbasierte Prüfmethode, die den Grad der Erfüllung von definierten Anforderungen bewertet. Folglich kann abgeleitet werden, ob ein Prüfgegenstand als konform oder nicht konform zu einem definierten Standard eingeordnet werden kann. Ein weiterer Typ von manuellen Methoden ist die empirisch ermittelte Prüfmethode. Sie involviert die betroffenen Benutzergruppen stärker, indem beispielsweise geschulte Prüfer die Evaluation aus Sicht der Betroffenen vornehmen.
Die im Rahmen dieser Arbeit untersuchte Forschungsfrage lautet: „Welche Unterschiede lassen sich bei konformitätsbasierten und empirisch ermittelten manuellen Prüfmethoden zur Bewertung der Barrierefreiheit von Websites feststellen?“ Ein umfassender systematischer Vergleich anhand von realen Daten, die durch Barrierefreiheitsexperten erstellt wurden, wurde bisher noch nicht durchgeführt. Um dies im Rahmen der vorliegenden Arbeit umsetzen zu können, wurde ein generischer Kriterienkatalog angefertigt, der auf dem Fachwissen diverser Barrierefreiheitsexperten basiert. Dieser Kriterienkatalog besteht aus 22 durch Experten identifizierte und gewichtete Kriterien, die durch insgesamt 41 Metriken quantifiziert werden. Der Kriterienkatalog kann in Zukunft beliebig angepasst bzw. erweitert werden, um möglichen zukünftigen Anforderungen gerecht zu werden. Mithilfe dieses erstellten Kriterienkatalogs wurden folgende zwei Prüfverfahren hinsichtlich ihrer Eignung und Wirksamkeit verglichen: Der BIK BITV-Test als eines der bekanntesten Konformitätsprüfungsverfahren in Deutschland sowie der BITV-Audit der T-Systems Multimedia Solutions GmbH als Vertreter der empirisch ermittelten Prüfmethoden.
Im Vergleich schließt der BITV-Audit anhand des definierten Kriterienkatalogs besser ab als der BIK BITV-Test. Jedoch ist zu beachten, dass es keine für alle Situationen allgemeingültige Gewichtung der Kriterien geben kann, die allen individuellen Anforderungen gerecht wird. Daher kann der Leser bei Bedarf eine individuelle Gewichtung festlegen und anhand dieser das Ergebnis des Vergleichs für beide Verfahren neu berechnen. Auf Basis der Ergebnisse wurden außerdem die Gemeinsamkeiten und Unterschiede der Prüfverfahren identifiziert. Zudem wurden die jeweiligen Schwächen und Stärken jedes Prüfverfahrens dargelegt.
Viele Menschen mit Behinderungen stoßen immer noch auf Barrieren, die es ihnen er-schweren, Smartphone-Anwendungen zu nutzen. Die harmonisierte europäische Norm EN 301 549 legt die Anforderungen an die funktionale Barrierefreiheit von ICT-Produk-ten und -Dienstleistungen fest und beschreibt Testverfahren und Bewertungsmetho-den für jede Anforderung. Analysetools und automatisierte Testverfahren versprechen Entwickler bei der Erstellung barrierefreier Anwendungen zu unterstützen. Diese Werkzeuge unterscheiden sich in ihrer Funktionsweise, ihrer Zielgruppe und dem Zeit-punkt, an dem sie in den Entwicklungsprozess eingebunden werden können. Ziel dieser Arbeit ist es, einen Leitfaden zu erstellen, der aufzeigt, welche Kriterien nach EN 301 549 mit Hilfe von Analysewerkzeugen überprüft werden können und die Frage zu be-antworten "Wie können Analysewerkzeuge und automatisierte Testverfahren einge-setzt werden, um Barrierefreiheitstests im Hinblick auf die europäische Norm EN 301 549 zu automatisieren?".
ReMotion ist ein Team der grow platform GmbH, welches die besonderen Herausforderungen der Nutzer und potenziellen Kunden des modernen Fitnesstrainings mit einer innovativen Geschäftsidee lösen will. Dazu soll ein effizientes Training geschaffen werden, das an den individuellen Leistungsstand der Nutzer angepasst ist und ein hohes Erlebnispotenzial bietet. Mithilfe einer firmeninternen und eigens dafür entwickelten Bewegungsplattform, einem Fahrrad-Ergometer als erstes Trainingsgerät, sowie in zusätzlicher Kombination mit Gamification und Technologien, die das Eintauchen in die virtuelle Realität ermöglichen, soll so der Fitnesssport der Zukunft technologisch revolutioniert werden.
Mit dem Ziel, die durch Kundenbefragungen identifizierten Herausforderungen von fehlendem Spaß und fehlender Motivation zu untersuchen, behandelt die vorliegende Arbeit das Thema Gamification in Bezug auf die Tätigkeit des hochintensiven Intervalltrainings auf einem realen, stationären Fahrradprototyp in der virtuellen Realität. Anhand eines User-Centered Design-Ansatzes und mehreren iterativen Entwicklungs-schritten wird das Konzept einer VR-Fitnesstraining Experience entwickelt. Dieses wird in Kooperation mit einem interdisziplinären Projektteam realisiert und anschließend von der Autorin dieser Arbeit evaluiert.
Die Ergebnisse aus einer umfangreichen Nutzerstudie zeigen grundsätzlich, dass der entwickelte Prototyp ein hohes Potenzial für positive und freudvolle Erlebnisse sowie der Motivierung zu einer optimalen Leistung aufweist. Abgeleitet werden konnten sieben mögliche Einflussfaktoren, die mit dem positiven Ergebnis in Verbindung stehen könnten. Herausgreifend betrachtet wird der mögliche Anreiz des Flow-Erlebens, für dessen Einsetzen ein Zusammenspiel mit den anderen sechs Einflussfaktoren essenziell zu sein scheint.
Außerdem wird in einer Erörterung der theoretischen Grundlagen zur Trainingswissenschaft festgestellt, dass in einem regulären Fitnesstraining zwei der vier in der Trainingswissenschaft definierten Gegenstandsbereiche aktuell wenig oder gar keine Berücksichtigung finden. Die Erkenntnisse dieser Arbeit deuten je-doch darauf hin, dass eine Integration, der noch nicht vorhandenen Gegenstandsbereiche in die Konzeption und Gestaltung eines Trainings ein positives Trainingserlebnis und leistungsmotiviertes Handeln begünstigen könnte.
Abschließend wird anhand einer theoretischen und übergreifenden Betrachtung der Vorgehensweise zur Erarbeitung des Gamification-Konzepts, als Hauptgegenstand dieser Arbeit, ein Vorschlag für ein allgemeines Gamification-Modell abgeleitet.
Die vorliegende Masterarbeit befasst sich mit dem Einfluss haptischer Wahrnehmung auf das Präsenzgefühl in der virtuellen Realität. Hierfür wurde passive Haptik in ein prototypisches VR-Spiel integriert, dessen Entwicklung auf einem User-Centered Design Ansatz beruhte. Ziel war es herauszufinden, ob und welche Aspekte der passiven Haptik in der virtuellen Realität zur Steigerung der Präsenz des Spielers beitragen. Die Überprüfung fand daher mit Hilfe einer Evaluation statt, die auf einem Mixed-Methods Ansatz basierte. Die Auswertung verschiedener Fragebögen sowie eines Semi-Structured Interviews zeigte, dass passive Haptik in der virtuellen Realität unter bestimmten Voraussetzungen ein stärkeres Präsenzgefühl beim Spieler hervorruft.
Jeder Mensch könnte einen Schlaganfall erleiden, der eine der Hauptursachen für Behinderungen im erwachsenen Alter ist. Die Überlebenden haben oft Lähmungen und Spastiken und benötigen daher ständige Hilfe, da selbst die Ausführung der einfachsten alltäglichen Aufgaben eine unüberwindbare Herausforderung darstellen kann. Um den Betroffenen zu helfen, wurde im Rahmen des Forschungsprojekts KONSENS unter der Leitung des Universitätsklinikums Tübingen ein Hand-Exoskelett entwickelt, das auch Schlaganfallpatienten nutzen können.
Ziel dieser Arbeit ist die Implementierung einer Steuerung für dieses Hand-Exoskelett auf der Google Glass, sowie Android Smartphones und Smartwatches. Der entstandene Prototyp wurde mit Studenten der Hochschule der Medien Stuttgart und Bekannten des Autors evaluiert. Diese Arbeit bildet den Zwischenstand der Evaluation nach zwanzig Probanden ab. Der Schwerpunkt liegt dabei auf dem Vergleich der Nutzerakzeptanz und Eignung verschiedener Ein- und Ausgabemethoden wie Touch-Input, Sprachsteuerung oder Eyetracking.
Darüber hinaus fasst diese Arbeit auch aktuelle Richtlinien zur barrierefreien Implementierung von Augmented-Reality-Anwendungen zusammen und vergleicht jene mit einem daraus abgeleiteten gemeinsamen Kriterienkatalog.
Mit der seit Jahren fortschreitenden Digitalisierung des Medienmarktes werden auch Bildungsmedienanbieter mit der Forderung konfrontiert, einen Beitrag zur Innovation des Bildungsbereichs zu leisten und Lehr- und Lernprozesse (auch) digital zu gestalten. Für den Schulsektor erfüllen diese Anforderungen mittlerweile größere Bildungsmedienanbieter in Deutschland dadurch, dass sie z. B. digitale Schulbücher und Zusatzmaterialien anbieten und kommerziell vertreiben. Offene Lernmaterialien in dem Sinne, dass sie von Lehrpersonen selbst in Plattformen eingestellt, mit anderen geteilt und unter offenen Lizenzen zur Veränderung und Weiterverwendung frei gegeben werden, sind in Deutschland allerdings immer noch eine Randerscheinung. Vor allem die Finanzierung durch Bildungsministerien und eine Integration in bestehende Verlagsstrukturen ist nicht gegeben. Aktuell wird die „Offenheitsidee" bisher nur von einzelnen engagierten Pädagoginnen und Pädagogen gelebt und vorangetrieben. Zudem verteidigen tradierte Bildungsmedienverlage hartnäckig ihre bisherigen Geschäftsmodelle. In der Arbeit wird dargestellt, was der Offenheitsgedanke für den Bildungsmedienbereich impliziert und mit welchen Strategien sich insbesondere Schulbuchverlage als Bildungsmedienanbieter gegen den Einbezug offener Lernmaterialien in ihre Geschäftsmodelle positionieren. In diesem Zusammenhang wird gezeigt, dass die drei führenden Schulbuchverlage in Deutschland zurzeit nur geschlossene digitale Lernmaterialien anbieten. Darüber hinaus werden alternative (international schon umgesetzte) Geschäftsmodelle sowie potenzielle Geschäftsmodell-Ideen für Deutschland vorgestellt. Es wird ein prospektives, fiktives Geschäftsmodell für einen Schulbuchverlag in Deutschland entwickelt, in dem offene und geschlossene Bildungsmedien unter einem Verlagsdach vertrieben werden. Die Positionen der Vertreterin einer offenen Lernmaterialien-Plattform und des Vertreters eines tradierten Bildungsmedienanbieters zu diesem Modell werden eingeholt, analysiert und ausgewertet. Im Hinblick auf Stellenwert und Vermarktung von offenen digitalen Bildungsmedien (OER) zeigt sich im Ergebnis, dass Befürworter und Entwickler von offenen Bildungsmedien und tradierte Schulbuchverlage zurzeit keine gemeinsamen Ziele und Geschäftsmodelle sehen.
Diese Arbeit befasst sich mit Making-ofs zu Filmen und ergründet deren Geschichte und Einsatz im Laufe der Zeit. Dabei werden sowohl die dokumentarischen Qualitäten als auch das Potenzial als Marketinginstrument untersucht. Hier werden verschiedene Arten von Making-of differenziert und anhand von Beispielen genauer erläutert.
Der Herstellungsprozess von Making-ofs und deren Einsatz wird detailliert erklärt.Im Besonderen werden einige lange Making-ofs auf ihre dokumentarischen Qualitäten untersucht.
Es wird dargelegt, welches Potential diese als eigenständige Dokumentarfilme haben, die ihrerseits vermarktet werden können. Dazu werden die Grundzüge des Filmmarketings besprochen und anhand eines Fallbeispiels erläutert, wie die verschiedenen Arten des Making-of bei einer Filmproduktion zum Einsatz kommen können, um den größtmöglichen Nutzen daraus zu ziehen.
Heutzutage sind perfomante Webanwendungen, die schnell geladen werden und genauso schnell mit den Nutzern interagieren können, immer gefragter. Dabei spielt die Webperfor-mance – Optimierung eine große Rolle. Im Mai 2015 ist die neue Version des HTTP – Protokolls (HTTP/2) erschienen, mithilfe deren Verwendung die Datenübertragung schneller und effizien-ter sein sollte. Hinsichtlich der technologischen Möglichkeiten des HTTP/2 – Protokolls kann der Austausch zwischen dem Client und dem Server deutlich beschleunigt werden. In der ak-tuellen Masterarbeit werden die Techniken zu Frontend – Optimierungstechniken evaluiert, die unter der Verwendung des neuen Protokolls gut geeignet sein können. Besonders wurde dabei auf die Funktion „Server Push“ geachtet. Außerdem wird dargestellt, welche notwendigen Maß-nahmen die Webentwickler unternehmen müssen, um das neue Protokoll benutzen zu können. Unter anderem wird evaluiert, wie gut aktuelle Implementierungen des neuen Protokolls und der dazugehörigen Funktionen funktionieren und wie sich die Ladezeit zwischen dem aktuell meist verwendeten Protokoll HTTP/1.1- und dem HTTP/2 – Protokoll unterscheidet.
Diese Masterarbeit thematisiert die Umgestaltung von klassisch organisierten Bibliotheken zu lernenden Organisationen und die damit verbundenen Change Management Prozesse. Ziel ist die Entwicklung eines Selbstbewertungstools, welches dazu dient, den Entwicklungsstand der Bibliothek auf dem Weg zur lernenden Organisation festzustellen. Es gilt zu beweisen, dass dieses Tool praxistauglich und in Bibliotheken aller Größen und Typen einsetzbar ist. Das Selbstbewertungstool basiert auf dem Maturity Model, das in Australien explizit für Bibliotheken entwickelt wurde und in dieser Masterarbeit weiterentwickelt wird. Grundlage für das Maturity Model und das Selbstbewertungstool bildet die fünfte Disziplin von Peter Senge, die 1990 veröffentlicht wurde. Diese wird neben weiteren Theorien zu lernenden Organisationen, nämlich von Argyris und Schön (1996), Garvin (1993) sowie Pedler, Burgoyne und Boydell (1991), dargestellt und verglichen. Grundlage für die Darstellung bilden einschlägige Monographien. Darüber hinaus wird auf Grundlage von wissenschaftlichen Aufsätzen aus einschlägigen Fachjournalen dargelegt, welche Erfahrungen Bibliotheken bereits mit Umstrukturierungsprozessen zu lernenden Organisationen haben.
Basierend auf der Darstellung der unterschiedlichen Theorien sowie der Erfahrungen von Bibliotheken mit lernenden Organisationen wird das Maturity Model weiterentwickelt. Es bildet den Ausgangspunkt für die Konzeption des Selbstbewertungstools. Es folgt ein Pretest des Selbstbewertungstools mit fünf Bibliotheken unterschiedlicher Größe und verschiedener Bibliothekstypen. Im Pretest werden die Praxistauglichkeit des Tools sowie die universelle Einsetzbarkeit an allen Bibliothekstypen bewiesen. Es folgen Empfehlungen zu Maßnahmen, die eingesetzt werden können, um die Entwicklung einer Bibliothek zu einer lernenden Organisation einzuleiten bzw. zu akzelerieren. Abschließend werden den Bibliotheken Empfehlungen für den Umgang mit dem Selbstbewertungstool gegeben.
Als Grundlage für diese Arbeit dient die Theorie, dass ein Print-on-Demand-Prozess die nachhaltigere
Variante des Publizierens von Drucksachen sein müsste – immerhin schont dieser nicht nur die Ressourcen, da nur die wirklich nachgefragten Publikationen hergestellt werden und per dezentralem
Drucken auch die die Transportwege minimiert werden können, sondern er ist auch finanziell günstiger,
da keine Lagerkosten für eine Auflage anfallen und die Entsorgungskosten von nicht verkauften Publikationen ebenso wegfallen.
Damit ein Print-on-Demand-Prozess aber wirklich nachhaltig ist, müssen noch diverse kritische Punkte
beachtet werden: So muss ein Verlag seine Publikationen sowohl in gedruckter als auch in elektronischer Version veröffentlichen – denn das Leseverhalten bestimmt, welche von beiden die nachhaltigere ist. Dies
konnte an unterschiedlichen Kriterien, wie dem Verbrauch von Energie und Ressourcen sowie der Erneuerbarkeit oder Recyclebarkeit von letzteren festgemacht werden. Dieser Sachverhalt wiederum bedingt, dass im Verlag ein crossmedialer Workflow aufgebaut werden muss – und in der Druckerei nicht
nur Digitaldruckmaschinen genutzt werden müssen, sondern auch Digital-Weiterverarbeitungs-
Maschinen.
Weiterhin müssen Verlage und Druckereien, wenn sie einen Print-on-Demand-Prozess zur Herstellung von gedruckten Publikationen nutzen, sowohl Papiere als auch die Druckfarben mit Bedacht auswählen – denn es hängt von beiden Teilen ab, inwiefern die hergestellte Drucksache deinkbar ist, sodass aus ihr
nach ihrer Nutzung neues Papier hergestellt werden kann.
Aus diesem Grund wurden in dieser Arbeit verschiedene dynamische Digitaldruckverfahren hinsichtlich ihrer Eignung für Print-on-Demand evaluiert. Zudem wurden mit verschiedenen Sorten von Tinten und Tonern unterschiedliche Arten von Papieren bedruckt und danach einer Deinkbarkeitsprüfung nach der verbreiteten INGEDE-Methode 11 unterzogen. Schließlich wurden die verschiedenen Farb-Papier-
Kombinationen anhand der ERPC Deinkability Scorecard bewertet. Die entstandene Farb-Papier-Matrix soll Verlagen und Druckereien als Entscheidungshilfe dienen, damit diese auch dann deinkbare Drucksachen in Auftrag geben bzw. herstellen können, wenn sie einen Print-on-Demand-Prozess nutzen.
Die vorliegende Arbeit beschäftigt sich mit der Automatisierung der Merkmalsextraktion
und der Stimmungsanalyse der extrahierten Merkmale in Produktbewertungen von
Onlineportalen. Der Fokus liegt dabei auf der Merkmalsextraktion.
Ziel dieser Arbeit ist es zu eruieren, ob die automatisierte Extraktion der von Kunden
bewerteten Merkmale eines Produktes aus einem Bewertungstext möglich ist. Ein
weiteres Ziel ist es die von den Kunden geäußerte Meinung bezüglich der genannten
Merkmale zu analysieren.
Mit dem Wissen aus dem Fazit dieser Arbeit soll es möglich sein eine Zusammenfassung
der bewerteten Merkmale von Bewertungstexten sowie der zugehörigen Stimmungen zu
erstellen. Eine solche Zusammenfassung dient dem Zweck sowohl potenziellen Käufern,
als auch den Herstellern der Produkte einen Überblick über die geäußerten Stimmungen
zu den erkannten Merkmalen eines Produktes zu verschaffen.
Es werden zwei Methoden zur Merkmalsextraktion angewendet und die Resultate anhand
von Metriken verglichen. Die Merkmalsextraktion mit Hilfe von Word2Vec ist ein
neuer Ansatz. Die Beschreibung und Evaluation dieses Ansatzes bilden den Hauptteil
dieser Arbeit. Der zweite Ansatz ist die Extraktion der Merkmale mittels der häufigsten
Nomen. Dessen Ergebnisse werden als Referenz für den neueren Ansatz herangezogen.
Beide Methoden wurden bereits bei englischsprachigen Bewertungen erfolgreich eingesetzt.
In dieser Arbeit werden beide Methoden auf deutschsprachige Bewertungen von
Modeartikeln angewendet.
Zunächst werden Bewertungsdaten aus einem Onlineportal extrahiert und vorverarbeitet.
Für die Merkmalsextraktion mittels häufigster Nomen werden die Daten Partof-
Speech annotiert und es wird diskutiert, wie aus den auf diese Weise gefundenen
häufigsten Nomen tatsächliche Merkmale herausgefiltert werden können.
Bei Merkmalsextraktion mit Word2Vec wird eine manuell erstellte Liste von Merkmalen
mit ähnlichen Begriffen erweitert.
Zum Ende der Arbeit wird eine Stimmungsanalyse beschrieben, welche anhand von
Wortlisten mit positiver beziehungsweise negativer Konnotation die gefundenen Merkmale
in positive, negative und neutrale Merkmale einteilt. Für die Merkmalsextraktion
wird hierbei die Word2Vec Methode genutzt.
Sowohl die Ergebnisse der Merkmalsextraktion als auch der Stimmungsanalyse werden
von zwei unabhängigen Nutzergruppen bewertet. Im Anschluss werden die Resultate
der Nutzerbewertung diskutiert.
Die Branche der Herstellung von Visual Effects (VFX) steht im Jahr 2013 auf der ganzen Welt einer Reihe von Problemen gegenüber, die zu einem instabilen Geschäftsklima geführt haben, in dem mehrere große und scheinbar erfolgreiche Unternehmen innerhalb kurzer Zeit Insolvenz anmelden mussten. Diese Arbeit erörtert die vielen verschiedenen Gründe für diese Lage, wie sie sich entwickelt hat und welche Auswirkungen sie für alle Beteiligten nach sich zieht – von den Filmstudios über die VFX-Firmen bis hin zum VFX-Artist. Bis hierhin waren die Aspekte der Herstellung von Visual Effects, die über die technischen Fortschritte oder die künstlerischen Errungenschaften hinausgehen und sich mit den Geschäfts- und Arbeitsbedingungen befassen, nur selten Thema einer ausführlichen und umfassenden Diskussion. Diese Arbeit konzentriert sich auf die größten Probleme der VFX-Industrie und auf die Frage, warum die Branche im Moment langfristig in dieser Form nicht zukunftsfähig ist und versucht ein größeres Verständnis für die zu Grunde liegenden Ursachen zu schaffen, damit sie behoben werden können. Die VFX-Industrie ist ein Geflecht von komplexen und nicht immer greifbaren individuellen Interessen und Mentalitäten, deren gemeinsames Interesse jedoch sein sollte, die allgemeine Situation zu verbessern.
Herausforderungen an Informationsarbeit in einem globalen Unternehmensumfeld am Beispiel China
(2014)
Unter Globalisierung ist eine der sinnvollsten ökonomischen Ausdehnungen der vergangenen 20 Jahre zu verstehen. China, als das Land der Mitte, ist seit dem Beginn der 1990er Jahre, und damit dem Ende des Ost-West Konfliktes, für westliche Länder in das Zentrum ihrer Internationalisierungsstrategien gerückt – wie übrigens umgekehrt Deutschland für außereuropäische Länder wieder das (wirtschaftliche) Zentrum Europas bildet. Internationalisierung betrifft alle Bereiche von Unternehmen, insbesondere die Informationsarbeit. Im Zusammenhang von zwei komplett unterschiedlichen Kulturen, ist es schwer einzuschätzen, wie die Internationalisierung der Informationsarbeit erfolgreich gestaltet werden kann und somit die Ausweitung der Unternehmensphilosophie nach Fernost gelingt. Die vorliegende Arbeit untersucht kulturelle Unterschiede im Informationsverhalten des globalen Unternehmensumfelds und wie diese in Bezug auf China zu zahlreichen Herausforderungen an die Informationsarbeit führen. Informationsbedürfnisse auf internationaler Ebene erfüllen zu können ist eher schwer, aber nicht unmöglich.
Diese Arbeit evaluiert die Herausforderungen, denen Scrum bei der Skalierung für große Projekte gegenübersteht. Diese bestehen hauptsächlich aus der Synchronisation der Teams, dem effizienten Auflösen von Abhängigkeiten, dem Sicherstellen von regelmäßiger sowie direkter Kommunikation, der Reduktion von Komplexität sowie dem Fördern und Fordern von regelmäßigem Feedback aller Projektbeteiligten. Abstract Die Herausforderungen unterteilen sich in die Skalierung der Scrum Artefakte, Rollen und Meetings. Für jeden der drei Bereiche werden in dieser Arbeit mehrere Lösungsmöglichkeiten vorgestellt, evaluiert und bewertet. Abstract Neben den Scrum Artefakten, Rollen und Meetings gibt es weitere, querschnittliche Herausforderungen, welche es bei der Skalierung von Scrum zu beachten gilt. Dabei handelt es sich um die Gebiete Softwarearchitektur, Unternehmenskultur, Projekt- und Prozessmanagement sowie Unternehmensstruktur. Abstract Die als starr angesehene Entwicklung einer Softwarearchitektur für ein großes Softwareprodukt steht der agilen Entwicklungswelt gegenüber und auch bei den unterschiedlichen Unternehmenskulturen gibt es Differenzen hinsichtlich der Kompatibilität mit Scrum und dessen Skalierung. Bezüglich der Softwarearchitektur im skalierten Umfeld wurde ein Mittelweg gefunden, der sich als „Enough Design Up Front” betitelt. Dieser stellt einen Kompromiss zwischen dem rein inkrementellen Ansatz des „No Design Up Front” und dem an das Wasserfallmodell angelehnten „Big Design Up Front” dar. Abstract Hinsichtlich der in den Unternehmen vorgefundenen Unternehmenskulturen obliegt es den jeweiligen Vorständen, sich für eine Entwicklung der vorhandenen Unternehmenskultur zu entscheiden oder versuchen, eine gänzlich andere Unternehmenskultur anzustreben. Beide Möglichkeiten können je nach Grad und Ausprägung der vorliegenden Unternehmenskultur mehrere Jahre des Wandels in Anspruch nehmen. Abstract Das Projekt- und Prozessmanagement muss für die Skalierung von Scrum geeignete Teamstrukturen sowie Integrationsstrategien finden, um die Produktinkremente der einzelnen Teams optimal zusammenzuführen. Die in dieser Arbeit vorgeschlagenen Möglichkeiten bieten den Verantwortlichen einige Optionen, müssen jedoch mit Bedacht gewählt und eingeführt werden. Viele dieser Lösungsmöglichkeiten fordern Veränderungen in der Unternehmensstruktur. Der Wandel der Unternehmensstruktur zur Unterstützung der Teams für eine effektive Produktentwicklung stellt somit eine weitere Herausforderung bei der Skalierung von Scrum dar.
Diese Masterthesis befasst sich mit dem Thema Blogger Relations und deren Relevanz für eine stakeholderorientierte Unternehmenskommunikation. Im Fokus steht die Frage, wie die Beziehung zwischen Bloggern und Organisationen (wie Unternehmen oder NGOs) im Rahmen einer Blogger Relations Strategie erfolgreich gestaltet werden kann. Im Sinne des Stakeholder-Ansatzes ist dabei besonders eine qualitative Perspektive, also der Blick auf die Ansprüche der Blogger an eine solche Zusammenarbeit wichtig. Zunächst werden die Digitalisierung der Unternehmenskommunikation und die dadurch veränderten Bedingungen für Kommunikation und Beziehungspflege thematisiert. Dann wird beschrieben, welche Gründe für den Einsatz einer Blogger Relations Strategie sprechen und welche kommunikativen und ökonomischen Ziele dadurch erreicht werden können. Abschließend werden die aktuelle Kommunikationspraxis in diesem Bereich analysiert und sowohl Problemfelder als auch Zukunftstrends aufgezeigt. In einem praxisorientierten Teil wird dann ausgerichtet am Kooperationspartner Slow Food Deutschland eine Blogger-Befragung durchgeführt. Ziel dieser Befragung ist es, Faktoren zu analysieren, die die Bedürfnisse und Ansprüche der Blogger abbilden und somit Blogger-Relations-Maßnahmen erfolgreich und effektiv machen. Diese Einblicke in die Bloggosphäre – Blogger Insights – werden dann praxisnah und übersichtlich in einer Blogger-Insight-Map aufbereitet. Daraus werden strategische Handlungsempfehlungen für eine mögliche Blogger Relations Strategie von Slow Food Deutschland abgeleitet.
In der vorliegenden Arbeit wird für eine wissenschaftliche Spezialbibliothek eine neue Dienstleistung im Zeitschriftenbereich, nach den Prinzipien des Service Engineering, entwickelt. Um die Kundenorientierung zu gewährleisten, erfolgt zunächst eine Erforschung des Recherche- und Leseverhaltens von Wissenschaftlern, der Hauptzielgruppe der Bibliothek, in Literatur und Praxis. Zugleich wird das bestehende Dienstleistungsangebot anhand einer Stärken-Schwächen-Analyse auf sein Optimierungspotenzial geprüft. Aufbauend auf den Ergebnissen einer Online-Umfrage unter den Forschern, wird schließlich die neue Dienstleistung mit zugehörigem Produktmodell und Marketingkonzept gestaltet.