Refine
Year of publication
- 2017 (18) (remove)
Document Type
- Bachelor Thesis (11)
- Master's Thesis (3)
- Book (1)
- Periodicalpart (1)
- Report (1)
- Researchpaper (1)
Has Fulltext
- yes (18)
Keywords
- Alberta , British Columbia , Kanada , Bibliothekssystem (1)
- Algorithmus (1)
- Alte Drucke (1)
- Apache Mesos (1)
- Bewegungswahrnehmung (1)
- Bildungsmedienanbieter (1)
- Computeranimation (1)
- Digitale Bildungsmedien (1)
- Docker (1)
- Elektronische Zeitschrift; Stuttgart / Fachhochschule Stuttgart - Hochschule der Medien (1)
Jahresbericht 2017
(2017)
Mit der seit Jahren fortschreitenden Digitalisierung des Medienmarktes werden auch Bildungsmedienanbieter mit der Forderung konfrontiert, einen Beitrag zur Innovation des Bildungsbereichs zu leisten und Lehr- und Lernprozesse (auch) digital zu gestalten. Für den Schulsektor erfüllen diese Anforderungen mittlerweile größere Bildungsmedienanbieter in Deutschland dadurch, dass sie z. B. digitale Schulbücher und Zusatzmaterialien anbieten und kommerziell vertreiben. Offene Lernmaterialien in dem Sinne, dass sie von Lehrpersonen selbst in Plattformen eingestellt, mit anderen geteilt und unter offenen Lizenzen zur Veränderung und Weiterverwendung frei gegeben werden, sind in Deutschland allerdings immer noch eine Randerscheinung. Vor allem die Finanzierung durch Bildungsministerien und eine Integration in bestehende Verlagsstrukturen ist nicht gegeben. Aktuell wird die „Offenheitsidee" bisher nur von einzelnen engagierten Pädagoginnen und Pädagogen gelebt und vorangetrieben. Zudem verteidigen tradierte Bildungsmedienverlage hartnäckig ihre bisherigen Geschäftsmodelle. In der Arbeit wird dargestellt, was der Offenheitsgedanke für den Bildungsmedienbereich impliziert und mit welchen Strategien sich insbesondere Schulbuchverlage als Bildungsmedienanbieter gegen den Einbezug offener Lernmaterialien in ihre Geschäftsmodelle positionieren. In diesem Zusammenhang wird gezeigt, dass die drei führenden Schulbuchverlage in Deutschland zurzeit nur geschlossene digitale Lernmaterialien anbieten. Darüber hinaus werden alternative (international schon umgesetzte) Geschäftsmodelle sowie potenzielle Geschäftsmodell-Ideen für Deutschland vorgestellt. Es wird ein prospektives, fiktives Geschäftsmodell für einen Schulbuchverlag in Deutschland entwickelt, in dem offene und geschlossene Bildungsmedien unter einem Verlagsdach vertrieben werden. Die Positionen der Vertreterin einer offenen Lernmaterialien-Plattform und des Vertreters eines tradierten Bildungsmedienanbieters zu diesem Modell werden eingeholt, analysiert und ausgewertet. Im Hinblick auf Stellenwert und Vermarktung von offenen digitalen Bildungsmedien (OER) zeigt sich im Ergebnis, dass Befürworter und Entwickler von offenen Bildungsmedien und tradierte Schulbuchverlage zurzeit keine gemeinsamen Ziele und Geschäftsmodelle sehen.
Die Aufzeichnung und Wiedergabe eines Films kann in Standard Frame Rate (SFR) mit 24 Frames pro Sekunde oder in High Frame Rate (HFR) mit höheren Frameraten erfolgen. Im Rahmen dieser Arbeit wird kinematisches Testmaterial in SFR und HFR unter dem Aspekt der Bewegungswahrnehmung erstellt und verglichen. Eine höhere temporale Auflösung reduziert Bewegungsartefakte. Bewegungen werden in HFR detailgenauer, in reduzierter Geschwindigkeit und unter Umständen als unnatürlich wahrgenommen. Durch Berechnung synthetischer Shutter in der Postproduktion, kann das HFR Material kreativ beeinflusst werden. Das in dieser Arbeit erstellte Testmaterial kann darüber hinaus als Grundlage für zukünftige wissenschaftliche Untersuchungen und empirische Studien dienen.
Forschungsbericht 2016
(2017)
Wir freuen uns im folgenden Bericht die Forschungstätigkeit
der Hochschule der Medien Stuttgart (HdM) des Jahres 2016
zusammen zu fassen. Rein von den Zahlen her ist ein weiterer,sehr erfreulicher Anstieg der relevanten Forschungsleistungen zu vermerken. Die eingeworbenen Drittmittel und auch die Anzahl der wissenschaftlichen Veröffentlichungen in Journals,welche ein „Peer-Review“-Verfahren durchlaufen haben, sind im Berichtsjahr wieder deutlich gestiegen.
Wesentlich wichtiger als ein Anstieg der Kennzahlen um einige Prozente sind aber die inhaltlichen Entwicklungen.
Sowohl die fünf „Leuchttürme“ der HdM-Forschung als auch
die weiteren Institute erweiterten sich in den letzten Jahren um viele neu an die HdM berufene Kolleginnen und Kollegen.
Diese sind nun an der Hochschule angekommen und bringen
sich jetzt vermehrt mit ihrer Erfahrung aus der Industrie und den gepflegten Kontakten bei uns in die angewandte Forschung ein.
Gut lässt sich das an den Einträgen unseres neuen Vorhabenregisters ablesen. Die Pipeline ist monetär gut gefüllt und noch erfreulicher sind die spannenden Themen. Unsere Kompetenz im Bereich Medien wird zum „Enabler“ für Forschungsprojekte,welche im weitesten Kontext etwas mit Digitalisierung zu tun haben.Exemplarisch sollen zwei Projekte erwähnt werden.
Das Institut für Digitale Ethik prüft gemeinsam mit namhaftenPlayern aus der Automobilindustrie, wie die Interaktion zwischen Mensch und Maschine beim autonomen Fahren aussehen kann und soll. Das Institut für Games hat unter anderem mit anerkannten Neurologen einen Projektantrag eingereicht, bei dem Virtual Reality-Ansätze helfen sollen die Rehabilitation von Schlaganfallpatienten zu verbessern.Das eine tun und das
andere nicht lassen gilt dabei, d.h. natürlich forschen wir auch weiterhin an klassischen Medienthemen. Dennoch freut es uns, dass unsere Kompetenz gerade in Verbünden und Netzwerken als echter Mehrwert gesehen wird.
Mit diesem Ausbau geht auch ein deutliches Wachstum im
Mittelbau einher. Ein Zugang zur Promotion ist für viele wissenschaftlichen Mitarbeiter ein wesentlicher Motivationsfaktor und dokumentiert auch die Qualität der Forschung. Dennoch gibt es leider nicht „den“ Zugang zur Promotion für unsere Absolventen und Mitarbeiter, sondern eine Vielzahl unterschiedlicher Wege.
Neben den Partnerschaften mit deutschen und ausländischen
Universitäten freut uns vor diesem Hintergrund die Entwicklung des Baden-Württemberg Center for Applied Research, kurz BW-CAR, als landesweite Institution. Einige unserer Kollegen bringen sich hier sehr aktiv ein
und auch hier sollte sich auf absehbare Zeit eine weitere
Türe zur Promotion für Angehörige unserer Hochschule
öffnen.
Bei all den Erfolgen war das Jahr 2016 auch ein Jahr des
Wandels. Mein Vorgänger Prof.Dr. Wolfgang Faigle trat im
Sommer 2016 nach fast 15 Jahren als Prorektor für Forschung in den verdienten Ruhestand. Er hat uns ein wohlbestelltes Haus hinterlassen. Gleichwohl wird es nicht einfach linear weiter gehen. In vielfältiger Art und Weise stoßen wir an die Grenzen der bisherigen Strukturen. Zusätzliche Drittmittel benötigen
Mitarbeiter, diese wollen geführt werden und benötigen
Arbeitsplätze. Vor diesem Hintergrund schaffen wir Strukturen, welche allen Beteiligten mehr Planungssicherheit geben und gleichzeitig auch die Visibilität der Forschenden erhöhen. So werden diesen Sommer „Forschungsprofessuren“ für Kollegen
mit einem entsprechenden „Track-Record“ eingerichtet. Auch die generellen Deputatsnachlässe werden neu geregelt und erlauben eine bessere Planbarkeit während des Projektablaufs.
Last but not Least steht das Thema „Flächen“ auf der Tagesordnung.
Inzwischen sind über 50 Mitarbeiter ganz oder teilweise
in Forschungsprojekten tätig. Diese erfreuliche Entwicklung wird sich mittelfristig auch in Form von neuen Räumen niederschlagen,welche auch den einzelnen Forschenden eine besser
Zusammenarbeit und Vernetzung erlauben. Auch das IAF wird
sich weiter entwickeln mit dem Ziel es den Kollegen im Haus einfach zu machen zu forschen in der Hoffnung, dass diese noch mehr Begeisterung daran haben.
Am Ende gilt, dass Forschung an einer Hochschule für angewandte Wissenschaft kein Privatvergnügen ist. Es steht für ein besonderes Engagement der beteiligten Kollegen. Dafür möchte ich mich an dieser Stelle bei den Kollegen im Haus bedanken.
Zudem möchte ich mich beim Team des IAFs bedanken. In
unermüdlicher Arbeit stehen sie oft hinter den erfolgreichen Anträgen und sorgen dafür, dass aus einer tollen Projektidee ein erfolgreicher Antrag wird.
Prof. Dr. Nis Högsdal
Prorektor für Innovation
Diese Publikation wird im Rahmen der Öffentlich keitsarbeit des Bundes -
ministeriums für Arbeit und Soziales herausgegeben. Sie darf weder von Parteien noch von Wahlbe werbern oder Wahlhelfern wäh rend eines Wahlkampfes zum Zwecke der Wahlwerbung ver wen det wer den. Dies gilt für Europa-,Bundestags-, Landtags- und Kommunalwahlen. Missbräuchlich ist insbeson dere die Verteilung auf Wahlveranstaltungen, an Informations ständen der Parteien sowie das Einlegen, Aufdrucken oder Aufkleben partei poli tischer Informationen oder Werbe mittel. Untersagt ist gleich falls die Weitergabe an Dritte zum Zwecke der Wahlwerbung. Unabhängig davon, wann, auf welchem Weg und in wel cher Anzahl diese Publikation dem Empfänger zuge gan gen ist, darf sie auch ohne zeit li chen Bezug zu einer bevor ste hen den Wahl nicht in einer Weise verwendet werden, die als Parteinahme der Bundesregierung zugunsten einzelner politischer Gruppen verstanden werden könnte. Außerdem ist diese kostenlose Publikation gleichgültig wann, auf welchem Weg und in welcher Anzahl diese Publikation dem Empfänger zugegangen ist nicht zum Weiterverkauf bestimmt.
Die Frage, wie mit den Konzepten des lebenslangen Lernens und der zunehmenden Digitalisierung und Individualisierung pädagogisch sinnvoll begegnet werden kann, ist von zentralem Interesse. Fand Lernen in der Vergangenheit in Schulen, in der Bibliothek und am heimischen Schreib- oder Küchentisch statt, so reicht dies nicht mehr aus. Informationen sind dank des Internets mobil und das einsame Lernen in der Bibliothek oder daheim wird durch Gruppen- oder Teamarbeit an allen möglichen Orten ersetzt. Hinzu kommt, dass durch die Anforderung des lebenslangen Lernens für Erwerbsfähige individualisierbare Lösungen gefunden werden müssen. Die Erwerbsfähigen stehen vor der Herausforderung, Leben und Lernen miteinander in Einklang zu bringen. Hierfür bedarf es Selbstlernzentren, die im besten Falle die benötigen Informationen zur Verfügung stellen. Diese entstehen zurzeit z. B. in Bibliotheken und Hochschulen, die anfangen, ihr Angebot anzupassen. Zu diesem Zweck bedarf es an Kenntnissen über die Nutzenden und deren Bedürfnisse. Doch diese Bedarfe und die Rahmenbedingungen des Selbststudiums resp. der selbst-ständigen Erarbeitung von Inhalten in Kleingruppen sind weitestgehend unerforscht.
In dieser Bachelorarbeit wird das kanadische öffentliche Bibliothekssystem mit besonderem Fokus auf die Provinz Alberta und British Columbia analysiert.
Die Arbeit ist in mehrere Kapitel gegliedert, beginnend mit der Geschichte und Geografie Kanadas sowie eine Vorstellung Kanadas als Einwanderland.
Darüber hinaus befasst sich die Arbeit mit verschiedenen kanadischen Bibliotheksverbänden, sowie dem Shortgrass Library System in Alberta, dem Alberta Libraries Act, dem TRAC Netzwerk und der ME Libraries Card.
In der Bachelorarbeit wird unter anderem der British Columbia Library Act sowie die drei Bibliothekssysteme Vancouver Public Library, Vancouver Island Public Library System und das Fraser Valley Regional Library System vorgestellt. Abgeschlossen wird die wissenschaftliche Arbeit mit einer Darstellung der Unterschiede sowie Besonderheiten des Bibliothekssystems in Alberta und British Columbia.
Large-scale computing platforms, like the IBM System z mainframe, are often administrated in an out-of-band manner, with a large portion of the systems management software running on dedicated servers which cause extra hardware costs. Splitting up systems management applications into smaller services and spreading them over the platform itself likewise is an approach that potentially helps with increasing the utilization of platform-internal resources, while at the same time lowering the need for external server hardware, which would reduce the extra costs significantly. However, with regard to IBM System z, this raises the general question how a great number of critical services can be run and managed reliably on a heterogeneous computing landscape, as out-of-band servers and internal processor modules do not share the same processor architecture.
In this thesis, we introduce our prototypical design of a microservice infrastructure for multi-architecture environments, which we completely built upon preexisting open source projects and features they already bring along. We present how scheduling of services according to application-specific requirements and particularities can be achieved in a way that offers maximum transparency and comfort for platform operators and users.
Nowadays more and more companies use agile software development to build software in short release cycles. Monolithic applications are split into microservices, which can independently be maintained and deployed by agile teams. Modern platforms like Docker support this process. Docker offers services to containerize such services and orchestrate them in a container cluster. A software supply chain is the umbrella term for the process of developing, automated building and testing, as well as deploying a complete application. By combining a software supply chain and Docker, those processes can be automated in standardized environments. Since Docker is a young technology and software supply chains are critical processes in organizations, security needs to be reviewed. In this work a software supply chain based on Docker is built and a threat modeling process is used to assess its security. The main components are modeled and threats are identified using STRIDE. Afterwards risks are calculated and methods to secure the software supply chain based on security objectives confidentiality, integrity and availability are discussed. As a result, some components require special treatments in security context since they have a high residual risk of being targeted by an attacker. This work can be used as basis to build and secure the main components of a software supply chain. However additional components such as logging, monitoring as well as integration into existing business processes need to be reviewed.
Das Internet ist zu einem bedeutenden und omnipräsenten Teil der Gesellschaft geworden. Die Nutzer haben sich vom reinen Konsumenten zu sog. Prosumenten gewandelt, jedem steht es frei, Inhalte einem großen Publikum zur Verfügung zustellen. Während früher Verlage oder Rundfunkanstalten darüber entschieden haben, wer wann was veröffentlicht und somit eine entscheidende Gatekeeper-Position eingenommen haben, sind es heute Internetkonzerne wie Facebook, Twitter und Co., die mit ihren Algorithmen entscheiden, welche Nachrichten einen Nutzer erreichen. Auch der Nutzer selbst spielt eine zunehmend wichtigere Rolle im Auswahlprozess. Er kann zum einen selbst aktiv Seiten, andere Nutzer oder Beiträge blockieren, zum anderen personalisieren die Konzerne die Inhalte auf Basis seines Verhaltens und seiner Interessen. Diese Arbeit zeigt, dass personalisierte Nachrichteninhalten zu einem eingeschränkten Meinungsbild führen können. Zudem ist zu beobachten, dass sich der Nachrichtenmarkt zum Teil an die neuen Gegebenheiten angepasst hat. So posten inzwischen auch viele der klassischen Nachrichtenunternehmen ihre Artikel in sozialen Medien und passen ihre Headlines sowie den Artikelinhalt auf die dort vorzufindende Zielgruppe an. Dies hat auch negative Auswirkungen, so werden die Artikel auf Reichweite optimiert, die Schlagzeilen werden zunehmend dramatisiert während der Artikelinhalt zeitgleich in den Hintergrund rückt. Da jeder publizieren kann, ist zudem zu beobachten, dass vermehrt auch Falschmeldung verbreitet werden. Quellen können zwar theoretisch von jedem hinterfragt und überprüft werden, jedoch wird ein Nutzer einer Nachricht, die sein Meinungsbild stärkt, eher sein Vertrauen schenken. Diese Arbeit kommt zu dem Schluss, dass den Nutzern zwar bewusst ist, dass ihnen personalisierte Inhalte angezeigt werden, ein direktes Bewusstsein darüber, welche Auswirkungen dies hat und welche Faktoren über diese Personalisierung entscheiden, kann allerdings nicht festgestellt werden. Auch die Betreiber der sozialen Medien werden ihrer neuen Verantwortung, welche sie als Gatekeeper inne haben (sollten), noch nicht gerecht oder sind wollen sich dieser unter Umständen entziehen.
Eine Beispielsammlung für RDA-Katalogisate – Konzept für eine kooperativ geführte Online-Plattform
(2017)
Die Umstellung von Regelwerk RAK auf den internationalen Standard RDA bedeutet für Bibliotheksbedienstete eine immense Veränderung. Da Beispiele eine gute Möglichkeit sind, um sich in ein neues System einzulernen, werden in vielen Bibliotheken eigene Beispielsammlungen erstellt. Im Rahmen einer extensiven Umfrage gilt es herauszufinden, wie weit verbreitet die Nutzung interner Beispielsammlungen ist und wie diese aufgebaut sind. Zudem ergründet die Umfrage, ob gesteigertes Interesse an einer Beispielsammlung in Form einer kooperativ geführten Online-Plattform besteht, und wie diese gestaltet sein müsste, um genutzt zu werden. Es werden Möglichkeiten zur technischen Umsetzung einer solchen Beispielsammlung dargestellt, woraufhin ein Konzept für eine derartige Sammlung auf der Basis eines Wikis folgt.
Erschließung alter Drucke - ein Vergleich ausgewählter deutscher und internationaler Richtlinien
(2017)
Erschließung gehört zu den zentralen Aufgaben von Bibliotheken, da hierdurch
die Bestände auffindbar und zugänglich gemacht werden. Alte Drucke werden
in der Regel besonders ausführlich erschlossen, da diese zahlreiche Besonderheiten
aufweisen, die beschrieben werden sollen. Es gibt verschiedene Regelwerke,
die die Erschließung von alten Drucken festlegen.
In der vorliegenden Arbeit wird untersucht, wodurch sich diese Regelwerke auszeichnen.
Darüber hinaus wird die jeweilige Entstehungsgeschichte kurz beleuchtet.
Weiterhin sollen Besonderheiten alter Drucke vorgestellt werden, da
diese bei der Erschließung berücksichtigt werden. Im Hauptkapitel wird untersucht,
in welchen Aspekten sich die Regelwerke unterscheiden und wo es Gemeinsamkeiten
gibt.
Analyse und Vergleich der Maya-Plugins XGen und Yeti für die Erstellung und Simulation von Haaren
(2017)
In der vorliegenden Bachelorarbeit werden die beiden Maya-Plugins XGen und Yeti auf die Erzeugung von Haaren hin analysiert und anschließend miteinander verglichen.
Zunächst wird eine breite Basis an Wissen zu Haaren allgemein geschaffen und erörtert, wie diese Informationen helfen maximal möglichst realistische Haare in einem 3D Programm zu kreieren, sowie welche Besonderheiten bei computergenerierten Haaren zu beachten sind. Daraufhin werden die Grundlagen der beiden Plugins in den Bereichen Grooming, Shading und Simulation erläutert und auf grundsätzliche Workflows bei der Erstellung von Haaren in XGen und Yeti eingegangen. Zuletzt werden die beiden Programme, mit besonderem Augenmerk auf die Benutzung durch Einsteiger, in den zuvor beschriebenen Punkten miteinander verglichen.
Schon immer haben sich Menschen für Geschichten interessiert.
Für viele sind sie eine Ausflucht aus dem Alltag, Identifkationsmittel und Auseinandersetzung mit Themen aller Art.
Die anhaltende Beliebtheit von Fan Fictions ist daher keine Überraschung. Fan Fictions sind Geschichten, die von Fans geschrieben werden und sich dabei Elementen anderer Quellen bedienen, um diese nicht nur passiv zu konsumieren sondern sich aktiv mit ihnen auseinander zu setzen.
Gerade in Zeiten von Social Media,wo jeder, der einen Internetzugang, Kreativität und etwas technologische Affnität besitzt, mit Leichtigkeit Inhalte erstellen und teilen kann ist das Fortbestehen von Fan Fictions kaum verwunderlich.
Jedoch fällt schnell auf, dass Fan Fiction Archive, welche für eine der ältesten Formen von aktivem Medienkonsum stehen, nicht länger mit der raschen Entwicklung des Internets mithalten können.
Das drückt sich trotz der stetig steigenden Anzahl an geteilten Fan Fictions auf den zahlreichen Plattformen, durch sinkende Kommentarzahlen aus. Das Ziel dieser Arbeit ist es daher, ein Konzept zur Verbesserung der Autor-Leser Kommunikation zu entwickeln und dessen Machbarkeit anhand eines Prototypen zu beweisen.
Zunächst werden dazu die Grundlagen der Fan- und Feedback-Forschung zusammengetragen. Anschließend wird eine Analyse der Zielgruppen, der Kommentare sowie der bisher bestehenden Feedback-Funktionen in Fan Fiction Archiven und anderen Tools durchgeführt.
Diese Untersuchungen zeigen, dass es sich um drei Zielgruppen handelt, deren Bedürfnisse und Bereitschaft zur Beteiligung in der Community variieren: Autoren, kritische Leser und unkritische Leser.
Zudem werden Kommentar-Kategorien ermittelt und Schwachstellen in den Fan Fiction Archiven identifziert. Basierend auf diesen Erkenntnissen wird das Konzept Feeding Fandom entwickelt. Dieses Konzept kombiniert unterschiedliche Formen des Feedbacks und bietet darüber hinaus eine statistische Visualisierung dieser Interaktionen.
Somit ermöglicht das Konzept, dass sich jede Zielgruppe gemäß ihrer Fähigkeiten in der Community einbringen kann und Rückmeldung zur Verbesserung der eigenen Fähigkeiten und Steigerung der Beteiligungsbereitschaft erhält.
Provenienznachweise werden von Bibliothek zu Bibliothek unterschiedlich erfasst und virtuell dargestellt. Hierbei sind bibliotheksuebergreifende Recherchen teilweise nur innerhalb von Verbundkatalogen moeglich und deren Entwicklung befindet sich generell noch im Aufbau. Die Praesentation von Sammlungen aus bestimmten Provenienzen werden auf unterschiedliche Weise mittels zahlreicher Projekte realisiert. Diese Arbeit gibt zunaechst einen allgemeinen Ueberblick über Provenienzen und unterschiedliche Moeglichkeiten diese zu erschließen. Zudem wird die Benutzerfreundlichkeit und Handhabung der Online-Plattformen von Bibliotheken in Bezug zu Provenienzen analysiert und beschrieben. Bei der Untersuchung einzelner Websiten konnten unterschiedliche Typen sowie Vor- und Nachteile der einzelnen Angebote herausgearbeitet werden.
Design Thinking bietet Bibliotheken neue, kreative Möglichkeiten, Nutzer an Gestaltungsprozessen zu beteiligen. Ziel dieser Methodik ist, innovative Lösungen zu entwickeln, die exakt auf Nutzerbedarfe zugeschnitten sind. Die Stadtbücherei Würzburg wendet für die Gestaltung einer neuen Stadtteilbibliothek als erste deutsche Bibliothek Design Thinking an. Die vorliegende Arbeit beschäftigt sich mit der Frage, welche Methoden für diese Art von Projekten geeignet sind und wie Bibliotheken erfolgreich mit Design Thinking arbeiten können. Ein Teil der Arbeit behandelt die Theorie von Design Thinking, mit Schwerpunkten auf dem Prozess, einem Methodenüberblick und Erfolgsfaktoren. Im zweiten Teil werden die Ergebnisse einer empirischen Untersuchung dargelegt: Erfahrungswerte anderer Bibliotheken werden gebündelt und ausgewertet. Das Ergebnis sind Handlungsempfehlungen für die Anwendung von Design Thinking in Bibliotheken.
Die vorliegende Arbeit ist auf dem Gebiet der praktischen interkulturellen Bibliotheksarbeit mit dem Schwerpunkt der Inklusion von Migranten anzusiedeln. Vor dem Hintergrund der aktuellen Thematik bezüglich der „Flüchtlingswelle“ bezieht sich die Arbeit vorrangig auf
„derzeitig zugewanderte“ Migranten. Schließt jedoch keine Gruppe aus. Sie enthält eine Vielzahl von Möglichkeiten wie Bibliotheken ganz praxisnah ihr Angebot auf die Bedürfnis- se von Migranten anpassen können. Diese Möglichkeiten wurden durch Literaturrecherche als auch durch die qualitative empirische Forschungsmethode der Interviews herauskris- tallisiert. Ferner wurden Schwierigkeiten herausgefiltert, die mancherorts bei der Einbin- dung einer Zielgruppe entstanden sind. Sowie deren Lösungsansätze.
Die Entwicklung von mobilen Anwendungen und Web-Anwendungen ist aufgrund der großen Zahl von Zielplattformen aufwendig. Gegenstand dieser Arbeit ist die Evaluation von Technologien zur Erstellung von mobilen und Web-Anwendungen aus derselben Codebasis mit Hilfe von Webtechnologien und die Erweiterung der JavaScript-Syntax durch Transpiler. Dabei wird das Ziel verfolgt, Anwendungen aus Perspektive der Wartbarkeit zu konstruieren. Der Begriff der Wartbarkeit im Rahmen der Softwareentwicklung wird geklärt und bildet zusammen mit einem Anforderungskatalog eine Liste von Kriterien, welche zur Auswahl einer geeigneten Technologie verwendet wird. Es wird eine prototypische Anwendung implementiert, anhand der die ausgewählte Technologie hinsichtlich ihrer Eignung evaluiert wird.