Refine
Document Type
- Bachelor Thesis (28) (remove)
Has Fulltext
- yes (28)
Is part of the Bibliography
- no (28)
Keywords
- Barrierefreiheit (6)
- Digitale Barrierefreiheit (3)
- Gamification (3)
- Softwareentwicklung (2)
- Webanwendung (2)
- deep learning (2)
- A/B-Testing (1)
- Abtastung (1)
- Accessibility (1)
- Agile Softwareentwicklung (1)
Institute
- FB 1: Druck und Medien (28) (remove)
Moderne Programme bewältigen immer komplexere und leistungsfordernde Aufgaben. Mit diesem Anstieg geht jedoch ein höherer Bedarf an Hardware-Ressourcen einher, insbesondere an höheren Prozessorkapazitäten. Diesem Trend wurde mit einer konstanten Erhöhung der Taktraten von Prozessoren begegnet. Doch seit 2005 wurde dieser Trend aufgrund von physikalischen Grenzen gebremst. Stattdessen installieren Prozessorhersteller nun mehrere Prozessorkerne mit geringerer Taktrate auf einem Prozessor. Dies führt auch zu neuen Programmiertechniken, die Programme auf mehreren Prozessorkernen verteilen. Sie stellen einen sicheren Datenzugriff, deterministische Ausführung und Leistungsverbesserungen sicher. Ursprünglich mussten Programmierer diese Techniken manuell programmieren, heute existieren Technologien, die eine solche Verwaltung automatisch durchführen.
In dieser Thesis werden verschiedene High-Level Programmiertechniken anhand einer Beispielanwendung hinsichtlich ihrer Leistung, Ressourcenverwaltung und Bedienbarkeit verglichen. Die Beispielanwendung soll eine tatsächlich einsetzbare Anwendung repräsentieren, die grundlegende Probleme, wie voneinander unabhängige und abhängige Berechnungsschritte aufweist, weshalb eine Physiksimulation gewählt wurde. Die Parallelisierung wurde mit Goroutinen, Java Parallel Streams, Thread Pools und C++ async-Funktionen in ihrer jeweiligen Programmiersprache realisiert.
Um die verschiedenen Parallelisierungstechniken zu vergleichen, wurden mehrere Merkmale der parallelen Implementierungen gemessen und mit einer sequentiellen Referenzimplementierung verglichen. Um die Leistung der Techniken zu messen, wurden die Ausführungszeiten der verschieden Simulationen gemessen und analysiert. Die Ressourcenverwaltung wurde anhand der Prozessorauslastung der verschiedenen Implementierungen verglichen. Um die Bedienbarkeit der verschiedenen Parallelisierungstechniken gegenüberzustellen, wurde die Anzahl der Quelltextzeilen ermittelt und in Relation gesetzt. Die Analyse dieser Daten zeigt die Unterschiede der Parallelisierungstechniken. Während die Implementierung unter Nutzung von Java Parallel Streams hohe Prozessorauslastung, und, verglichen mit den anderen Techniken, einen hohen Beschleunigungsfaktor sowie geringe Komplexität aufweist, kann die Implementierung mit Hilfe von C++ async-Funktion nicht mehrere Prozessorkerne auslasten und damit nicht die Vorteile von Parallelisierung ausnutzen. Die hohe Komplexität der Implementierung mit Goroutinen zahlt sich durch vergleichsweise geringe Ausführungszeiten trotz niedriger Prozessorauslastung aus.
Gegenstand der vorgestellten Arbeit ist die Evaluierung frei erhältlicher Performance Test Frameworks, zusätzlich in Hinblick auf deren HTTP/2 und WebSockets Unterstützung. Zur Einführung wird der allgemeine Aufbau und die Vorgehensweise von Performancetests erörtert. Hierfür werden zwei unterschiedliche Testpläne vorgestellt und miteinander verglichen. Anschließend werden die ausgewählten Frameworks auf ihre Funktionen untersucht. Zuletzt wird beispielhaft eine im Netz frei verfügbare Webanwendung mit den vorgestellten Frameworks getestet und der Ablauf derer jeweils dokumentiert.
Um ein abschließendes Fazit zu formulieren, werden die Frameworks hinsichtlich deren Feature Reichhaltigkeit, Nutzerfreundlichkeit und Aktualität bewertet.
Schlagwörter: Web Performance, Stresstests, HTTP/2, WebSocket, Webanwendung, Frameworks, Performance Programme, Evaluierung
Die hier vorgestellte Arbeit untersucht anhand einer Fachliteratur-Recherche Skalie-rungskonzepte für IT-Startups. Es wird untersucht, wie junge Unternehmen in der IT-Branche sich auf Wachstum vorbereiten und dieses Wachstum fördern können. Dazu wurden aus relevanten Fachbüchern und Artikeln Methoden und Ansätze exzerpiert, die in die Bereiche Personal, Produkt, Finanzen, Vertrieb und Strategie gegliedert sind. Im Anschluss wurden die schlussfolgernden Ergebnisse zusammengefasst, die einen be-sonderen Fokus auf kundennahe Produktentwicklung und Mitarbeiterorientierung um-fassen.
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung von Technologien, die das Infotainmentsystem
von Fahrzeugen mit mobilen Endgeräten verbinden. Dabei werden Eigenschaften wie der
technische Aufbau der Technologien, Angebotsbreite und weitere relevante Attribute analysiert, die
anschließend innerhalb einer Matrix gegenüber gestellt werden. Nachfolgend werden die Geschäftsmodelle
der Unternehmen analysiert, die die zuvor betrachteten Verbindungstechnologien
anbieten. Als Vorgehensweise wurde das Business Model Canvas von Alexander Osterwalder und
Yves Pigneur ausgewählt, da es alle wesentlichen Elemente eines Geschäftsmodells einbeziehen und
deren Zusammenspiel betrachten. Um ein abschließendes Fazit zu formulieren, werden die Auswirkungen
der Geschäftsmodelle auf Automobilhersteller und Entwickler von Applikationen erörtert und
ausgewertet. Durch die sich ergebenden Risiken und Potenziale wird eine sinnvolle Wahl von Technologien
getroffen, die in die zukünftigen Geschäftsmodelle von Automobilherstellern und ApplikationsEntwicklern
einbezogen werden sollten.
Deep learning methods have proven highly effective for object recognition tasks, especially
in the form of artificial neural networks. In this bachelor’s thesis, a way is shown to imple-
ment a ready-to-use object recognition implementation on the NAO robotic platform using
Convolutional Neural Networks based on pretrained models. Recognition of multiple objects
at once is realized with the help of the Multibox algorithm. The implementation’s object
recognition rates are evaluated and analyzed in several tests.
Furthermore, the implementation offers a graphical user interface with several options to
adjust the recognition process and for controlling movements of the robot’s head in order
to easier acquire objects in the field of view. Additionally, a dialogue system for querying
further results is presented.
Privacy in Social Networks
(2016)
Online Social Networks (OSNs) are heavily used today and despite of all privacy concerns found a way into our daily life. After showing how heavy data collection is a violation of the user's privacy, this thesis establishes mandatory and optional requirements for a Privacy orientated Online Social Network (POSN). It evaluates twelve existing POSNs in general and in regard to those requirements. The paper will find that none of these POSNs are able to fulfill the requirements and therefore proposes features and patterns as a reference architecture.
Gegenstand der hier vorgestellten Arbeit ist die Betrachtung und der Vergleich von Datenbanksystemen und deren Einsatzbereich in Verbindung mit Echtzeitdatenströmen in Mobile Cloud Computing Architekturen.
Nach Erläuterung der Funktionsweise von Datenbanken und deren Eigenschaften werden die Unterschiede zwischen den traditionellen relationalen und den echtzeitfähigen Datenbanken untersucht.
Daraufhin wird ein Vergleich von verschiedenen echtzeitfähigen Datenbanken, wie RethinkDB und Google Firebase Realtime Database, durch Gegenüberstellung von Features, der Query-Language und der Realtime-Fähigkeit angefertigt.
Die parallel zur Arbeit entwickelte Mobile-App basiert auf dem RemoteUI-System mit Anbindung an die NoSQL-Datenbank RethinkDB. Durch die Nutzung von Mobile Cloud Computing können rechenintensive Aufgaben wie die Verarbeitung von großen Mengen von Sensordaten durch einen leistungsstarken externen Server durchgeführt werden, um Rechen- und Akkuleistung des mobilen Endgeräts einzusparen.
Als Echtzeitdatenströme werden GPS-Positionsdaten eines Smartphones genutzt, die per Mobile-App über eine REST-API an den Server gesendet werden. Diese werden dort von der Datenbank verarbeitet und für andere Nutzer der App wieder visuell verfügbar gemacht. Hierbei spielt vor allem die Verarbeitung auf dem Server eine bedeutende Rolle.
The capabilities of Artificial Intelligence (AI) are utilized increasingly
in today‘s world. The autonomous and adaptive characteristics
allow applications to be more effective and efficient. A certain
subfield of Artificial Intelligence, Machine Learning, is enabling
services to be tailored to a user‘s specific needs. This could prove to
be useful in an information-heavy field such as Statistics. As design
research from SPSS Statistics, a legacy statistical application, has
indicated, statistics beginners struggle to tackle the challenge of
preparing a statistical research study. They turn to several sources
of information in an attempt to find help and answers but are not
always successful. This leads to them being unconfident before
they have even started to execute the statistical study. The adaptive
features of Artificial Intelligence could help support students
in this case, if designed according to established principles. This
thesis investigated the question whether an AI-powered solution
could elevate the users‘ confidence in statistical research studies.
In order to find the answer, a prototype with exemplary User Experience
was designed and implemented. Preceding research determined
the domain and market offer. User research was conducted
to ensure a human-centered outcome. The prototype was evaluated
with real test users and the results answered the question in
the affirmative.
Im Zusammenhang mit dem Projekt „BGM Vital“ der Charité Universitätsmedizin Berlin, wird erforscht, mit welchen Methoden das betriebliche Gesundheitsmanagement ge-fördert werden kann.
Hierfür wurde sich im Rahmen dieser Arbeit mit der Entwicklung einer App befasst, wel-che dazu dient, die Anwender spielerisch dazu zu motivieren, sich sportlich zu betätigen. Hierbei sollen sie nicht nur ihr Bestes geben und versuchen an ihre Grenzen zu gehen, sondern es soll auch analysiert werden, ob es der Fitness App gelingen würde, den Benutzer nach einem durchgeführten Training zu einem erneuten Training mit dieser App zu motivieren.
Es wird beschrieben, wie die App entwickelt wurde. Von der Anforderungsliste über die genutzten Technologien und dem Ablauf der App, bis zu der eigentlichen Entwicklung.
Des Weiteren wird der Testablauf näher beleuchtet. Hierbei wird auf den Testaufbau, die Testpersonen, die zu absolvierenden Trainingsübungen und die Durchführung des Tests eingegangen. In einer abschließenden Diskussion wurden die Testergebnisse interpretiert und bewertet.
Diese Arbeit befasst sich mit den Herausforderungen, denen Lehrer bei der Wahl von Serious Games und deren Integration in den Unterricht gegenüberstehen.
Zur empirischen Evaluation dieses Sachverhaltes wurden zwei Serious Games, Abgetaucht und Immunity,unter Verwendung eines Onlinefragebogens an Lehrer und Schüler verteilt. Zudem wurden zwei Personen des Lehrkörpers in einem leitfadenbasierten Experteninterview befragt.
Der erste Teil der Arbeit thematisiert die theoretischen Grundlagen zum Begriff Spiel im Allgemeinen, Serious Game und deren Kategorisierung, sowie das Design - Play and
Experience (DPE) Framework, dass im späteren Verlauf im Zusammenhang mit den Eigenschaften eines Serious Games, ein besseres Verständnis der Spielelemente bietet.
Zudem wird die geschichtliche Entwicklung der Serious Games behandelt, worauf der aktuelle Forschungsstand folgt, der in vier Punkte unterteilt ist. Als Erstes wird die Effektivität und Motivationskraft von Serious Games betrachtet, gefolgt von einem Vergleich zum
Frontalunterricht. Im Weiteren werden die Eigenschaften von aktuellen Serious Games charakterisiert und die derzeitigen Hürden für den Einsatz im Unterricht dargestellt. Kapitel drei beschreibt die verwendeten Materialien und Methoden der Arbeit. Die Umfrageergebnisse mit der zugehörigen Diskussion und der Zusammenfassung befinden sich in den finalen Kapiteln. Daraus ging hervor, dass sowohl aus Lehrer- und Schülersicht eine große Offenheit gegenüber Serious Games vorhanden ist. Allerdings ist die Nutzungsbereitschaft der Lehrer deutlich geringer, da ein Mangel an Spezialisierungsmöglichkeiten für Lehrer in der Ausbildung und bei Fortbildungen besteht und eine zentral kommunizierte Plattform fehlt, die einen einheitlichen Zugang für Lehrer ermöglichen würde. Zudem wird der organisatorische Mehraufwand für die Suche und Vorbereitung von Serious Games als problematisch angesehen, da das ausgewählte Spiel genau zum Lehrplan und der Niveaustufe der Schüler passen muss. Für Serious Games empfanden Lehrer die verwendeten didaktischen Mittel und den Lerninhalt als essenziell, wobei für Schüler die audiovisuellen Effekte und der storybasierte Inhalt wichtig war. Um eine angenehme Lernatmosphäre für den Schüler zu schaffen, aber auch das geforderte Lernziel effizient zu erreichen, ist eine Balance zwischen den Interessen der Lehrer und der Schüler vorteilhaft.