000 Allgemeines, Wissenschaft
Refine
Year of publication
Document Type
- Periodicalpart (8)
- Article (3)
- Bachelor Thesis (2)
- Master's Thesis (2)
- Book (1)
- Other (1)
- Researchpaper (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Forschungsbericht (8)
- Stuttgart / Fachhochschule Stuttgart - Hochschule der Medien (8)
- Humor (3)
- Fernsehen (2)
- Alltag (1)
- Arbeitsmarkt (1)
- Comedy (1)
- Computersimulation (1)
- Convolutional Neural Network (1)
- Debugging (1)
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
When searching for bugs in Java enterprise applications, an essential part of the
eort consists in redeploying the source code and relaunching the server over and
over. In order to improve this situation, this thesis suggests the implementation
of a runtime debugging tool. The tool's purpose is to facilitate the enrichment of
operating application code with logging statements, which are inteded to generate
additional output concerning the webapp's current state. On behalf of this
so-called instrumentation, the actual process of debugging could be supported
and accelerated without having to interrupt the server's execution.
Due to the signicance of Java EE as well as Spring for today's enterprise development,
the implementation of a dedicated debugging tool for each platform
shall be covered. Both solutions pursue the same goal, but dier in the approach
and the programming paradigm forming their basis. This document introduces
their implementation details and evaluates them against a specication that de-
nes the general conditions and expectations in terms of the capabilities of a
satisfying result.
Talking about highly scalable and reliable sys-
tems, issues like logging and monitoring are often
disregarded. However, being able to manage to-
day’s software systems absolutely requires deep
knowledge about the current state of applications
as well as the underlying infrastructure. Extract-
ing and preparing debug information as well as
various metrics in a fast and clearly arranged
manner is an essential precondition in order to
handle this task.
Since we at Bertsch Innovation GmbH also
face increasing requirements concerning Media-
Cockpit as one of our core products, we decided
to establish a centralized logging infrastructure
in order to come up to the application’s evolution
towards a more and more distributed system.
In this paper, I want to describe the steps
that I have taken in order to setup a functioning
logging tool stack consisting of Elasticsearch,
Logstash and Kibana (usually abbreviated as ELK stack ). Besides outlining proper
setup and configuration, I will also discuss possi-
ble pitfalls as well as custom adjustments made
when ELK did not meet our demands.
Die vorliegende Arbeit beschäftigt sich mit der Automatisierung der Merkmalsextraktion
und der Stimmungsanalyse der extrahierten Merkmale in Produktbewertungen von
Onlineportalen. Der Fokus liegt dabei auf der Merkmalsextraktion.
Ziel dieser Arbeit ist es zu eruieren, ob die automatisierte Extraktion der von Kunden
bewerteten Merkmale eines Produktes aus einem Bewertungstext möglich ist. Ein
weiteres Ziel ist es die von den Kunden geäußerte Meinung bezüglich der genannten
Merkmale zu analysieren.
Mit dem Wissen aus dem Fazit dieser Arbeit soll es möglich sein eine Zusammenfassung
der bewerteten Merkmale von Bewertungstexten sowie der zugehörigen Stimmungen zu
erstellen. Eine solche Zusammenfassung dient dem Zweck sowohl potenziellen Käufern,
als auch den Herstellern der Produkte einen Überblick über die geäußerten Stimmungen
zu den erkannten Merkmalen eines Produktes zu verschaffen.
Es werden zwei Methoden zur Merkmalsextraktion angewendet und die Resultate anhand
von Metriken verglichen. Die Merkmalsextraktion mit Hilfe von Word2Vec ist ein
neuer Ansatz. Die Beschreibung und Evaluation dieses Ansatzes bilden den Hauptteil
dieser Arbeit. Der zweite Ansatz ist die Extraktion der Merkmale mittels der häufigsten
Nomen. Dessen Ergebnisse werden als Referenz für den neueren Ansatz herangezogen.
Beide Methoden wurden bereits bei englischsprachigen Bewertungen erfolgreich eingesetzt.
In dieser Arbeit werden beide Methoden auf deutschsprachige Bewertungen von
Modeartikeln angewendet.
Zunächst werden Bewertungsdaten aus einem Onlineportal extrahiert und vorverarbeitet.
Für die Merkmalsextraktion mittels häufigster Nomen werden die Daten Partof-
Speech annotiert und es wird diskutiert, wie aus den auf diese Weise gefundenen
häufigsten Nomen tatsächliche Merkmale herausgefiltert werden können.
Bei Merkmalsextraktion mit Word2Vec wird eine manuell erstellte Liste von Merkmalen
mit ähnlichen Begriffen erweitert.
Zum Ende der Arbeit wird eine Stimmungsanalyse beschrieben, welche anhand von
Wortlisten mit positiver beziehungsweise negativer Konnotation die gefundenen Merkmale
in positive, negative und neutrale Merkmale einteilt. Für die Merkmalsextraktion
wird hierbei die Word2Vec Methode genutzt.
Sowohl die Ergebnisse der Merkmalsextraktion als auch der Stimmungsanalyse werden
von zwei unabhängigen Nutzergruppen bewertet. Im Anschluss werden die Resultate
der Nutzerbewertung diskutiert.
HdM - Forschungsbericht 2006
(2006)
HdM - Forschungsbericht 2007
(2007)
HdM - Forschungsbericht 2008
(2008)
HdM - Forschungsbericht 2009
(2009)
Gegenstand der hier vorliegenden Bachelorarbeit ist die Erstellung eines Konzepts für eine webbasierte Lernplattform für Jugendliche zur Vermittlung von politischem Wissen und zur Steigerung des politischen Interesses von Jugendlichen. Die konzipierte Lernplattform hat die Vermittlung des Lernstoffes der jeweiligen Klassenstufe der Jugendlichen im Rahmen eines geschichtenbasierten Simulationsspiels zur Aufgabe. Durch die aktive Mitarbeit in der Lernplattform ermöglicht sie den Jugendlichen einen viel leichteren Einstieg in die Thematik. Marktbeobachtungen zeigen auf, dass es an solchen spielbasierten Wissensanwendungen im Bereich der Politik mangelt. Mittels einer Umfrage wurde die Zielgruppe sondiert. Im Fokus liegen hierbei Jugendliche im Alter von 15 bis 18 Jahren. Auf der Basis von Grundlagen im Bereich der Lernpsychologie und dem Game Based Learning wurde eine Geschichte entworfen, in der die Jugendlichen als Hauptfigur die Lernplattform durchlaufen und Wissen aufnehmen. Im Folgenden wurden Überlegungen zur Interfacegestaltung und zur Umsetzung der Geschichte in der Lernplattform erarbeitet.
Forschungsbericht 2002
(2002)