000 Allgemeines, Wissenschaft
Refine
Year of publication
Document Type
- Periodicalpart (8)
- Article (3)
- Bachelor Thesis (2)
- Master's Thesis (2)
- Book (1)
- Other (1)
- Researchpaper (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Forschungsbericht (8)
- Stuttgart / Fachhochschule Stuttgart - Hochschule der Medien (8)
- Humor (3)
- Fernsehen (2)
- Alltag (1)
- Arbeitsmarkt (1)
- Comedy (1)
- Computersimulation (1)
- Convolutional Neural Network (1)
- Debugging (1)
Talking about highly scalable and reliable sys-
tems, issues like logging and monitoring are often
disregarded. However, being able to manage to-
day’s software systems absolutely requires deep
knowledge about the current state of applications
as well as the underlying infrastructure. Extract-
ing and preparing debug information as well as
various metrics in a fast and clearly arranged
manner is an essential precondition in order to
handle this task.
Since we at Bertsch Innovation GmbH also
face increasing requirements concerning Media-
Cockpit as one of our core products, we decided
to establish a centralized logging infrastructure
in order to come up to the application’s evolution
towards a more and more distributed system.
In this paper, I want to describe the steps
that I have taken in order to setup a functioning
logging tool stack consisting of Elasticsearch,
Logstash and Kibana (usually abbreviated as ELK stack ). Besides outlining proper
setup and configuration, I will also discuss possi-
ble pitfalls as well as custom adjustments made
when ELK did not meet our demands.
In recent years new trends such as industry 4.0 boosted the research and
development in the field of autonomous systems and robotics. Robots collaborate and
even take over complete tasks of humans. But the high degree of automation requires
high reliability even in complex and changing environments. Those challenging
conditions make it hard to rely on static models of the real world. In addition to
adaptable maps, mobile robots require a local and current understanding of the scene.
The Bosch Start-Up Company is developing robots for intra-logistic systems, which
could highly benefit from such a detailed scene understanding. The aim of this work
is to research and develop such a system for warehouse environments. While the
possible field of application is in general very broad, this work will focus on the
detection and localization of warehouse specific objects such as palettes.
In order to provide a meaningful perception of the surrounding a RGB-D camera is
used. A pre-trained convolutional network extracts scene understanding in the form
of pixelwise class labels. As this convolutional network is the core of the application,
this work focuses on different network set-ups and learning strategies. One difficulty
was the lack of annotated training data. Since the creation of densely labeled images
is a very time consuming process it was important to elaborate on good alternatives.
One interesting finding was that it’s possible to transfer learning to a high extent from
similar models pre-trained on thousands of RGB-images. This is done by selective
interventions on the net parameters. By ensuring a good initialization it’s possible
to train towards a well performing model within few iterations. In this way it’s
possible to train even branched nets at once. This can also be achieved by including
certain normalization steps. Another important aspect was to find a suitable way
to incorporate depth-information. How to fuse depth into the existing model? By
providing the height over ground as an additional feature the segmentation accuracy
was further improved while keeping the extra computational costs low.
Finally the segmentation maps are refined by a conditional random field. The joint
training of both parts results in accurate object segmentations comparable to recently
published state-of-the-art models.
When searching for bugs in Java enterprise applications, an essential part of the
eort consists in redeploying the source code and relaunching the server over and
over. In order to improve this situation, this thesis suggests the implementation
of a runtime debugging tool. The tool's purpose is to facilitate the enrichment of
operating application code with logging statements, which are inteded to generate
additional output concerning the webapp's current state. On behalf of this
so-called instrumentation, the actual process of debugging could be supported
and accelerated without having to interrupt the server's execution.
Due to the signicance of Java EE as well as Spring for today's enterprise development,
the implementation of a dedicated debugging tool for each platform
shall be covered. Both solutions pursue the same goal, but dier in the approach
and the programming paradigm forming their basis. This document introduces
their implementation details and evaluates them against a specication that de-
nes the general conditions and expectations in terms of the capabilities of a
satisfying result.
Die vorliegende Arbeit beschäftigt sich mit der Automatisierung der Merkmalsextraktion
und der Stimmungsanalyse der extrahierten Merkmale in Produktbewertungen von
Onlineportalen. Der Fokus liegt dabei auf der Merkmalsextraktion.
Ziel dieser Arbeit ist es zu eruieren, ob die automatisierte Extraktion der von Kunden
bewerteten Merkmale eines Produktes aus einem Bewertungstext möglich ist. Ein
weiteres Ziel ist es die von den Kunden geäußerte Meinung bezüglich der genannten
Merkmale zu analysieren.
Mit dem Wissen aus dem Fazit dieser Arbeit soll es möglich sein eine Zusammenfassung
der bewerteten Merkmale von Bewertungstexten sowie der zugehörigen Stimmungen zu
erstellen. Eine solche Zusammenfassung dient dem Zweck sowohl potenziellen Käufern,
als auch den Herstellern der Produkte einen Überblick über die geäußerten Stimmungen
zu den erkannten Merkmalen eines Produktes zu verschaffen.
Es werden zwei Methoden zur Merkmalsextraktion angewendet und die Resultate anhand
von Metriken verglichen. Die Merkmalsextraktion mit Hilfe von Word2Vec ist ein
neuer Ansatz. Die Beschreibung und Evaluation dieses Ansatzes bilden den Hauptteil
dieser Arbeit. Der zweite Ansatz ist die Extraktion der Merkmale mittels der häufigsten
Nomen. Dessen Ergebnisse werden als Referenz für den neueren Ansatz herangezogen.
Beide Methoden wurden bereits bei englischsprachigen Bewertungen erfolgreich eingesetzt.
In dieser Arbeit werden beide Methoden auf deutschsprachige Bewertungen von
Modeartikeln angewendet.
Zunächst werden Bewertungsdaten aus einem Onlineportal extrahiert und vorverarbeitet.
Für die Merkmalsextraktion mittels häufigster Nomen werden die Daten Partof-
Speech annotiert und es wird diskutiert, wie aus den auf diese Weise gefundenen
häufigsten Nomen tatsächliche Merkmale herausgefiltert werden können.
Bei Merkmalsextraktion mit Word2Vec wird eine manuell erstellte Liste von Merkmalen
mit ähnlichen Begriffen erweitert.
Zum Ende der Arbeit wird eine Stimmungsanalyse beschrieben, welche anhand von
Wortlisten mit positiver beziehungsweise negativer Konnotation die gefundenen Merkmale
in positive, negative und neutrale Merkmale einteilt. Für die Merkmalsextraktion
wird hierbei die Word2Vec Methode genutzt.
Sowohl die Ergebnisse der Merkmalsextraktion als auch der Stimmungsanalyse werden
von zwei unabhängigen Nutzergruppen bewertet. Im Anschluss werden die Resultate
der Nutzerbewertung diskutiert.
HdM - Forschungsbericht 2009
(2009)
HdM - Forschungsbericht 2008
(2008)
HdM - Forschungsbericht 2007
(2007)
HdM - Forschungsbericht 2006
(2006)
Vom 9. Oktober 2003 bis 29. Februar 2004 führte die Hochschule der Medien Stuttgart (HdM) die Befragung „Zwischen Hochschule und Arbeitsmarkt“ unter ehemaligen Studierenden durch. Zur Beteiligung an dieser Online-Umfrage zur Arbeitsmarkterfahrung nach Abschluss des Studiums wurden Absolventen aufgefordert, die ihr Studium zwischen Januar 1995 und Februar 2004 an der HdM oder einer ihrer Vorgängereinrichtungen - der Hochschule für Bibliotheks- und Informationswesen, der Fachhochschule für Druck oder der Hochschule für Druck und Medien - abgeschlossen hatten. Diese erstmals unter Absolventen der HdM durchgeführte Umfrage strebt an, den arbeitsmarktspezifischen Wert eines Studiums an der HdM zu hinterfragen. Aus den Erfahrungen der Hochschulabsolventen beim Einstieg in die Erwerbstätigkeit kann abgeleitet werden, wie Arbeitgeber die Qualität der Ausbildung an der Stuttgarter Medienhochschule einschätzen. Die Ergebnisse der Umfrage kommen der Hochschule vielfältig zugute: Sie tragen dazu bei, sowohl offene wie verdeckte Anforderungen des Arbeitsmarktes besser zu definieren, beleuchten die aus Arbeitgeberperspektive relevanten Stärken und Schwächen des gegenwärtigen Curriculums, fordern dazu auf, auf Veränderungen des Arbeitsmarktes - etwa verstärkte Selbständigkeit oder zunehmende Internationalisierung - mit entsprechenden Reformen zu reagieren. Neben interner und externer Evaluation stellt die Umfrage eine Maßnahme zur Qualitätssicherung in der Lehre dar. Die Befragung wurde vor dem Hintergrund einer angespannten Situation auf dem Arbeitsund Medienmarkt durchgeführt. Nach Abflauen des um 2000 boomenden neuen Medienmarktes verläuft der Berufseinstieg für Absolventen entsprechender Studiengänge weniger reibungslos. Wirtschaftliche Anspannung lässt sich auch bei den Herstellern von Druckmaschinen, den Verlagen wie den Kommunen feststellen. Positiv auf die Situation der Hochschulabsolventen können sich dagegen der prognostizierte Bedarfsanstieg an Akademikern sowie an Medienexperten für Branchen außerhalb der Medienindustrie auswirken.
Forschungsbericht 2005
(2005)