dc.contributor.advisor | Wörgötter, Florentin Prof. Dr. | de |
dc.contributor.author | Markelic, Irene | de |
dc.date.accessioned | 2010-12-08T12:11:40Z | de |
dc.date.accessioned | 2013-01-18T13:41:51Z | de |
dc.date.available | 2013-01-30T23:51:12Z | de |
dc.date.issued | 2010-12-08 | de |
dc.identifier.uri | http://hdl.handle.net/11858/00-1735-0000-0006-B6A1-A | de |
dc.identifier.uri | http://dx.doi.org/10.53846/goediss-2921 | |
dc.identifier.uri | http://dx.doi.org/10.53846/goediss-2921 | |
dc.identifier.uri | http://dx.doi.org/10.53846/goediss-2921 | |
dc.description.abstract | Roboter können unser Leben erleichtern, indem sie
für uns unangenehme, oder sogar gefährliche Aufgaben
übernehmen. Um sie effizient einsetzen zu können,
sollten sie autonom, adaptiv und einfach zu instruieren
sein. Traditionelle 'white-box'-Ansätze in der Robotik
basieren auf dem Verständnis des Ingenieurs der
unterliegenden physikalischen Struktur des gegebenen
Problems. Ausgehend von diesem Verständnis kann der
Ingenieur eine mögliche Lösung finden und es in dem
System implementieren. Dieser Ansatz ist sehr mächtig,
aber gleichwohl limitiert. Der wichtigste Nachteil ist,
dass derart erstellte Systeme von vordefiniertem Wissen
abhängen und deswegen jedes neue Verhalten den
gleichen, teuren Entwicklungszyklus benötigt. Im
Gegensatz dazu sind Menschen und einige andere Tiere
nicht auf ihre angeborene Verhalten beschränkt, sondern
können während ihrer Lebenszeit vielzählige weitere
Fähigkeiten erwerben. Zusätzlich scheinen sie dazu kein
detailliertes Wissen über den (physikalische) Ablauf
einer gegebenen Aufgabe zu benötigen. Diese
Eigenschaften sind auch für künstliche Systeme
wünschenswert. Deswegen untersuchen wir in dieser
Dissertation die Hypothese, dass Prinzipien des
menschlichen Fähigkeitslernens zu alternativen Methoden
für adaptive Systemkontrolle führen können. Wir
untersuchen diese Hypothese anhand der Aufgabe des
Autonomen Fahrens, welche ein klassiches Problem der
Systemkontrolle darstellt und die Möglichkeit für
vielfältige Applikationen bietet. Die genaue Aufgabe
ist das Erlernen eines grundlegenden, antizipatorischen
Fahrverhaltens von einem menschlichem Lehrer. Nachdem
wir relevante Aspekte bezüglich des menschlichen
Fähigkeitslernen aufgezeigt haben, und die Begriffe
'interne Modelle' und 'chunking' eingeführt haben,
beschreiben wir die Anwendung dieser auf die gegebene
Aufgabe. Wir realisieren chunking mit Hilfe einer
Datenbank in welcher Beispiele menschlichen
Fahreverhaltens gespeichert werden und mit
Beschreibungen der visuell erfassten
Strassentrajektorie verknüpft werden. Dies wird
zunächst innerhalb einer Laborumgebung mit Hilfe eines
Roboters verwirklicht und später, im Laufe des
Europäischen DRIVSCO Projektes, auf ein echtes Auto
übertragen. Wir untersuchen ausserdem das Erlernen
visueller 'Vorwärtsmodelle', welche zu den internen
Modellen gehören, sowie ihren Effekt auf die
Kontrollperformanz beim Roboter. Das Hauptresultat
dieser interdisziplinären und anwendungsorientierten
Arbeit ist ein System, welches in der Lage ist als
Antwort auf die visuell wahrgenommene
Strassentrajektorie entsprechende Aktionspläne zu
generieren, ohne das dazu metrische Informationen
benötigt werden. Die vorhergesagten Aktionen in der
Laborumgebung sind Lenken und Geschwindigkeit. Für das
echte Auto Lenken und Beschleunigung, wobei die
prediktive Kapazität des Systems für Letzteres
beschränkt ist. D.h. der Roboter lernt autonomes Fahren
von einem menschlichen Lehrer und das Auto lernt die
Vorhersage menschlichen Fahrverhaltens. Letzteres wurde
während der Begutachtung des Projektes duch ein
internationales Expertenteam erfolgreich demonstriert.
Das Ergebnis dieser Arbeit ist relevant für Anwendungen
in der Roboterkontrolle und dabei besonders in dem
Bereich intelligenter Fahrerassistenzsysteme. | de |
dc.format.mimetype | application/pdf | de |
dc.language.iso | eng | de |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ | de |
dc.title | Einen Roboter das Fahren Lehren - ein auf Fähigkeitslernen basierter Ansatz | de |
dc.type | doctoralThesis | de |
dc.title.translated | Teaching a Robot to Drive - A Skill Learning Inspired Approach | de |
dc.contributor.referee | Parlitz, Ulrich Prof. Dr. | de |
dc.date.examination | 2010-08-06 | de |
dc.description.abstracteng | Robots can alleviate our lives by accomplishing
tasks that are unpleasant or even dangerous for us. To
employ them efficiently they should be autonomous,
adaptive, and easy to instruct and use. Traditional
white-box approaches to robot control are based on an
engineer s understanding of the physical structure of a
given problem from which he or she derives a possible
solution which is implemented into the system. This is
a powerful approach, yet also limited in several ways.
The primary drawback is that such systems depend on
predefined knowledge and therefore each additional
behavior again requires the same expensive
implementation cycle. By contrast, humans and many
other animals are not limited to innate behaviors but
can acquire various skills during lifetime. In
addition, for them detailed knowledge of the underlying
(physical) process of a given task does not seem to be
required. These features are attractive for artificial
systems too. In this thesis we therefore investigate
the hypothesis that principles of human skill
acquisition may lead to alternative methods for
adaptive system control. In addition we postulate that
an economical factor should be considered, i.e. tasks
should be solved with little a priori knowledge and
little processing, to arrive at effcient processing
mechanisms. We investigate this for the task of
autonomous driving which is a classical problem in
system control with a wide range of applications. The
precise task is to learn basic, anticipatory driving
from a human supervisor. After reviewing relevant
aspects concerning human skill acquisition and
introducing the notion of internal models and chunking
we propose the application of the latter to the given
task. We realize chunking with a database where human
driving examples are attached to extracted descriptions
of the visually perceived street trajectory. This is
first realized in an indoor scenario using a robot, and
later, in the course of the European DRIVSCO project,
transferred to a real car. Furthermore, we investigate
the learning of visual forward models which are part of
internal models and their e ffect on control
performance in the laboratory setup. The main result of
this interdisciplinary and application oriented work is
a system which is able to produce action plans in
response to visually perceived street trajectories,
without requiring metric information for street
following. The predicted actions concerning the robot
setup were steer and speed, and for the real car steer
and acceleration where the predictive capacitiy of the
system for the latter was limited. Hence, the robot
learned to drive autonomously from a human teacher and
the car learned to predict the human s actions. The
latter was successfully demonstrated during the
international review meeting of the project. The
outcome of this work is interesting for applications in
robot control and especially intelligent driver
assistance systems. | de |
dc.contributor.coReferee | Fu, Xiaoming Prof. Dr. | de |
dc.contributor.thirdReferee | Damm, Carsten Prof. Dr. | de |
dc.subject.ger | Fähigkeitslernen | de |
dc.subject.ger | Maschinenlernen | de |
dc.subject.ger | autonomes Fahren | de |
dc.subject.ger | Roboter Kontrolle | de |
dc.subject.ger | Imitationslernen | de |
dc.subject.ger | Fahrerassistenz | de |
dc.subject.ger | visuelle interne Modelle | de |
dc.subject.eng | skill learning | de |
dc.subject.eng | machine learning | de |
dc.subject.eng | autonomous driving | de |
dc.subject.eng | robot control | de |
dc.subject.eng | programming by demonstration | de |
dc.subject.eng | imitation learning | de |
dc.subject.eng | driver assistance | de |
dc.subject.eng | visual internal models | de |
dc.identifier.urn | urn:nbn:de:gbv:7-webdoc-2744-7 | de |
dc.identifier.purl | webdoc-2744 | de |
dc.affiliation.institute | Fakultät für Physik | de |
dc.identifier.ppn | 663928966 | de |