留学文书自荐书代写
留学硕士论文代写
SCI期刊ISTP期刊EI论文代写
留学申请推荐信个人陈述代写
留学研究计划书代写
留学论文作业代写修改
英语 English
日语 日本語
韩语한국의
法语 Français
德语 Deutsch
俄语 Pусский
西语 Español
意语 Italiano
·英语论文 ·日语论文
·韩语论文 ·德语论文
·法语论文 ·俄语论文

名称:智尚工作室
电话:0760-86388801
传真:0760-85885119
地址:广东中山市学院路1号
网址:www.zsfy.org
E-Mail:cjpdd@vip.163.com

商务QQ:875870576
微信二维码

业务联系
德语论文
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
添加时间: 2019-4-15 14:34:31 来源: 作者: 点击数:723
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Inhaltsverzeichnis
1 Einleitung
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
2.2 Warum und wofür werden Sie gebraucht?
2.3 Geschichte der autonomen mobilen Robotik
2.4 Andere autonome mobile Roboter
3 Hauptteile und Schlüsseltechnologien
3.1 Sensoren und Aktoren
3.1.1 Abstandssensoren
3.1.1.1 Bumper
3.1.1.2 Ultraschall
3.1.1.3 Infrarot
3.1.1.4 Laser
3.1.1.4.1 2D-Laserscanner
3.1.1.4.2 3D-Laserscanner
3.1.2 Sensoren für Dead-Reckoning
3.1.3 Kamera
3.1.4 Berührungssensoren
3.1.5 Sensorsignale sind interpretationsbedürftig
3.1.6 Aktoren
3.1.6.1 Elektrisch, pneumatisch, hydraulisch
3.1.6.2 Nicht-holonomische und holonomische Bewegung
3.1.7 Datenfusion der Multisensoren
4 Navigation
4.1 Selbstlokalisierung
4.1.1 Globale Selbstlokalisierung
4.1.2 Lokale Selbstlokalisierung
4.2 Weltmodelle für Navigation
4.2.1 Geometrische Weltmodelle
4.2.2 Topologische Weltmodelle
4.2.3 Probabilistische Weltmodelle
5 Analyse von Steuerungsarchitekturen
5.1 Prozessdatenverarbeitung
5.2 Verhaltensbasierte Steuerungsarchitekturen
6 Zusammenfassung
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Abstract:In dieser Arbeit werden viele Informationen über autonome mobile Roboter
ausführlich vorgestellt, besonders über die Informationen über die Anforderungen an
Roboter für den autonomen mobilen Einsatz. Durch die Analyse der Anforderungen
an Roboter für den autonomen mobilen Einsatz kann man ein umfassendes, völlig
neues und deutliches Verständnis für die Anforderungen an Roboter für den
autonomen mobilen Einsatz haben. Das ist auch das Ziel dieser Arbeit. z,B Man kann
die Sensoren und Aktoren, Hauptteile und Schlüsseltechnologien für autonome mobile
Roboter kennen. Zudem werden viele Beispiele für autonome mobile Roboter
vorgestellt. Man kann auch durch diese Arbeit die Geschichte über autonome mobile
Roboter erkennen. Durch die Analyse der Haupteile über autonome mobile Roboter
kann man die Anforderungen an autonome mobile Roboter klar verstehen. Mit vielen
Beispielen bietet diese Arbeit viele nützliche Informationen über autonome mobile
Roboter an. Diese Vorstellung mit den Beispielen ist die Methode dieser Analyse in
dieser Arbeit.
Schlüsselwörter: autonome mobile Roboter, Hauptteile und Schlüsseltechnologien,
Anforderungen, Sensoren
1 Einleitung
Diese Arbeit befasst sich mit den Anforderungen an Roboter für den autonomen
mobilen Einsatz. Autonome mobile Roboter stellen eine Verbindung der Disziplinen
aus Maschinenbau, Elektrotechnik und Informatik dar. Autonome mobile Roboter
bewegen sich frei durch ihre Umwelt. Über die folgende Analyse der Anforderungen
an Roboter für den autonomen mobilen Einsatz erhalten wir ein umfassendes, völlig
neues und deutliches Verständnis für den mobilen Einsatz von Robotern.
Diese Arbeit wird in 6 Teilen unterteilt. Zuerst ist die Einleitung. Dann werden die
Teile von Autonome mobile Roboter, Hauptteile und Schlüsseltechnologien,
Navigation, Analyse von Steuerungsarchitekturen einzeln vorgestellt. Zum Schluss
ist die Zusammenfassung.
Die Hauptteile dieser Arbeit sind die Teile von Hauptteile und Schlüsseltechnologien,
Navigation, Analyse von Steuerungsarchitekturen. Diese drei Teile werden
ausführlich in dieser Arbeit geschrieben.
Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
kann man zuerst wissen, was ist ein autonomer mobiler Roboter? Dann kann man
auch wissen, was ist die Haupteile von einem autonomen mobilen Roboter? Wie die
Anforderungen an Roboter für den autonomen mobilen Einsatz sind? Wie ist die
verhaltensbasierte Architektur? Wie ist die Navigation eines autonomen und mobilen
Roboters? Für eine Reihe von Fragen über autonome mobile Roboter kann man in
dieser Arbeit eine Antwort bekommen.
Diese Arbeit richtet sich an die Anforderungen an autonome mobile Roboter, die nicht
nur für allgemeine Arbeit und auch für den Industriegebrauch sehr wichtig und
hilfreich sind.
Durch diese Arbeit kann man einen umfassenden und deutlichen Blick auf die
Anforderungen an Roboter für den autonomen mobilen Einsatz haben. z,B. Mann
kann die Steuerungsarchitekturen, die Sensoren und Aktoren und die Lokale und
globale Selbstlokalisierung eines autonomen und mobilen Roboters besserer als früher
verstehen usw. Auch man kann die Information über die Weltmodelle für Navigation
gut lernen. Dieser Folgende Teil ist Autonome mobile Roboter.
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
Immer bezeichnet man die Roboter als autonome mobile Roboter, die sich in
ihrer Umgebung selbständig bewegen und agieren können. Aber für die
Autonomie gibt es jetzt verschiedene Abstufungen. Das heißt, dass die
Unabhängigkeit des Roboters nicht gleich ist. Roboter sind stationäre oder mobile
Maschinen, die nach einem bestimmten Programm festgelegte Aufgaben erfüllen.
Die freie autonome Beweglichkeit eines autonomen mobilen Roboters hat sowohl
Vorteile aber auch Nachteile. Es ist vorteilhaft, dass die Roboter für Aufgaben
eingesetzt werden können, die Vorwärtsbewegung erfordern (wie z.B.
Transport-,Überwachungs-, Inspektions- oder Reinigungsaufgaben), da sie sich
für diese Aufgaben selbständig positionieren können. Autonome mobile Roboter
eignen sich deshalb besonders gut für den Einsatz in weitläufigen Umgebungen,
die für Menschen entweder unzugänglich oder gefährlich sind. Aber es gibt auch
Nachteile. Es ist andererseits nachteilhaft, dass beim Einsatz insemi-strukturierten
Umgebungen, die nicht speziell für den Betrieb mobiler Roboter angepasst
wurden, unvorhergesehene Ereignisse, Veränderungen und Unsicherheiten
vorkommen. Die Steuerung autonomer mobiler Roboter muss dies
berücksichtigen und mit Rauschen, unvorhersagbaren Ereignissen und
Veränderungen umgehen können.
Die Mobilität bedeutet im Bereich der autonomen mobilen Roboter, dass
autonome mobile Roboter nicht fest an einer bestimmten Stelle montiert ist,
sondern sich mehr oder weniger frei in einer bestimmten Umgebung bewegen
kann. Die Art des Terrains bestimmt hierbei die notwendigen Aktoren zur
Fortbewegung. Während sich beispielsweise Räder für eher ebenes Gelände
eignen, sind für unebenes Gelände meist Ketten oder Beine (s. Laufroboter) von
Vorteil. Das Wort von „Autonom“ hat seinen Ursprung in zwei griechischen
Wörtern: „autos“ ist griechisch für selbst und „nomos“ für Gesetz. Es bedeutet
also „eigengesetzlich machend“. Die Autonomie eines Roboters lässt sich in
verschiedenen Graden realisieren. Beispielsweise sind Roboter, die zwar
selbständig ihre Umgebung erkunden und die ihnen gestellten Aufgaben
abarbeiten, aber immer wieder zu einer Ladestation zurückkehren müssen, nicht
völlig autonom. Der notwendige Grad an Autonomie, der für einen bestimmten
Roboter notwendig ist, lässt sich aus der Spezifikation der zu erledigenden
Aufgaben bestimmen. Deshalb bedeutet das Wort von „Autonom“, dass der
Roboter ohne externe Unterstützung seiner Umgebung funktionieren kann.
„Autonom“ ist Synonym von Unabhängigkeit, Selbständigkeit,
Entscheidungsfreiheit, usw.
Ähnlich wie die ,,Intelligenz“ kann auch das Verhalten eines Roboters nicht
unabhängig von seiner Umgebung und der von ihm auszuführenden Aufgabe
betrachtet werden. Roboter, Aufgabe und Umgebung sind voneinander abhängig
und beeinflussen sich gegenseitig wie die Folgende:
Abbildung 1:
2.2 Warum und wofür werden Sie gebraucht?
Weil autonome mobile Roboter sich autonom in ihrer Umgebung umherbewegen
können, sind autonome mobile Roboter die ideale Werkzeuge für die Aufgaben in
den Bereichen Transport, Exploration, Überwachung, und Inspektion usw.
Für autonome mobile Roboter gibt es viele Einsatzbereiche. Vor allem sind die
zwei Aspekte der Überwachung und der Inspektion sehr wichtige
Verwendungszwecke für autonome mobile Roboter. In diesen zwei
Verwendungszwecken sind besonders die guten sensorische Fähigkeiten der
autonomen mobilen Roboter sehr wichtig und sehr gefragt. Für Rohrsysteme,
Kanalsysteme, kontaminierte Gebiete und Anwendungen der Raumfahrt sind
autonome mobile Roboter auch sehr hilfreich. Für den flexiblen Transport der
Güter spielen autonome mobile Roboter auch eine wichtige Rolle. Es gibt noch
viele potentielle Verwendungszwecke für autonome mobile Roboter hier
mögliche Beispiele aufführen. , wo auch die drahtlose Verbindung eine wichtige
Rolle spielt, diesen Teilbereich nennt man Telerobotik.
Für die Gebiete der künstlichen Intelligenz, der kognitiven Wissenschaften und
der Psychologie können autonome mobile Roboter auch eine wichtige Rolle
spielen. Autonome mobile Roboter können Hypothesen über intelligentes
Verhalten, Wahrnehmung und Kognition überprüfen und verbessern.
Deshalb sind autonome mobile Roboter nicht nur für Industrie, Landwirtschaft,
Medizinische Technik, Dienstleistung sehr wichtig, sondern auch für
Staatssicherheit und Landesverteidigung Autonome mobile Roboter erhalten
derzeit eine weltweite Aufmerksamkeit.
2.3 Geschichte der autonomen mobilen Robotik
Meistens verbinden die Menschen künstliche Intelligenz und autonome mobile
Robotik eng miteinander. Schon vor der Dartmouth College Konferenz im Jahre
1956, als der Begriff ,,künstliche Intelligenz“ geprägt wurde, war man sich dessen
bewußt, daß man mobile Roboter interessante Aufgaben ausführen und lernen
lassen konnte.
In den frühen 1950er Jahren hat William Grey Walter zwei mobile Roboter
entwickelt. Er erreichte Veränderung der Ladung eines Kondensators, der das
Verhalten des Roboters steuerte.
Abbildung 2: Rekonstitution vom Tortoise von Grey Walter
Nils Nilsson entwickelte 1969 in Stanford den mobilen Roboter SHAKEY. Dieser
Roboter verfügte über einen visuellen Entfernungsmesser, eine Kamera und
binäre Berührungssensoren und war über Funk mit einem DEC PDP 10 Computer
verbunden. SHAKEY konnte Aufgaben ausführen wie Hindernisausweichen und
Objektmanipulation, allerdings in einer sehr strukturierten Umgebung.
Abbildung 3: Shakey
ln den 1970er Jahren wurde der JPL ROVER für Planetenexploration am Jet
Propulsion Laboratory in Pasadena entwickelt. Der Roboter verwendete eine
TV-Kamera, einen Laserentfernungsmesser und Berührungssensoren, um seine
Umgebung in die Kategorien ,,navigierbar”, ,,nicht navigierbar” und ,,unbekannt”
einzuteilen und benutzte einen Trägheitskompaß mit Koppelnavigation.
Ende der 1970er Jahre entwickelte Hans Moravec in Stanford den mobilen
Roboter CART. CART nahm von einem bestimmten Ort aus neun Kamerabilder
auf, erstellte daraus ein zweidimensionales Weltmodell, bewegte sich einen Meter
weiter, wiederholte den Vorgang, und so weiter. Um die neun Bilder einer
Position zu verarbeiten, brauchte er jeweils 15 Minuten: 5 Minuten für die
Digitalisierung der 9 Photos; 5 Minuten für die Grobreduktion der Bilder, wobei
Hindernisse als Kreise dargestellt wurden; und 5 Minuten zur ¨Uberarbeitung des
Weltmodells und für die Routenplanung. CART war in der Lage, Hindernissen
erfolgreich auszuweichen, wenn auch sehr langsam. Er hatte jedoch
Schwierigkeiten, seine eigene Position korrekt zu bestimmen und kontrastarme
Hindernisse zu identifizieren.
Abbildung 4: Stanford Cart
In den späten 1970er Jahren wurde HILARE als eines der ersten europäischen
Projekte in der mobilen Robotik bei LAAS in Toulouse entwickelt. HILARE
verwendete digitale Bildverarbeitung, Laserentfernungsmesser und
Ultraschallsensoren für die Navigation. Die Steuerungsstrategie beruhte auf einer
langsamen Szenenanalyse, die alle 10 Sekunden ausgeführt wurde, und einer
parallelen, schnelleren dynamischen Bildverarbeitung, die alle 20 Zentimeter
entlang der Route durchgeführt wurde. Hindernisse in der unmittelbaren
Umgebung wurden mittels Ultraschallsensoren ausfindig gemacht und umfahren.
Navigation und Routenplanung wurden durch eine zweidimensionale polygone
Raumdarstellung und ein globales Koordinatensystem erreicht.
2.4 Andere autonome mobile Roboter
Hier wird eine kurze Übersicht über einige andere autonome mobile Roboter
gegeben. Dabei handelt es sich um Roboter, die für Umgebungen entwickelt
wurden, die den hier vorgestellten dynamischen Industrie- und Büroumgebungen
entsprechen oder zumindest ähnlich sind. Die Aufzählung ist nur eine kleine
Auswahl, enthält aber wichtige und erfolgreiche Repräsentanten verschiedener
Ansätze für Steuerungsarchitekturen und Navigation.
Rhino, Minerva, Carl, Flo und Pearl, Albert
Rhino ist wohl einer der bekanntesten autonomen mobilen Roboter in
Deutschland. Er wurde in Zusammenarbeit der Carnegie Mellon Universität mit
der Universität Bonn entwickelt. Bekannt wurde er vor allem durch den Betrieb
als Tour-Guide im Deutschen Museum in Bonn, und das auch über Deutschland
hinaus. Dort führte er Besucher durch das Museum. Rhino ist ein mobiler
Roboter der Bauart B21 der Firma Real World Interface (RWI), ausgestattet mit
Ultraschall-, Laser-, und Infrarotsensoren, sowie Bumpern und einer
Stereokamera. Der B21 hat eine runde, zylindrische Form und kann sich auf der
Stelle drehen. Die Kinematik ist somit holonomisch.
Der Navigationssoftware liegen drei wichtige Konzepte zugrunde. Erstens das
TCX Kommunikationssystem, das die Kommunikation zwischen den einzelnen
Steuerungssoftwaremodulen organisiert. Zweitens der„Dynamic Window
Approach“, welcher die Kollisionsvermeidung und kinematische
Randbedingungen mit zielorientiertem Fahren verbindet. Und drittens die
Markov-Lokalisation, ein probabilistisches Verfahren zur geometrischen
Positionsbestimmung des Roboters innerhalb einer teilweise bekannten
Umgebung mittels Sensordaten.
Ein weiterer Roboter dieser Familie namens Carl ist am Lehrstuhl für Informatik
5 in Betrieb. Dort wird untersucht, wie sich deliberative Ansätze wie
Aktionsbeschreibungssprachen und plausibles Schließen sowie effizientes
Schließen, auf bestehende Navigationssoftware aufsetzen lassen.
Minerva ist der Nachfolger von Rhino und unterscheidet sich einerseits durch das
äußere Erscheinungsbild und andererseits durch Softwareverfeinerungen von
Rhino. Der Roboter operierte bereits als Museumsführer im Smithsonian‟s
National Museum of American History. Minerva hat ein angedeutetes Gesicht,
durch das die Interaktion mit Menschen intuitiver gestaltet werden soll.
Außerdem wurde der Rechenaufwand für die Markov-Lokalisierung durch einen
so genannten „Monte Carlo“-Ansatz verringert, und es wurde eine Strategie
namens „Costal Navigation“ entwickelt, welche bei der Pfadauswahl die Qualität
der Lokalisierung berücksichtigt, so dass Pfade gewählt werden, auf denen eine
stabilere Lokalisierung möglich ist.
Abbildung 5: Der Roboter Minerva (Carnegie Mellon University).
Unter der Leitung von Wolfram Burgard wird an der Weiterentwicklung der
Ansätze gearbeitet. Plattform ist hier neben anderen wiederum ein Roboter vom
Typ B21 mit Namen Albert. Unter Anderem soll auch die Kooperation mehrerer
Roboter untersucht werden.
An weiteren Nachfolgemodellen wird in letzter Zeit an der Carnegie Mellon
University in Zusammenarbeit mit der University of Pittsburgh im Rahmen des
Projektes „ Nursebot“ gearbeitet. Zu nennen sind die Roboter „Flo“ und „ Pearl“.
Der Fokus liegt hier auf der Anwendung der Roboter als persönliche Service
Roboter für hilfsbedürftige Menschen. Dabei spielt die einfache Interaktion der
Menschen mit den Robotern eine Schlüsselrolle.
Xavier und Amelia Xavier wurde an der Carnegie Mellon University parallel zu
Rhino und Minerva entwickelt. Im Gegensatz zu Rhino und Minerva beruht die
Steuerung dieses Roboters nicht auf einem geometrischen, sondern auf einem
topologischen Modell der Umwelt. Das Verfahren zur Kollisionsvermei dung, die
Curvature-Velocity Method, ist dem Dynamic Window Approach jedoch ähnlich.
Die Einsatzumgebung ist als Graph aus Korridoren, Kreuzungen und T¨uren
modelliert. Zur Planung wird ein Partially Observable Markov Decision Process
(POMDP) benutzt, wodurch Unsicherheiten bzgl. der aktuellen, topologischen
Position des Roboters, der Aktionen des Roboters und der Zustände der T¨uren
und Durchgänge berücksichtigt werden können. Einer der Vorteile dieser
Methode ist, dass Pläne bevorzugt werden können, welche evtl. zwar nicht am
schnellsten, dafür aber mit größerer Sicherheit zum Ziel führen. Das
Gesamtverhalten des Roboters wird dadurch robuster. Nachfolger von Xavier ist
Amelia, welcher schneller fährt als Xavier und eine verbesserte Odometrie
besitzt.
Abbildung 6: Die Roboter Xavier und Amelia der Carnegie Mellon University.
Hermes
Der Serviceroboter Hermes ist eine Entwicklung der Bundeswehr Universität
München. Die Plattform wurde mit der Intention gestaltet, einen menschen
ähnlichen Roboter zu konstruieren, um so die Interaktion des Roboters mit
Menschen und den Einsatz in Umgebungen, die für Menschen geschaffen sind, zu
erleichtern. Hermes bewegt sich mittels eines so genannten Omnidrives, besitzt
zwei Arme mit jeweils 6 Freiheitsgraden und einem Zwei-Finger-Greifer sowie
einen abknickbaren Oberkörper. Am „ Kopf“ des Roboters befindet sich eine
Stereokamera. Der Roboter bewegt sich in einer Umgebung aus Gängen und
Räumen und navigiert mit Hilfe seiner Stereokamera. Die Navigation beruht
unter Anderem darauf, dass im Kamerabild der Boden eindeutig von den Wänden
und anderen Hindernissen unterschieden werden kann. Durch „ visual
servoing“ ist unter Anderem das Andocken an einen Tisch möglich. Ein weiterer
Augenmerk der Forschung liegt in diesem Projekt auf der Interaktion mit
Menschen, wie unter Anderem der natürlichsprachlichen Steuerung.
Abbildung 7: Die Roboter Hermes der Bundeswehr-Universität Müunchen und
Flakey von SRI International.
Helpmate
Der Serviceroboter Helpmate ist vor allem deshalb interessant, weil er sich bereits in
der praktischen Anwendung befindet. Inzwischen ist Helpmate über die Firma Pyxis
in San Diego kommerziell erhältlich. Helpmate wird als Transportroboter im
medizinischen Bereich zum Transport von Medikamenten, Proben und Mahlzeiten
eingesetzt. Frühere Versionen von Helpmate lösten das Problem der Lokalisierung
durch eine an die Decke gerichtete Kamera, wodurch die Deckenbeleuchtungen als
natürliche Landmarken genutzt werden konnten. Inzwischen wurde Helpmate jedoch
offensichtlich kommerziell weiterentwickelt. Die verwendeten Methoden sind jedoch
nicht zugänglich, da neuere wissenschaftliche Dokumentationen fehlen.
Flakey
Der Roboter Flakey (siehe Abb. 7) und seine Software wurden bei SRI International
von Konolige, Saffotty, Gutmann und einigen weiteren Wissenschaftlern entwickelt.
Die oben gewähnte Produkte sind eingie Beispiele für andere autonome mobile
Roboter. In den letzten Jahren werden viele Produkte autonomer mobiler Roboter
entwickelt. Es spielt eine wichtige Rolle in unserem Leben.
3 Hauptteile und Schlüsseltechnologien
Es gibt einige Hauptteile und Schlüsseltechnologien für autonome mobile Roboter. In
diesem Teil werden diese Hauptteile und Schlüsseltechnologien ausführlich gezeigt.
z,B. Sensor und Aktor usw.
3.1 Sensoren und Aktoren
Sensoren dienen zur Erfassung von Eigenschaften der Umgebung und des Roboters
selbst. Mit den Sensoren können autonome mobile Roboter die physikalischen
Eigenschaften der Umgebung wie Temperatur, Helligkeit, Berührungswiderstand,
Gewicht, Größe usw. messen. Ein Sensor empfängt ein physikalisches Signal und
reagiert darauf mit einem elektrischen Ausgangssignal.
Abbildung 8: Sensor
Die Sensoren eignen sich für die Messung der Eigenschaften der Umgebung und des
autonomen mobilen Roboters selbst. Die Sensoren und Aktoren werden als
„intern“ oder „extern“ klassifiziert. Interne Sensoren können die Steuerungssoftware
mit Daten über den Zustand des Roboters versorgen. z,B. über den Ladezustand der
Batterien. Externe Sensoren können Daten über die Umwelt messen. z,B Art und
Entfernung von Hindernissen.
Um die Entfernung zu Objekten vor einer Kollision zu messen, benutzt man Sensoren
zur Entfernungsmessung. Diese gibt es gemäß drei wesentlichen Messprinzipien:
Laufzeitmessungen, Phasendifferenzmessung und Triangulation. Unter einer
Laufzeitmessung versteht man die Zeitmessung zwischen ausgesendetem Signal und
empfangenem Echo. Über Phasendifferenzmessungen können ebenfalls Entfernungen
bestimmt werden. Sie sind eine spezielle Form der Laufzeitmessungen. Bei
Entfernungsmessung durch Triangulation wird von einer Quelle ein Signal
ausgesandt.
Aktoren dienen zur Manipulation des Roboters und der Umgebung. Interne Aktoren
können den Zustand des Roboters verändern. Externe Aktoren dienen zur
Fortbewegung oder zum Bewegen von Objekten.
Als interner Aktor wird meistens der Elektromotor in der mobilen Robotik verwendet.
Im allgemeinen ist der Elektromotor ein Gleichstrommotor oder ein Schrittmotor. Der
Gleichstrommotor ist am einfachsten zu steuern. Der Schrittmotor eignet sich für sehr
präzise Bewegungen. Die Elektromotoren sind sauber und einfach zu bedienen, sie
können ein richtiges Drehmoment produzieren und können sehr einfach und genau
gesteuert werden.
In diesem Teil werden nun einige wichtige Sensoren und Aktoren gezeigt. Zunächst ist
die Vorstellung von den Sensoren. Mobile Roboter interagieren mit ihrer Umgebung,
die sie mit Sensoren wahrnehmen. Roboterprogrammierung erfordert folglich das
Verarbeiten von Sensordaten. Der Aufbau und die Funk von Sensoren haben einen
entscheidenden Einfluss auf die Konzeption der Programme. Daher skizziert dieser
Teil die gebräuchlichsten Sensoren für mobile Roboter. Die folgende Abbildung 9 ist
ein Beispiel für Sensoren auf einer Kurt-Plattform. In diesem Teil werden auch
Kamera, Laserscanner, Ultraschallsensor und Infrotsensor und andere gebräuchlichste
Sensoren vorgestellt.
Abbildung 9:
3.1.1 Abstandssensoren
Den Abstand Null zu einem soliden Objekt kann ein mobiler Roboter durch
Kontaktsensoren oder Stoßleisten erkennen. Mit diesen Abstandssensoren kann man
die Daten messen, die sich für die Kollisionsvermeidung und für die Extraktion der
„Form“ der Umgebung eignen. Die Daten von Abstandssensoren sind auch sehr
wichtig und hilfreich für die Lokalisierung des Roboters und seine Navigation. Mit
diesen Abstandssensoren kann man die Form der Umgebung und den Abstand dazu
exakt erfassen. Diese Sensoren messen die Signallaufzeit, das ist die Zeit, die ein
Signal braucht, um sich bis zu einem Objekt in der Umgebung und zurück zu
bewegen, woraus der Abstand zum Objekt bestimmt wird. Diese Sensoren sind die
aktive Sensoren. Im Gegensatz zu passiven Sensoren, wie zum Beispiel einer Kamera,
können diese Abstandssensoren aktiv Signale aussenden. Sie haben aber grundsätzlich
auch den Nachteil, z,B. die Sensorik der anderen Roboter zu stören, wenn viele
Roboter verwendet werden. Für die Signale gibt es hier nur Schall und
elektromagnetische Wellen verschiedener Frequenzen. z,B. Licht (besonders
Infrarotlicht und Laserlicht) und Radiowellen (Radar) sowie Schall mit hohen
Frequenzen, also Ultraschall.
3.1.1.1 Bumper
Bumper sind nicht mittelbare Kollisionssensoren. Wenn diese Sensoren mit dem
Hindernis direkt kontaktieren, werden diese Sensoren dann aktiviert. Die Sicherheit
ist sehr wichtig für autonome mobile Roboter. In diesem Aspekt können Bumper eine
sehr wichtige Rolle spielen. Mit Bumper können autonome mobile Roboter erkennen,
was ist nicht sicher. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, wird
ein Signal dann gesendet, um die Bewegung der autonomen mobilen Roboter zu
verhindern.
3.1.1.2 Ultraschall
Wegen der niedrigen Kosten, der einfachen Durchführung und der entwickelten
Technologie ist Ultraschallsensor jetzt ein häufig verwendeter Entfernungsmesser in
den autonomen mobilen Roboter. Wenn sich die Geschwindigkeit des Ultraschalls in
der Luft auf der Temperatur und der Feuchtigkeit bezieht, kommen deshalb die
Temperatur und der Feuchtigkeit in der exakten Messung in Frage. In den meisten
Fällen sind die Frequenzen der Ultraschallausbreitung in der Luft etwas niedriger,
aber die Frequenzen der Ultraschallausbreitung in der Flüssigkeit oder in dem
Festkörper sind etwas höher. Die Mindestreichweiten sind von 30 bis 40 cm. Wenn
die Hindernisse näher liegen, kann Ultraschallsensor diese Hindernisse nicht sicher
erkennen. Typische maximale Reichweiten liegen zwischen 4 und 10 Metern.
Ultraschall-Entfernungsmesser, kurz Ultraschallsensoren genannt, senden zyklisch
einen kurzen, hochfrequenten Schallimpuls aus. Dieser verbreitet sich mit
Schallgeschwindigkeit in der Luft. Trifft er auf ein Objekt, wird er dort reflektiert und
gelangt als Echo zurück zum Ultraschallsensor. Die Zeitspanne zwischen dem
Aussenden des Schallimpulses und dem Empfang des Echosignals entspricht der
Entfernung zum Objekt, und der Sensor gibt diesen Wert geeignet codiert aus (z.B. als
Spannungssignal analog oder digital). Da die Entfernung zum Objekt über eine Schall
laufzeitmessung und nicht über eine Intensitätsmessung bestimmt wird, haben
Ultraschallsensoren eine ausgezeichnete Hintergrundausblendung. Nahezu alle
Materialien, die den Schall reflektieren, werden detektiert – unabhängig z.B. von ihrer
Farbe. Selbst glasklare Materialien oder dünne Folien stellen kein Problem dar,auch
nicht Staub und Nebel. Handelsübliche Ultraschallsensoren erlauben
Entfernungsmessungen bis 10m und können den Messwert mit millimetergenauer
Auflösung erfassen. Ultraschallsensoren haben einen Blindbereich,d.h.einen Bereich
nahe amSensor, in dem nicht gemessen werden kann, und Messungen finden nur
innerhalb eines Öffnungswinkels statt. Abbildung 10 zeigt den Messbereich eines
Ultraschallsensors. Die dunkel grauen Bereiche werden mit einem dünnen Rundstab
mit definiertem Durchmesser ausgemessen und zeigen den typischen Bereich des
Sensors, in dem Abstände zuverlässig bestimmt werden. Um die hellgrauen Bereiche
zu erhalten, wird eine Platte definierter Größe von außen in die Schallfelder geführt.
Hierbei wird immer der optimale Winkel der Platte zum Sensor eingestellt. Dies ist
somit der maximale Erfassungsbereichdes Sensors. Außerhalb der hellgrauen
Schallkeulen ist eine Auswertung von UltraschallReflexionen nicht mehr möglich.
Abbildung 10 veranschaulicht die Vorgehensweise. Dies zeigt, dass bei
Ultraschallsensoren nicht nur die Entfernung zu Objekten, sondern auch der
Auftreffwinkel des Schalls und somit die Form der Objekte relevant ist. Dies
erschwert die Auswertung der Messwerte.
Abbildung 10: Messbereich eines Ultraschallsensors. Abbildung mit freundlicher
Genehmigung der microsonic GmbH, Dortmund.
Aber wegen des größeren Abstrahlwinkels und der schlechten Richtcharakteristik gibt
es auch einige Beschränktheiten für Ultraschallsensor. In diesem Fall werden
mehrere Ultraschallsensoren oder andere Sensoren für Ausgleich verwendet. Die
Größe der Öffnungswinkel der Ausbreitungskegel üblicher Ultraschallwandler (α =
35◦, Polaroid Sensor) sind einerseits geeignet für Kollisionsvermeidung, andererseits
wird aber die genaue Erfassung der Form der Umgebung erschwert, weil die
Winkelauflösung dementsprechend grob ist. Bessere Winkelauflösungen wären zwar
mit entsprechend höheren Frequenzen im MHz Bereich zu erreichen, mit denen sich
ein besser fokussiertes Signal realisieren ließe, Signale dieser hohen Frequenzen
werden jedoch stark von der Luft absorbiert und führen deshalb zu deutlich kleineren
Reichweiten.
Bei der Bewegung können autonome mobile Roboter zu jeder Zeit vielleicht auf ein
Hindernis stoßen. In diesem Fall kann Ultraschallsensor eine wichtige Rolle spielen.
Mit dem Ultraschallsensor können autonome mobile Roboter einige nützliche
Informationen über Hindernis erkennen. Deshalb ist Ultraschallsensor ein sehr
wichtiger Sensor für autonome mobile Roboter.
3.1.1.3 Infrarot
Als Sicherheitssensoren verwenden Roboter oft auch Infrarotsensoren, die ebenfalls
ringförmig am angebracht sind. Die Sensoren emmitieren einen modulierten
infraroten Lichtimpuls. Wegen der entwickelten Technologie sind Infrarotsensoren (IR)
wohl die einfachsten der kontaktlosen Sensoren und werden in der autonomen
mobilen Robotik vielfach in der Hinderniserkennung verwendet.
Infrarotsensoren können ein infrarotes Lichtsignal aussenden. Nach der Strahlung der
Objekte dieses Lichtsignals kommt eine Reflexion.Wenn die Infrarotsensoren das
Lichtsignal empfängt, werden die Daten der Zeitdifferenz von der Aussendung und
dem Empfang mit den Bilder erledigt.
Infrarotsensoren haben gute Entstörung. Wegen des kleineren Abstrahlwinkels sind
Infrarotsensoren wichtige Sensoren für die Hindernisvermeidung. Infrarotsensoren
haben gute Empfindlichkeit, die für das Erkennen des Hindernises sehr hilfreich ist.
Die Entfernungsgenauigkeit dieser Infrarot-Sensoren liegt bei ca. 30 cm bei
Reichweiten um 5 Meter. Im Vergleich zu den Ultraschallsensoren haben
Infrarot-Sensoren eine bessere Winkelaudlösung. Es gibt auch einige Hauptgründe für
Fehlmessungen, z,B. Absorption, Totalreflektion und Fremdsignale (wie z.B. direktes
Sonnenlicht).
3.1.1.4 Laser
Laser-Sensoren sind die Sensoren, die mit der Lasertechnik messen. Im letzten
Jahrzehnt haben sich Laserscanner in der mobilen Robotik durchgesetzt, trotz ihres
relativ hohen Gewichts, Energiebedarfs und Preises. Laserscanner erlauben akkurate
Entfernungsmessungen über größere Distanzen. Deshalb sind Laser-Sensoren neue
Werkzeuge für die Messung.
Die Eigenschaften der Laser-Sensoren sind die schnelle Geschwindigkeit, die hohe
Präzision usw. Mit diesen Laser-Sensoren können autonome mobile Roboter den Platz
messen. Laserentfernungsmesser (auch Laserradar oder Lidar) werden heute häufig in
der mobilen Robotik eingesetzt, um die Entfernung, Geschwindigkeit und
Beschleunigungsrate von wahrgenommenen Objekten zu messen. Auf dem Roboter
ARS sowie auf vielen anderen mobilen Robotern kommt als Laser-Entfernungssensor
der PLS (Proximity Laser Scanner) der Firma SICK Optic Electronic Company zum
Einsatz. Der Sensor wurde ursprünglich zur Überwachung von gefährlichen Regionen,
etwa dem Arbeitsbereich eines Industrieroboters, entwickelt.
Der Scanner hat eine Reichweite von 20 m, eine Winkelauflösung von 0.5 Grad bei
einem Scanbereich von 180 Grad in einer Ebene und eine Entfernungsgenauigkeit von
5 cm. Der Sensor kann nach Wahl 360, 180, 90, 45, 30, 15, 10 oder 9
Entfernungswerte pro Scan über die serielle RS 232 Schnittstelle senden.
Der Sensor arbeitet mit Laufzeitmessung des reflektierten Lichts. Eine
hochauflösende Uhr misst die Zeit zwischen der Aussendung eines extrem kurzen
Lichtimpulses und der Detektion eines Signals durch den Empfänger. Ein Spiegel
leitet den Laserstrahl um und rotiert dabei mit einer Frequenz von 12 Hz. Das
reflektierte Signal gelangt durch den halbdurchlässigen Spiegel zum Empfänger.
Abbildung 11: 1D Laserabstandsmesssystem Leica Disto.
Sie basieren jeweils auf einem Laserabstandsmesssystem,das einen Laserstrahl in
einer Richtung aussendet und über Lichtlaufzeitmessung oder
Phasendifferenzmessung die Entfernungbis zumnächsten Objekt in Laufrichtungmisst.
Solch ein Basis-Messgerät ist gewissermaßen ein 1D-Laserabstandsmesssystem, weil
es die Entfernung zu einem Raumpunkt misst. Sie sind aus dem Heimoder
Handwerkerbereichbekannt, s. Abbildung 11.
Dort verwendet man Laserlicht im sichtbaren Spektralbereich, um den Raumpunkt
sehen zu können, zu dem gerade die Entfernung gemessen wird. Solche 1D-Sensoren
werden auf mobilen Robotern üblicherweise nicht eingesetzt, verdeutlichen aber das
Messprinzip.
3.1.1.4.1 2D-Laserscanner
Mobile autonome Roboter müssen durch unbekannte Umgebungen navigieren können,
um ihre Aufgaben wie Post austragen oder Staub saugen zu erledigen.
Für diese grundlegenden Navigationsaufgaben standen bisher nur 2D−Laserscanner
zur Verfügung, mit denen lediglich eine horizontale Abtastung der Umgebung
möglich war. Derartige Systeme sind insbesondere nicht in der Lage, Hindernisse wie
Tische oder Objekte mit überstehenden Kanten außerhalb der Scan−Ebene zu
erfassen.
2D-Laserscanner erweitern 1D-Laserentfernungssensoren. Zum Erzeugeneiner
einzelnen Zeile wird ein Spiegel rotiert,andem der Laserstrahl reflektiert wird.
Dadurch entstehen verschiedene Scanbereiche, üblicherweise 90◦
, 180◦
oder 270◦
.
Diese Bereiche werden mit Winkelauflösungen von 1◦
, 0.5◦
oder 0.25◦
abgetastet.
Abbildung 12 zeigt mehrere 2D-Laserscanner-Modelleder Firma Sick, die häufig auf
Robotern eingesetzt werden. Diese Scanner wurden als Sicherheitssensoren
entwickelt.
Abbildung 12: Laserscanner der Firma Sick. Von links nach rechts: Lms 200, Lms
291, S3000 und S300.
3.1.1.4.2 3D-Laserscanner
3D ist ein aktueller Trend in der Robotik. Die Entwicklung von 3D-Sensorik schreitet
schnell voran. Der 3D−Laserscanner ist als Sensor für autonome mobile Roboter
geeignet und basiert auf einem 2D−Scanner, wie sie heute schon üblicherweise auf
autonomen Robotern eingesetzt werden.
3D-Laserscanner messen Entfernungen zu Objekten im dreidimensionalen Raum.
Dabei wird einem 2D-Laserscanner entweder ein zweiter Drehspiegel hinzugefügt,
oder ein kompletter 2D-Scanner wird gedreht.
Abbildung 13: Der 3D−Laserscanner
Abbildung 14: der autonome mobile Roboter ausgestattet mit dem 3D−Laserscanner
Weitere Anwendungsgebiete für den 3D−Laserscanner sind beispielsweise:
Für Facility Managenent Systeme. Diese benötigen aktuelle Informationen über
Gebäude. Es wird versucht, ein digitales Gebäudemodell aktuell zu halten.
Für Objektklassifikationssysteme. Es wird versucht, aus den 3D Informationen
(Tiefenbildern) Objekte zu klassifizieren.
Für 3D−Überwachungssysteme. Hierbei werden Einrichtungen und Anlagen
überwacht, um zum Beispiel den Sicherheitsbereich von Maschinen zu kontrollieren.
3.1.2 Sensoren für Dead-Reckoning
Dead-Reckoning ist eine Methode zur relativen Positionsbestimmung. Mit allen
Sensoren vom autonomen mobilen Roboter können diese Sensoren für
Dead-Reckoning die Bewegungsinformationen vom autonomen mobilen Roboter
erfassen. Durch Rekursionsformel können diese Sensoren für Dead-Reckoning die
abgeschätzte Position vom autonomen mobilen Roboter bekommen.
Dead-Reckoning ist die laufende näherungsweise Ortsbestimmung eines bewegten
Objekts aufgrund von Bewegungsrichtung (Kurs) und Geschwindigkeit (Fahrt). Mit
diesen Sensoren für Dead-Reckoning werden kleine Positionsveränderungen des
Roboters bestimmt. Dazu werden alle Positionsveränderungen über die Zeit
aufsummiert. Diese Sensoren für die Dead-Reckoning sind meistens direkt im Antrieb
des Roboters integriert. Geeignete Sensoren (wie Drehgeber) sind an den
Antriebsachsen des Roboters platziert. Da auch die Kraftübertragung über die
Antriebsachsen erfolgt, besteht hier die Gefahr, dass ein evtl. auftretender Schlupf die
Messungen verfälscht. Breite Räder oder Kettenantriebe führen zu Schlupf und somit
zu Ungenauigkeiten. Weiche Räder können je nach Belastung den Umfang verändern
und deshalb ebenfalls die Odometrie verfälschen. Deshalb werden in manchen Fällen
passiv mitlaufende Räder benutzt, um die Positionsveränderung zu messen.
Zudem eignen sich für Dead-Reckoning alle Sensoren, die die Geschwindigkeit des
Roboters relativ zur Umwelt messen. Aber diese Sensoren für die Dead-Reckoning
sind nicht geeignet für die präzise Messung, die lange Zeit braucht und eine
Langstrecke hat.
Dead-Reckoning eignet sich für die inertiale Positionsbestimmung. Für die Erhaltung
der Position müssen die Werte der Beschleunigungsmesser zweifach integriert werden.
Diese Sensoren für die Dead-Reckoning macht die Positionsbestimmung einfach.
3.1.3 Kamera
Die Eigenschaften des Sensors Kamera sind breiter Detektionsbereich, reiche
Informationen. Durch Kamera können die dreidimensionale Objekte zum
zweidimensionalen Plane Image wechseln. Durch die Bildverarbeitung werden die
Bilder der Objekte exportiert.
Der Sensor Kamera nimmt einzelne Bilder mit Pixelsensoren auf und stellt sie dem
Roboter in digitaler Form zur Verfügung. Ein Pixel oder Bildpunkt bezeichnet das
kleinste Element einer Rastergrafik. Der Anschluss von Kameras an den
Steuerrechner erfolgt üblicherweise mit Hilfe von Usb oder Firewire. Durch die
Algorithmen werden die Form, die Distanz und die Geschwindigkeit und andere
nützliche Informationen bekommen. Mit der Bildsequenz eines Kameras werden die
Distanz und die Geschwindigkeit der Objekte gemessen. Mit dem SSD Algorithmus
wird die Relativverschiebung nach der Bewegungsbilder der Aufnahme gerechnet.
Aber bei der Bildverarbeitung brauchen die Methoden wie Schärfen und
Merkmalextraktion viel Zeit. Deshalb gibt es vielleich auch einige Einschränkung.
Die Visionentfernungsmessung kann die transparente Hindernisse wie Glas usw. nicht
erkennen.
Zudem haben die Lichtstärke und der Rauch einen offensichtlichen Einfluß auf
Visionsensoren. Deshalb sind die Lichtbedingungen sehr wichtig und hilfreich für
Visionsensor. Wenn es eine gute Lichtbedingung gibt, können viele schlechte Resultat
vermieden werden.
3D-Kameras
Seit einigen Jahren werden 3D-Kamera entwickelt (vgl. Abbildung 15 und folgende).
Diese Kameras verwenden zusätzliche Laserdioden, die die Szenemit moduliertem
Licht beleuchten.
Abbildung 15: 3D-Kameras: Links und Mitte Swissranger von Csem. Rechts:
Pmd-Kamera.
3.1.4 Berührungssensoren
Die Berührungssensoren sind die wichtige Technik für Autonome mobile Roboter.
Die Berührungssensoren können physikalischen Kontakt mit einem Objekt feststellen.
Genauer gesagt messen sie eine physikalische Veränderung, die normalerweise durch
physikalischen Kontakt mit einem Objekt hervorgerufen wird. Die einfachsten
Berührungssensoren sind Mikroschalter oder Fühlersensoren.
Wenn eine Stoßleiste mit einem Objekt in Berührung kommt, wird dadurch ein
Mikroschalter geschlossen und schließt einen Stromkreis, was vom Rechner des
Roboters erkannt wird.
Andere einfache Berührungssensoren beruhen zum Beispiel auf Dehnungsmeßstreifen
oder piezoelektrischen Sensoren.
3.1.5 Sensorsignale sind interpretationsbedürftig
Aus der Beschreibung der verschiedenen Sensoren und Aktoren, die in der mobilen
Robotik zur Verfügungstehen, wirddeutlich, daß die Sensoren ausschließlich
bestimmte physikalische Eigenschaften wahrnehmen können,die in irgend einem,
zunächst vagen, Zusammenhang mit der Information stehen, die der Roboter
tatsächlich benötigt.
Es gibt keine ,,Hindernissensoren“, nur Mikroschalter, Sonarsensoren,
Infrarotsensoren usw., deren Signal die An- oder Abwesenheit eines Objekts angibt.
Es ist aber durchaus möglich, daß der Mikroschalter ein Signal auslöst, nur weil der
Roboter über eine Bodenwelle fährt; oder ein Sonarsensor meldet ein Hindernis
aufgrund von Übersprechen (crosstalk); oder ein Infrarotsensor entdeckt
möglicherweise ein Objekt nicht, weil es schwarz ist und deshalb kein Infrarotsignal
reektiert.
3.1.6 Aktoren
3.1.6.1 Elektrisch, pneumatisch, hydraulisch
Autonome mobile Roboter sind die Geräte, die die Arbeit automatische machen.
Autonome mobile Roboter können nicht nur die
menschliche Anweisung akzeptieren, sondern auch können nach der
vorprogrammierten Programme selbst arbeiten.
Die Aufgabe vom autonomen mobilen Roboter ist, die Arbeiten der Menschen zu
ersetzen, z,B. Bereiche vom Bau oder der Herstellung oder einigen gefährlichen
Arbeitsbereichen. Der in der mobilen Robotik am häufigsten verwendete Aktorentyp
ist der Elektromotor, normalerweise ein Gleichstrommotor oder ein Schrittmotor.
Im Allgemein versteht man Aktoren als die Teile eines Roboters, die physikalische
Aktionen durchführen können. Das Antriebsgerät ist eine Vorrichtung, die die
Aktoren für Bewegung antreibt. Die Aktoren kann die Bewegung oder die
Arbeitssituation zu jeder Zeit erkennen. Diese Detektionsgerät sind sehr hilfreich
dafür, dass die Bewegung vom autonomen mobilen Roboter den vorherbestimmten
Anforderungen entsprechen. Es gibt eine spezielle Form von Aktoren Manipulatoren,
die Veränderungen der Umwelt zulassen (Handhabungsaufgaben wie z.B. Objekte
greifen und absetzen, bohren, schweißen). Einige Aktoren besitzen eine interne
Regelung, die die gegebenen Soll-Werte bestmöglichst umzusetzen versucht.
Dennoch kann man davon ausgehen, dass jeder Aktor fehlerbehaftet ist und dass
einige Aktionen unter bestimmten Bedingungen nicht korrekt ausgeführt werden
können.
Die Aktoren von einem autonomen mobilen Roboter dienen zur Veränderung seiner
Position in der Umgebung. Dies können ein Fahrwerk mit Rädern, Ketten, Beine zum
Laufen oder Springen oder andere Fortbewegungsmechanismen zum Schwimmen,
Fliegen, Rollen sein. Es gibt sehr viele Fortbewegungsarten, welche alle ihre Vor- und
Nachteile haben. Beine ermöglichen z.B. eine sehr fexible Fortbewegung und sind
insbesondere in unwegsamem Gelände nützlich.
Aber die Ansteuerung ist sehr komplex. Außerdem lassen sich mit Rädern auf glattem
Untergrund im Allgemeinen höhere Geschwindigkeiten erreichen. Viele Arbeiten
eignen sich für spezielle Fortbewegungssystemen und deren Kontrolle. In dieser
Arbeit soll jedoch darauf nicht weiter eingegangen werden, sondern es werden
beispielhaft nur rollende Roboter, die vorwärts und rückwärts fahren und sich dabei
drehen können, betrachtet. Dies schließt jedoch nicht aus, dass sich die hier
vorgestellten Konzepte auf Roboter mit anderen Fortbewegungssystemen und sogar
mit völlig anderen Aktoren übertragen lassen.
3.1.6.2 Nicht-holonomische und holonomische Bewegung
Die Bewegungsmöglichkeiten eines Roboters können durch die Grenzen, die dieser
Bewegung gesetzt sind, charakterisiert werden. Nicht-holonomische Systeme
unterliegen Beschränkungen, die mit Geschwindigkeiten zu tun haben, während
holonomische Einschränkungen von Geschwindigkeiten unabhängig sind. Ein
Beispiel für die nicht-holonomische Beschränkung ist die Bewegung eines Rades um
seine Achse. Die Geschwindigkeit des Kontaktpunktes zwischen Rad und Boden ist in
Achsenrichtung auf Null beschränkt, die Radbewegung unterliegt daher einer
nicht-holonomischen Bewegungseinschränkung.
3.1.7 Datenfusion der Multisensoren
Wenn die Sorte und die Menge der Sensoren mehr verwendet werden, gibt es für
jeden Sensor einige Verwendungsbedingungen und Wahrnehmungsbereiche. Zudem
kann jeder Sensor einige Informationen über die Umgebung oder die Objekte anbieten.
Um diese von jedem Sensor angebotene Informationen effktiv zu verwenden, sollen
diese Informationen mit einer Form zusammen erledigt werden. Das Prozess
bezeichnet man als Informationsfusion der Multisensoren. Weil Sensoren
verschiedene Charakteristiken aufweisen und unterschiedliche Vor-und Nachteile
haben,ist Datenfusion eine außer ordentlich schwierige Aufgabe.
Die Technik der Informationsfusion der Multisensoren ist eine der
Schlüsseltechnologien für autonome mobile Roboter. In den 80er Jahren des 20. Jh
begannen die Menschen diese Technik zu erforschen. Die Informationsfusion
bedeutet, dass alle Informationen integriert verarbeitet werden, die von vielen
Sensoren angeboten werden. Diese Technik der Informationsfusion der Multisensoren
umfasst die Komplementarität, die Redundanz, die Rechtzeitigkeit und die niedrige
Kosten der Informationen. Deshalb können autonome mobile Roboter mit der
Technik der Informationsfusion der Multisensoren die Eigenschaften der Umgebung
genauer und umfassender zeigen. Dann können autonome mobile Roboter die richtige
Beurteilung machen. Diese Technik der Informationsfusion der Multisensoren kann
die Schnelligkeit, die Genauigkeit und die Stabilität anbieten.
Nach der Informationsfusion der Multisensoren werden die Informationen zum
Kontrollzentrum übertragen. Dann macht das Kontrollzentrum die Beurteilung. Dann
wird die Beurteilung zum Aktor übertragen. Zum Schluss werden autonome mobile
Roboter entsprechende Aktion machen.
4 Navigation
Die Navigationstechnik ist die Kerntechnologien für autonome mobile Roboter. Für
einen mobilen Roboter ist Navigieren eine der wichtigsten Fähigkeitenüberhaupt.
An erster Stelle steht natürlich die Notwendigkeit, überhaupt betriebsfähig zu bleiben,
also geführliche Situationen wie Zusammenstöße zu vermeiden und akzeptable
Betriebsbedingungen aufrecht zu erhalten (Temperatur, Strahlung, Witterungsschutz
usw.). Soll der Roboter jedoch Aufgaben ausführen, die sich auf bestimmte Orte in
der Roboterumgebung beziehen, dann muß er navigieren können. Die Navigation
mobiler Roboter ist eine Domäne, die seit vielen Jahren von vielen
Forschungsgruppen untersucht wird. Es gibt bereits mehrere Robotersysteme, die
hervorragend in ihrer Umgebung navigieren können.
Navigation kann als eine Kombination der folgenden drei Kompetenzen definiert
werden: Selbstlokalisierung, Routenplanung, Kartenerstellung und
Karteninterpretation. Der BegriffKarte steht in diesem Zusammenhang für jede
direkte Zuordnung oder Abbildung von Einheiten in der wirklichen Welt auf
Einheiten innerhalb einer internen Repräsentation. Diese Repräsentation gleicht nicht
unbedingt einer gewöhnlichen Landkarte oder einem Stadtplan. Bei Robotern zum
Beispiel besteht eine ,,Karte“ häufig aus den Erregungsmustern künstlicher neuronaler
Netze. Lokalisierung steht für die Kompetenz des Agenten, seine eigene Position
innerhalb eines Bezugssystems feststellen zu können.
Routenplanung ist im Prinzip eine Erweiterung der Lokalisierung, da der Agent seine
gegenwärtige Position unddie angestrebte Ziel position innerhalb ein und desselben
Bezugsystems bestimmen muss. Die Kompetenz des Kartenerstellens bezieht sich
nicht nur auf Karten, wie wir sie normalerweise benutzen, d.h. metrische Karten der
Umgebung, sondern auf jegliche Art der Beschreibung von Positionen innerhalb des
Bezugsystems. Dazu gehört auch,Informationen über erkundetes Terrain festzuhalten.
Schließlich benötigt man für den Umgang mit Karten auch die Fähigkeit, sie zu
interpretieren.
Die Navigation eines autonomen mobilen Roboters läßt sich grob durch die drei
Fragen „Wo bin ich?“, „Wohin gehe ich?“ und „Wie gelange ich
dorthin?“ zusammenfassen. Es gibt viele Navigationsweise für Autonome mobile
Roboter. z,B Visionbasierte Positionierung, Lichtreflexion Positionierung, das Global
Positioning System (GPS), Ultraschallpositionierung, SLAM Technologien usw.
Jede Navigation hat eigene Eigenschaften und eignet sich für unterschiedliche
Anwendungsbereiche. Die Navigation ist eine der wichtigsten Aufgaben eines
mobilen Roboters.
4.1 Selbstlokalisierung
Dieser Teil diskutiert Methoden zur Selbstlokalisierung eines mobilen Roboters. Die
Aufgabe hierbei ist, die Position des Roboters aufgrund einer apriori Umgebungskarte
und Sensordaten des Roboters zu bestimmen.
Zur Bestimmung der Position in einem globalen Bezugssystem gibt es integriete
Sensoren. Generell unterscheidet man zwischen zwei verschiedenen
Selbstlokalisierungsproblemen: globale Selbstlokalisierung und lokale
Selbstlokalisierung.
4.1.1 Globale Selbstlokalisierung
Bei der globalen Selbstlokalisierung wird der Roboter an einen beliebigen Ort gestellt
und dem System wird die Gelegenheit gegeben, die Umwelt mit den Sensoren des
Roboters zu beobachten.
Das System muss dann durch Auswerten der Sensorinformationen entscheiden, an
welchen möglichen Positionen der Roboter sich benden kann. Der Prozeß, um diese
Entscheidung zu treffen, ist im allgemeinen aufwendig und benötigt je nach Größe
des Suchraums entsprechend viel Rechenzeit.
Abbildung 16: Links Navstar Satellit. Quelle: U.S. Air Force (public domain). Rechts:
Gps-Empfänger Garmin-Usb mit SiRF-III Chipsatz wie er auf Kurt verwendet wird.
GPS
Ein weit verbreitetes Sensorsystem für mobile Roboter ist das globale
Positionsbestimmungssystem (engl. global positioning system, Gps). Der Begriff Gps
wird aber im Allgemeinen für das Navstar-Gps (engl. Naviga, tional Satellite Timing
and Ranging – Global Positioning System) des US Verteidigungsministeriums
verwendet, das seit 1995 zur weltweiten Positionsbestimmung und Zeitmessung
verwendet werden kann. Abbildung 16 zeigt einen Navstar-Satelliten und einen
Gps-Empfänger.
Satellitensignale von mindestens vier Satelliten werden mit kleinen und mobilen
Empfangsgeräten detektiert. Um die Laufzeiten der Signale gering zu halten, befinden
sich die Satelliten im erdnahen Orbit, decken aber nur einen kleinen Teil der
Erdoberfläche ab. Mindestens 24, besser 32 Satelliten werden benötigt, um eine
vollständige Abdeckung zu erreichen.
Bei der Standortbestimmung misst man die Laufzeitzu mindestens vier Satelliten.
Jede dieser Entfernungen definiert eine Kugeloberfläche um den zugehörigen
Satelliten, auf der sich der Empfänger befindet.
Zwei Kugeln schneiden sich in einem Kreis,drei Kugeln ergeben maximal zwei
Punkte als Schnittmenge, wenn man vom geometrischen Fall mit gleichem Radius
und Mittelpunkt absieht, was in der Praxis nie erreicht werden kann. Verwendet man
Hintergrundwissen und verwirft den weniger wahrscheinlichen Schnittpunkt, lässt
sich die Position bestimmen.
4.1.2 Lokale Selbstlokalisierung
Bei der lokalen Selbstlokalisierung dagegen ist die ungefähre Position des Roboters
bereits bekannt und es soll „nur“ eine Positionskorrektur berechnet werden. Dies ist
der Fall, wenn der Roboter an einer ungefähr bekannten Position aufgestellt wird und
dann fortlaufend seine Position durch Abgleich der Sensordaten mit Umgebungskarte
bestimmt.
Zunächst wird eine bekannte Selbstlokalisierungsmethode, die Koppelnavigation,
vorgestellt, welche Sensordaten der Odometrie auswertet. Dieses Verfahren wird in
den meisten Robotersystemen eingesetzt.
Bei der Koppelnavigation wird die Positionsänderung eines Fahrzeugs durch Messen
des zurückgelegten Weges eines oder mehrere Räder bestimmt. Zu diesem Zweck
sind an den Rädern Sensoren angebracht, welche die Drehbewegung des jeweiligen
Rades messen. Zusätzlich kann ein Kreiselkompaß verwendet werden, um die
Orientierung des Roboters zuverlässiger zu bestimmen.
Lokalisierungsmethoden lassen sich allgemein in die drei Kategorien
verhaltensbasierte Ansätze, Landmarkenlokalisierung und dichte Sensordaten
vergleichende Verfahren einteilen. Verhaltensbasierte Ansäze beruhen auf der
Interaktion von Roboteraktionen mit der Umwelt, um zu navigieren.
Zum Beispiel folgte Connell's Roboter Herbert einer Faustregel, um durch eine
Büroumgebung zu fahren und seinen Weg zurückzunden, indem die Prozedur der
Hinfahrt rückwärts angewandt wurde [Connell, 1990]. Weiter verfeinerte Systeme
lernen interne Strukturen, die „abgespielt“ werden können, um Aktionen zu
wiederholen oder rückgängig zu machen [Arkin, 1990].Während verhaltensbasierte
Systeme für bestimmte Aufgaben sehr nützlich sind, ist ihre Fähigkeit einen Roboter
geometrisch zu lokalisieren begrenzt, da die Navigationsfähigkeit implizit in der
Sensor- und Aktionshistorie liegt. Landmarkenlokalisierung beruht auf der Erkennung
von Landmarken, um den Roboter geometrisch zu lokalisieren.
Die Landmarken können können a priori gegeben sein (z.B. die Satelliten im
GPS-Navigationssystem oder in der Umgebung angebrachte Marken, die mit
speziellen Mustern oder auffälligen Farben versehen sind), oder vom Robotersystem
in einer Explorationsphase gelernt werden (z.B. Sonar-Landmarken [Leonard et al.,
1990].) Während Landmarkenlokalisierung beeindruckende Ergebnisse in
geometrischer Lokalisierung erreichen kann, muß entweder die Einsatzumgebung
vorher eingerichtet werden oder natürliche Landmarken effizient und robust erkannt
werden können.
Im Gegensatz hierzu, versuchen dichte Sensordaten vergleichende Verfahren die
gesamte verfügbare Sensorinformation zu verwenden, um die Roboterposition zu
bestimmen. Dies wird dadurch bewerkstelligt, dass dichte Sensorscans mit einer
Oberflächenkarte der Umgebung verglichen werden ohne dabei Landmarken aus den
Sensordaten zu extrahieren. Daher können dichte Sensordaten vergleichende
Verfahren sich beliebige in den Sensordaten vorhandene Merkmale zum Vorteil
machen, ohne dabei explizit diese Merkmale zu denieren.
4.2 Weltmodelle für Navigation
Weltmodelle für Navigation mobiler Roboter sind zumeist zwei-dimensionale,
geometrische oder topologische Karten. Die dritte Dimension in die Karten mit
aufzunehmen, macht das Modell für die Navigation meistens unnötig komplex.
Außer dieser Repräsentation der Umwelt gehören aber weitere Komponenten zu
einem Weltmodell. So muss ein Verfahren existieren, mit dem der aktuelle Zustand
des Weltmodells mittels der Sensordaten aktualisiert werden kann, und es müssen
entsprechende Algorithmen zur Planung der globalen Navigation anwendbar sein.
4.2.1 Geometrische Weltmodelle
Unter geometrischen Weltmodellen werden hier positionsbezogene Modelle
verstanden. Die Eigenschaften der Umwelt werden jeweils ‚an„ einer bestimmten
Position bzw. mit einer Positionsangabe gespeichert, so dass sie sich in einer
zwei-dimensionalen geometrischen Karte mit euklidischen Koordinaten platzieren
lassen. Bei gerasterten Karten wird die Umwelt in eine Menge von Bereichen
eingeteilt - im einfachsten Fall in gleich große Quadranten (Raster) - und die
Eigenschaften der Umwelt für jeden der Bereiche gespeichert. Ein typisches Beispiel
hierfür sind Occupancy Grid-Maps. Vektorielle Karten dagegen speichern eine Menge
von Objekten jeweils mit Positionsangabe, wobei die Positionsangabe hier nicht an
ein Raster gebunden sein muss und die Objekte selbst neben anderen Eigenschaften
typischerweise auch eine geometrische Beschreibung beinhalten.
4.2.1.1 Vektorielle Karten mit geometrischen Primitiven
Als geometrische Grundformen zur Beschreibung der Umwelt werden hier
Liniensegmente, Kreise, Polygone oder andere geometrische Primitive benutzt.
Der Rand eines Polygons ist eine Liste von Liniensegmenten. Oft werden
insbesondere konvexe Polygone zur Modellierung von Hindernissen verwendet.
Polygone eignen sich besonders in manuell erstellten Weltmodellen kombiniert mit
Off-Line-Planung. Der Nachteil dieser Methode besteht unter Anderem darin, dass die
Sensoren eines mobilen Roboters immer nur eine Seite eines Polygons erfassen
können und deshalb eine dynamische Erstellung und Pflege eines solchen Modells
schwer fällt.
Um effektive Pfadplanung durchzuführen, werden diese geometrischen Karten
typischerweise in planare Graphen transformiert, welche die Topologie der
Umgebung wiedergeben.
4.2.1.2 Occupancy Grid-Maps
Occupancy Grid-Maps eignen sich nicht nur als Weltmodell, sondern sind auch als
Methode zur Sensor-Fusion bekannt.
Für die lokale Navigation ist vor allem die freie, befahrbare Fläche in der Umgebung
des Roboters interessant. Sind mehrere verschiedene Sensoren zum Messen der freien
Fläche vorhanden, so stellt sich zwangsläufig die Frage nach einer geeigneten
Sensor-Fusion. Die Messungen der verschiedenen Sensoren sind von
unterschiedlichen Zeitpunkten und haben unterschiedliche Charakteristika, was die
Genauigkeit, die Reichweite und sonstige Eigenschaften betrifft. Selbst wenn nur ein
Abstandssensor benutzt wird, ist zumindest die Zusammenfassung mehrerer zeitlich
aufeinander folgender Messungen von Interesse.
Für die Erstellung einer Occupancy Grid-Map wird die lokale Umgebung des
Roboters eingeteilt in Regionen, im einfachsten Fall durch ein Raster (engl.: grid) in
Quadranten.
4.2.2 Topologische Weltmodelle
Diese Weltmodelle geben hauptsächlich die Topologie11
der Umwelt wieder. Sie
besitzen im Allgemeinen einen höheren Abstraktionsgrad als geometrische Karten
und werden typischerweise als Graph mit Objekten und Beziehungen zwischen diesen
Objekten dargestellt.
Im weitesten Sinne können manche topologische Karten auch als geometrische Karten
interpretiert werden. Auch hier ist der Übergang fließend. Der höhere
Abstraktionsgrad prägt sich darin aus, dass Bereiche in der Umgebung zu Objekten
wie Kreuzungen, Abzweigen, Räumen. zusammen gefasst werden und teilweise
semantische Beziehungen zu benachbarten Objekten erfasst sind.
Planungsalgorithmen lassen sich dadurch auf topologischen Weltmodellen im
Allgemeinen direkter implementieren.
4.2.3 Probabilistische Weltmodelle
Da die Sensorik, auf welche alle Verfahren zur Aktualisierung eines Weltmodells
angewiesen sind, fehlerbehaftet ist, ist auch ein bestimmter Zustand immer
 
1
Topologie: Lehre von der Lage u. Anordnung geometrischer Gebilde im Raum.
fehlerbehaftet. Mittels eines Fehlermodells lässt sich dieser Fehler des Zustands
zumindest annähernd quantitativ eingrenzen. Unabhängig von der Ungenauigkeit der
Sensorik kommen jedoch weitere Fehlerquellen hinzu:
Erstens sind durch die ungenaue Modellierung der Umwelt Fehlinterpretationen der
Sensordaten möglich. Dies kommt daher, dass sich in der Umwelt Objekte (z.B.
Personen oder andere dynamische Objekte) befinden, welche im Weltmodell nicht
oder nur unzureichend modelliert werden können.
Diese Objekte können bei der Auswertung der Sensordaten mit Objekten im
Weltmodell verwechselt werden oder die Erkennung von Objekten im Weltmodell
verhindern. Zweitens kann die Umwelt z.B. von verschiedenen Positionen aus die
gleichen Sensoreindrücke vermitteln. Dadurch wird eine eindeutige
Positionsbestimmung und somit auch die Zuordnung der Sensordaten zum globalen
Modell nur aus den momentanen Sensordaten unmöglich. Da viele
Aktualisierungsverfahren für Weltmodelle einen eindeutigen, zuvor bestimmten
Zustand des Modells zur Bestimmung des neuen aktuellen Zustandes benutzen, wird
in vielen nicht probabilistischen Verfahren nur der wahrscheinlichste alte Zustand als
Grundlage für die Berechnung der neuen Zustände verwendet.
Probabilistische Weltmodelle können auf geometrischen oder topologischen
Weltmodellen basieren. In probabilistischen Weltmodellen wird nicht ein bestimmter
Zustand gespeichert, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen
Zustände oder zumindest über einer Teilmenge der möglichen Zustände. Dadurch
steigt der Aktualisierungsaufwand aber auch der Informationsgehalt. Die
probabilistisch erfassten Zustandsvariablen im Weltmodell betreffen hier meistens nur
wenige Objekte im Weltmodell. Typischerweise wird sogar nur die Position des
Roboters mit einer probabilistischen Zustandsvariablen beschrieben.
Um die Wahrscheinlichkeitsverteilung der Zustandsvariablen aktualisieren zu können,
benötigt man ein probabilistisches Sensor- und Aktormodell. Das Sensormodell
beinhaltet Informationen, wie wahrscheinlich es ist, bei einem bestimmten realen
Zustand eine bestimmte Sensormessung zu erhalten.
Das Aktormodell beschreibt andererseits wie wahrscheinlich es ist, einen bestimmten
realen Folgezustand zu erreichen unter der Bedingung, dass versucht wurde eine
bestimmte Aktion auszuführen.
Sensor- und Aktormodelle können teilweise durch statistische Versuche ermittelt
werden. Um die Zahl der Experimente zu reduzieren, ist es wichtig zu bestimmen,
von welchen Faktoren der Ausgang der Messungen bzw. der Aktion wesentlich
abhängt. Die Wahrscheinlichkeitsverteilung der Entfernungen einer
Entfernungsmessung hängt global gesehen beispielsweise mit der Position des
Sensors und der momentanen Beschaffenheit der Umgebung zusammen.
Da reale, dynamische Umgebungen jedoch diese Bedingung nicht erfüllen, müssen
zusätzliche Techniken angewendet werden, um ein gutes Lokalisierungsverfahren zu
erhalten. Abgesehen davon wird die Aktualisierung schon unter diesen Annahmen
sehr aufwendig, wenn die betrachteten Zustandsräume groß sind. Aus diesem Grund
werden auch entsprechende Techniken zur Reduktion des Aktualisierungsaufwandes
benötigt.
5 Analyse von Steuerungsarchitekturen
Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines
Systems. Sie soll die Implementierung und Wartung von komplexen Anwendungen
erleichtern und typische Fehler von vornherein vermeiden helfen. Dabei sollten
Steuerungsarchitekturen für mobile Roboter auf die speziellen Anforderungen dieser
Steuerungsaufgabe zugeschnitten sein. Hierzu gehören die Anforderungen, die durch
ungenaue Sensorik und Aktorik entstehen, sowie Zeitanforderungen durch die
Interaktion mit einer realen Umwelt.
Die Gesamtsteuerung wird in verschiedene Module evtl. verschiedener Klassen
eingeteilt. Sie legt deren Interaktion, semantische Bedeutung und Beziehung
zueinander fest. Dazu gehören z.B. die Kommunikation und Hierarchie zwischen den
Modulen. Weiterhin wird evtl. festgelegt, wie der interne Zustand des Systems
strukturiert ist, gespeichert wird und wie die Module darauf zugreifen können.
Die Steuerungsarchitektur ist also eine Art Rahmenwerk und stellt selbst keine
lauffähige Anwendung dar, sondern wird erst durch die Implementierung mit
Funktionalität gefüllt.
In diesem Teil wird zunächst der Einsatz von hybriden Steuerungsarchitekturen
motiviert. Hybride Steuerungsarchitekturen zielen auf eine Symbiose von
verhaltensbasierten (oder reaktiven) Ansätzen mit klassischen, funktionsbasierten
Ansätzen ab. Es ist der Versuch, die Vorteile beider Ansätze in Einklang zu bringen.
Im Rahmen einer Klassifikation werden typische hybride Steuerungsarchitekturen
vorgestellt und analysiert. Die daraus gewonnenen Erkenntnisse fließen im folgenden
Kapitel in die im Laufe dieser Arbeit entwickelte Steuerungsarchitektur ein.
5.1 Prozessdatenverarbeitung
Etwas abstrakter betrachtet handelt es sich bei einem Roboter um ein System, das
Prozessdaten verarbeitet. Die Daten werden von Sensoren geliefert und Ergebnisse
über Aktoren in physische Reaktionen umgesetzt.
x → Black-Box → y
Der aktuelle Ausgang y der Black-Box wird bestimmt von der Sequenz aller
Wahrnehmungen x bis zum aktuellen Zeitpunkt, das bedeutet, dass die Box im
Allgemeinen auch ein Erinnerungsvermögen hat. Die gewählte Steuerungsarchitektur
beantwortet dann die Frage nach der Struktur der Black-Box.
Ein Großteil der Forschungsarbeiten der künstlichen Intelligenz beschäftigt sich mit
der Lösung von Problemstellungen, bei denen zum Zeitpunkt, wenn der
Lösungsprozess gestartet wird, alle nötigen Informationen vorliegen.
L sungsmethoden beruhen hier im Allgemeinen auf intelligenten Suchstrategien im
Zustandsraum des Problems. Lösungen sind dabei vollständige Pfade (Folgen von
Zuständen bzw. Folgen von Aktionen) vom Ausgangszustand zum Zielzustand,
welche die Zielbedingungen des Problems erf¨ullen und evtl. zusätzlich eine
Kostenfunktion minimieren. Hierbei werden im Normalfall einige Voraussetzungen
angenommen, die diese Vorgehensweise rechtfertigen:
• Bestimmte Aktionen bewirken bestimmte, bekannte Zustandsänderungen und nur
diese.
• Während des Lösungsprozesses ändert sich der Zustand des Weltmodells nicht.
5.1.1 Zeitbedingungen
Im Gegensatz zur Verarbeitung von Daten aus einer Datenbank können die Daten
vom System nicht bei Bedarf abgeholt werden, sondern müssen ausgelesen werden,
wenn sie vom Sensor gemessen werden.
Insbesondere fallen natürlich kontinuierlich weitere Daten an, und auch die
Verarbeitung muss kontinuierlich erfolgen. Dabei werden im Allgemeinen auch Daten
und Ergebnisse aus den vorhergehenden Zeitschritten benöigt. Sensordaten fallen in
teilweise sehr unterschiedlichen Zeitintervallen an. Natürlich können die Daten
gespeichert bzw. gepuffert werden. Handelt es sich jedoch um wichtige Daten, die z.B.
für die Kollisionsvermeidung relevant sind, müssen sie innerhalb einer engen
Zeitspanne bearbeitet und ausgewertet werden. Andererseits fallen auch andere Daten
an, die zwar ebenfalls wichtig sind, auf die jedoch nicht besonders schnell reagiert
werden muss.
Auch die Verarbeitungszeit der Daten ist je nach Ziel der Verarbeitung
unterschiedlich. So ist die Prüfung, ob ein Messwert eine Schwelle überschreitet, in
wenigen Prozessortakten erledigt, jedoch kann die Erkennung eines Objektes sehr
aufwendig werden und die Akkumulation vieler Daten erfordern. Weiterhin können
auch verschiedene Verarbeitungsergebnisse bestimmter Datenquellen verschiedene
Dringlichkeiten besitzen. Auch auf der Ausgangsseite sind zeitliche Bedingungen zu
beachten. So müssen manche Steuerkommandos nicht unmittelbar, sondern erst zu
einem bestimmten Zeitpunkt oder auch nach einer bestimmten Verzögerungszeit,
ausgeführt werden.
Die oben genannten gemischten Echtzeitanforderungen an die Datenverarbeitung sind
ein wesentlicher Grund für den Entwurf von neuen Architekturen zur Verarbeitung
der Daten eines mobilen Roboters.
5.2 Verhaltensbasierte Steuerungsarchitekturen
Verhaltensbasierte Ansätze erfuhren einen großen Aufschwung als Brooks 1986
seinen Artikel „A robust layered control system for a mobile robot“ [Bro86]
veröffentlichte und gleichzeitig demonstrierte, dass dieser Ansatz überzeugende
Ergebnisse auf dem Gebiet der robusten Steuerung von sechsbeinigen Robotern zeigte
[Bro89]. Außerdem lieferte Brooks theoretische Hintergründe des Erfolgs [Bro89,
Bro91b, Bro91a]. Parallel hierzu fanden Wissenschaftler aus dem Gebiet der
Kybernetik und Biologie anhand von Studien an Insekten (u.a. Stabheuschrecken)
heraus, dass das Geheimnis hinter der so komplex anmutenden Fortbewegung auf
sechs Beinen durch unebenes Gelände wahrscheinlich das Zusammenwirken von
mehreren recht einfachen Regelmechanismen in Wechselwirkung mit der Umwelt ist
[CBB+95, CDK+99]. Dies war deshalb erstaunlich, weil vorhergehende Ansätze zur
Steuerung sechsbeiniger Roboter, die versuchten die Bewegung aller sechs Beine
zentral zu steuern, auf erhebliche Probleme gestoßen waren. Problematisch waren vor
allem die große Anzahl der Freiheitsgrade einer solchen Laufmaschine, die
Ungenauigkeit der Sensorik und die harten Echtzeitbedingungen.
Offensichtlich war man mit dem verhaltensbasierten Ansatz auf eine Methode
gestoßen, die gerade in der Robotik Vorteile gegenüber dem konventionellen
funktionalen Ansatz birgt und die zusätzlich ihr Vorbild in der Natur fand. Weitere
Wissenschaftler gelangten mehr oder weniger unabhängig zu ähnlichen Erkenntnissen
([PV92, PS94, Ste94, Smi94, MB93, Bee90, Sac87]). Es folgten verschiedene Studien
zu verhaltensbasierten, reaktiven mobilen Robotern ([Bra84, VKP92, Kub97, SP95,
SB95, Ste97b, Ste97a, Mat97, FS95, GIM94]).
Es fiel jedoch auf, dass verhaltensbasierte Roboter zwar sehr reaktionsschnell und
robust agierten, es mangelte ihnen jedoch an planerischen Fähigkeiten [BKSW95b,
BK95b, BK95a]. Dadurch wurden die Prämissen von Brooks, kein Weltmodell zu
benutzen und keinen internen Zustand zu speichern, in Frage gestellt. Wie auch Erann
Gat in [Gat93] herausstellt, entstehen Probleme mit Weltmodellen und internen
Zuständen immer dann, wenn implizit Folgerungen und Vorhersagen aus den
gespeicherten Zuständen generiert werden, welche nicht zutreffen.
Deshalb sind viele Probleme zu beseitigen, indem darauf geachtet wird, dass das
Weltmodell und der intern gespeicherte Zustand nur Informationen enthalten, die
zutreffende Vorhersagen zulassen. Dies ist zumeist für abstraktere Informationen der
Fall. Diese Informationen können zwar genutzt werden, um die Aktionen des
Roboters grob zu leiten, sind jedoch nicht geeignet, um ihn zu steuern.
Verhaltensbasierte Steuerungsarchitekturen müssen nun festlegen, wie dieses Leiten
der Aktionen realisiert wird, ohne die reaktiven Fähigkeiten der Verhalten zu
unterbinden. Um diesen Problemen zu begegnen, wurden eine Vielzahl von hybriden
Steuerungsarchitekturen entwickelt, von denen einige wichtige im nächsten Abschnitt
vorgestellt werden. Einige Begriffe in der verhaltensbasierten Robotik werden nicht
einheitlich verwendet, insbesondere wird der Begriff ‚Verhalten„ unterschiedlich
aufgefasst. Um Missverständnissen vorzubeugen, wird hier zunächst die Bedeutung
einiger Begriffe für diese Arbeit umrissen.
Ein einfaches Modul, welches gelesene Eingangsdaten bzw. Sensordaten mit
Algorithmen und Funktionen auf Ausgangsdaten bzw. Aktionen abbildet, nennen
wir ‟Verhalten‟. Dabei ist von einem ‚Reflex„ die Rede, wenn das Modul mit
bestimmten Ausgabemustern direkt und sehr schnell auf wenige, bestimmte
Ereignisse oder Muster von Eingangsdaten reagiert, völlig unabhängig vom internen
Zustand. Ein Reflex ist also ein besonders einfaches und schnelles Verhalten und
reagiert nur in bestimmten Situationen (Stimulus - Response).
Dagegen bezeichnen wir Verhalten, die kontinuierlich alle Eingangsdaten auswerten
und auf einen kontinuierlichen Strom von Ausgangsdaten abbilden, als
‚Kontrollverhalten„. Der Begriff ‚Verhalten„ stimmt somit in dieser Arbeit mit dem
Begriff ‚behavior„ überein, wie er in den meisten Arbeiten verwendet wird.
Andererseits benutzt beispielsweise L. Steels den Begriff ‚behavior„ in [Ste94] mit
einer anderen Bedeutung. Dort ist ein Verhalten (behavior) eine Abfolge von
beobachteten und interpretierten Aktionen eines Roboters in seiner Umgebung. Ein
Verhalten ist dort demnach kein spezielles Modul oder ein Algorithmus, sondern es
erwächst aus dem Zusammenspiel von einem oder mehreren reaktiven Modulen
untereinander sowie mit der Umwelt.
Obwohl dieser Begriff von Verhalten näher an der biologischen Definition liegt und
vielleicht sogar treffender ist, werden wir hier den Begriff ‚Verhalten„ so verwenden
wie oben beschrieben, denn er wird auch in der Mehrzahl der Arbeiten zu
verhaltensbasierten Steuerungsarchitekturen so benutzt.
In diesem Teil wird Steuerungsarchitekturen für autonome mobile Roboter
ausführlich analysiert. Dabei gibt es auch einen Überblick über
Prozessdatenverarbeitung und Verhaltensbasierte Steuerungsarchitekturen. Durch
diese Analyse kann man die nützliche Informationen darüber erhalten, besonders über
die Informationen für Zeitbedingungen und Verhaltensbasierte
Steuerungsarchitekturen. Verhaltensbasierte Steuerungsarchitekturen sind die beliebte
Thema für autonome mobile Roboter.
6 Zusammenfassung
Roboter sind künstliche, von Menschen entworfene und gebaute technische Objekte.
In dieser Arbeit kann man autonome mobile Roboter gut verstehen. Auch die
Beschaffenheit der Einsatzumgebung wurde in dieser Arbeit vorgestellt.
Es wurden typische Sensoren und Aktoren für autonome mobile Roboter beschrieben.
Eine kurze Übersicht über andere autonome mobile Roboter wurde in dieser Arbeit
beschrieben. Danach kann man auch die Geschichte über autonome mobile Roboter
besser kennen.
Zudem wurden auch bekannte lokale und globale Navigationsverfahren vorgestellt.
Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines
Systems. Dabei sollten Steuerungsarchitekturen für autonome mobile Roboter auf die
speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein.
Autonome mobile Roboter bewegen sich in einer offenen Umgebung, deshalb sind die
Definition und Pflege eines geschlossenen Weltmodells schwieriger als bei stationären
Robotern. Für einen mobilen Roboter stellt die sichere Navigation ein grundlegendes
Aufgabenfeld dar. Gleichzeitig ist die Navigation in dynamischen Umgebungen ein
typischer Anwendungsfall für die Zusammenfassung von reaktiven und deliberativen
Verfahren.
Die Navigation lässt sich in lokale und globale Navigation unterteilen. In der lokalen
Umgebung muss der Roboter sensororientiert arbeiten und auf dynamische Objekte
reagieren. Bei einigen Robotern müssen zusätzlich nicht-holonomische Eigenschaften
berücksichtigt werden.
Es gibt noch die Informationen über Lokalisierung über autonome mobile Roboter,
die ein sehr wichtiges Thema für autonome mobile Roboter ist. Es ist notwendig, dass
man Lokalisierung über autonome mobile Roboter gut versteht.
Durch diese Arbeit kann man wissen, dass wie die Verwendung von Sensordaten aus
der Umgebung für mobile Roboter eine zentral wichtige Rolle spielt. Ein
Grundverständnis der technischen Sensoren ist daher auch dann erforderlich. In dieser
Arbeit kann man die Antwort bekommen.
Kurz gesagt, man kann durch die Arbeit neue Erkenntnisse über autonome mobile
Roboter erfassen. In der Zukunft werden autonome mobile Roboter wichtiger als jetzt
sein.
Literatur
Bilder aus dem Buch »Mobile Robots - State of the Art in Land, Sea, Air, and
Collaborative Missions «, XiaoQi Chen, Y.Q. Chen and J.G. Chase.
Bilder aus dem Buch »Mobile Robotik«, Ulrich Nehmzow
https://de.wikipedia.org/wiki/Autonomer_mobiler_Roboter
https://publikationen.uni-tuebingen.de/xmlui/handle/10900/48655
关于我们  |  诚聘英才  |  联系我们  |  友情链接
版权所有:@ 智尚代写联盟 电话:0760-86388801 客服QQ:875870576
地址: 广东中山市学院路1号 皖ICP备12010335号-7
  • 論文作成開始報告書
  • 西语作业代写PLANIFICACI&
  • 西班牙语作业代写PLANIFICAC
  • 高等教育科学研究项目立项指南
  • Reason for applica
  • 日语学位论文开题报告代写
  • 翻译硕士(英语笔译及英语口译)学位论
  • 中国现当代文学翻译的现状与问题
  • 文学翻译新观念
  • 找人代写硕士论文,要求写手至少硕士学
  • 重复提取促进长期记忆保持和意义学习的
  • 艺术院校内容依托英语教学的实证研究
  • 基于概念场的认知框架中的概念隐喻分析
  • 多元回归统计建模在语料库语言学中近义
  • paper6工作室专注留学生论文代写
  • 德语医学论文标题汉译的编辑加工
  • 高职韩语专业毕业论文的问题分析
  • develop communicat
  • VICTORIA UNIVERSIT
  • 日本地址电话
  • 英语动词现在时与将来时呼应的认知解读
  • 核心素养与英语课堂教学
  • 新国标下商务英语精读内容与语言融合型
  • 语言生态学视阈下美国语言教育政策研究
  • 应用技术型民族院校的大学英语教学改革
  • 圣诞节西班牙语
  • 基于区域经济发展的分类递进式大学英语
  • MOOC对高校专业课教学的效能研究
  • 西班牙语论文代写
  • 实习报告写作要求规范细则
  • 茶本体的开发,实现和评估
  • Anaylse des Leben
  • um Material,was ge
  • TEXTOS WEB ACOCEX
  • praktische WurzelS
  • FAQ vom Würzelschn
  • 中国饮食文化法国饮食文化
  • 中国春节特色法国圣诞节
  • 英韩翻译案例
  • 中国自動車産業の現状と課題 -環境保
  • 战争的结构
  • 法语论文修改意见
  • reference 代写
  • A proposal submitt
  • Gründe der erfolge
  • 工业翻译中译英考试题目
  • Introduction to en
  • 从汉法主要颜色词汇的文化内涵看两国文
  • Un problème chez &
  • INTERNATIONAL AND
  • IHRM Individual re
  • НАЦИОНАЛЬНО-КУЛЬТУ
  • ТЕОРЕТИЧЕСКИЕ ОСНО
  • SPE会议论文翻译
  • Project Proposal 地
  • 中国意大利家用电器领域合作的可能性和
  • Career Goal与Career
  • Caractéristiques e
  • L'influence de l'S
  • 英语口语教学改革途径测试与分析
  • 语用学理论与高校英语阅读教学
  • 日本语研究计划书写作申请
  • To Whom it May Con
  • 译文中英对照葡萄酒产品介绍
  • 韩国传统用餐礼节
  • 日本語の暧昧語婉曲暧昧性省略表現以心
  • 研究计划书写作要求
  • Outline Impact of
  • 计算机工程与网络技术国际学术会议EI
  • 微软的人脸3D建模技术 Kinect
  • Qualitative resear
  • 新闻的感想
  • 与老师对话的测验
  • 韩语论文修改意见教授老师
  • 华南师范大学外国语言文化学院英语专业
  • APA论文写作格式
  • the surrounding en
  • Современное состоя
  • CHIN30005 Advanced
  • The APA Harvard Sy
  • Annotated Bibiolgr
  • Acker Merrall & Co
  • 资生堂进入中国市场的经营策略
  • Introduction to Pu
  • 软件测试Introduction t
  • Pro Ajax and java
  • 用户体验The user exper
  • AJAX Design Patter
  • The Rich Client Pl
  • Keyframer Chunks
  • 3D-Studio File For
  • Mathematics for Co
  • The Linux MTD, JFF
  • 中日体态语的表现形式及其差异
  • CB 202 System Anal
  • 论日本恐怖电影与好莱坞恐怖片的异同
  • 俄语论文修改
  • 古典诗歌翻译英语论文资料
  • <한중
  • 公司治理(Corporate Gov
  • 英语习语翻译中的移植与转换
  • 日语(上) 期末复习题
  • ACTIVIDAD CORRESPO
  • 리더&#
  • 购物小票翻译
  • 论文摘要翻译英文
  • Bedeutung der Prod
  • ELABORACIÓN
  • 英语考卷代写代做
  • 日本語の感情形容詞の使用特徴——ドラ
  • 未来創造学部卒業研究要領
  • 光之明(国际)低碳产品交易中心介绍
  • 中国の茶文化と日本茶道との比較—精神
  • 목차
  • Final Project Grad
  • 東京学芸大学>センターなど教員許 夏
  • 東京学芸大学 大学院教育学研究科(修
  • 白澤論
  • ポスト社会主義モンゴルにおけるカザフ
  • 言語と色彩現象—史的テクストをもとに
  • 渡来人伝説の研究
  • 中日企业文化差异的比较
  • Modellierung des B
  • 日本大学奖学金申请
  • 大学日语教师尉老师
  • 석사&#
  • Chemical Shift of
  • 中韩生日习俗文化比较
  • Measure of Attachm
  • 酒店韩国客人满意度影响因素研究
  • 要旨部分の訂正版をお送りします
  • Writing and textua
  • 日本企業文化が中国企業にもたらす啓示
  • 日本情报信息专业考试题
  • 雅丽姿毛绒时装有限公司网站文案(中文
  • 語用論の関連性理論「carston」
  • 組織行動と情報セキュリティ.レポート
  • Bedarf
  • 中日企业文化差异的比较
  • 从语形的角度对比中日“手”语义派生的
  • 中国明朝汉籍东传日本及其对日本文化的
  • 《中日茶道文化比较》
  • 从中日两国电视剧看中日文化之差异
  • FOM Hochschule für
  • Die Rolle der Bank
  • A Penny for Your T
  • 也谈ガ行鼻浊音的语音教学问题
  • On the Difference
  • 衣装は苗族の伝統文化の主な表現形式
  • 日语语言文学硕士论文:日本の义务教育
  • 日本的茶文化
  • Samsung Electronic
  • Synthesis and char
  • The traveling mark
  • The Japanese Democ
  • 四季の歌
  • CapitoloI La situa
  • The Effects of Aff
  • WEB服务安全保障分析
  • 音译汉语和英语的相互渗透引用
  • 中日两国服装贸易日语论文写作要求
  • 日语论文修改意见
  • 英语作文题目
  • 申请留学社会经验心得体会
  • BE951 Coursework O
  • Overview township
  • 日本の長寿社会考察
  • 日语老师教师电话联系方式
  • 「依頼」に対する中上級者の「断り」に
  • 日本語序論
  • component formatti
  • 日文文献资料的查阅方法
  • 日文文献资料的查阅方法
  • 日语文献检索日文文献搜索网站
  • 日本留学硕士及研究生的区别硕士申请条
  • Adult attachment s
  • レベルが向上する中国の日本学研究修士
  • 日本留学硕士(修士)与研究生的区别
  • Nontraditional Man
  • Engine Lathes
  • Automatic Screw M
  • Chain Drives
  • V-belt
  • Bestimmung der rut
  • 中山LED生产厂家企业黄页大全
  • 活用神话的文化背景来看韩国语教育方案
  • MLA論文格式
  • 旅游中介
  • MLA论文格式代写MLA论文
  • 小論文參考資料寫作格式範例(採APA
  • clothing model; fi
  • 共同利用者支援システムへのユーザー登
  • 太陽風を利用した次世代宇宙推進システ
  • RAO-SS:疎行列ソルバにおける実
  • 井伏鱒二の作品における小動物について
  • 從“老祖宗的典籍”到“現代科學的証
  • “A great Pecking D
  • 净月法师简历
  • 科技论文中日对照
  • 翻译的科技论文节选
  •  IPY-4へ向ける準備の進み具合
  • 論文誌のJ-STAGE投稿ʍ
  • Journal of Compute
  • 学会誌 (Journal of Co
  • 学会誌JCCJ特集号への投稿締切日の
  • 「化学レポート:現状と将来」
  • 韩语翻译个人简历
  • 九三会所
  • 事態情報附加連体節の中国語表現につい
  • International Bacc
  • HL introduction do
  • コーパスを利用した日本語の複合動詞の
  • 日语分词技术在日语教材开发中的应用构
  • 北極圏環境研究センター活動報告
  • 语用学在翻译中的运用
  • 日汉交替传译小议——从两篇口译试题谈
  • 総合科学専攻における卒業論文(ミニ卒
  • Heroes in August W
  • 玛雅文明-西班牙语论文
  • 西班牙语论文-西班牙旅游美食建筑
  • 八戸工業大学工学部環境建設工学科卒業
  • 親の連れ子として離島の旧家にやって来
  • 「米ソ協定」下の引揚げにおいて
  • タイトル:少子化対策の国際比較
  • メインタイトル:ここに入力。欧数字は
  • 東洋大学工学部環境建設学科卒業論文要
  • IPCar:自動車プローブ情報システ
  • Abrupt Climate Cha
  • Recognition of Eco
  • Complexities of Ch
  • Statistical Analys
  • Dangerous Level o
  • 中日对照新闻稿
  • 俄汉语外来词使用的主要领域对比分析
  • 两种形式的主谓一致
  • 韩语论文大纲修改
  • 중국&#
  • 俄语外来词的同化问题
  • 北海道方言中自发助动词らさる的用法与
  • 论高职英语教育基础性与实用性的有机结
  • 论高职幼师双语口语技能的培养
  • 论高职幼师英语口语技能的培养
  •     自分・この眼&
  • 成蹊大学大学院 経済経営研究科
  • アクア・マイクロ
  • 公共経営研究科修士論文(政策提言論文
  • 基于学习风格的英语学习多媒体课件包
  • 后殖民时期印度英语诗歌管窥
  • 汉语互动致使句的句法生成
  • 笔译价格
  • 携帯TV電話の活用
  • 英語学習におけるノートテイキング方略
  • 強化学習と決定木によるエージェント
  • エージェントの行動様式の学習法
  • 学習エージェントとは
  • 強化学習と決定木学習による汎用エージ
  • 講演概要の書き方
  • 对学生英语上下义语言知识与写作技能的
  • 英汉词汇文化内涵及其翻译
  • 论大学英语教学改革之建构主义理论指导
  • 国内影片片名翻译研究综观及现状
  • 平成13年度経済情報学科特殊研究
  • Comparison of curr
  • 英文论文任务书
  • This project is to
  • the comparison of
  • デジタルペンとRFIDタグを活用した
  • 無資格者無免許・対策関
  • 創刊の辞―医療社会学の通常科学化をめ
  • gastric cancer:ade
  • 揭示政治语篇蕴涵的意识形态
  • 试论专业英语课程项目化改革的可行性
  • 多媒体环境下的英语教学交际化
  • 翻译认知论
  • 读高桥多佳子的《相似形》
  • 以英若诚对“Death of A S
  • 论沈宝基的翻译理论与实践
  • 论语域与文学作品中人物会话的翻译
  • 浅析翻译活动中的文化失衡
  • 谈《傲慢与偏见》的语言艺术
  • 论语言结构差异对翻译实效性的影响
  • 英语传递小句的认知诠释
  • 英语阅读输入的四大误区
  • 在语言选择中构建社会身份
  • 私たちが見た、障害者雇用の今。
  • 震災復興の経済分析
  • 研究面からみた大学の生産性
  • 喫煙行動の経済分析
  • 起業の経済分析
  • 高圧力の科学と技術の最近の進歩
  • 「観光立国」の実現に向けて
  • 資源としてのマグロと日本の動向
  • 揚湯試験結果の概要温泉水の水質の概要
  • 計量史研究執筆要綱 
  • 日中友好中国大学生日本語科卒業論文
  • 제 7 장
  • 전자&
  • 現代國民論、現代皇室論
  • 記紀批判—官人述作論、天皇宗家論
  • 津田的中國觀與亞洲觀
  • 津田思想的形成
  • 反思台灣與中國的津田左右吉研究
  • 遠隔講義 e-learning
  • 和文タイトルは17ポイント,センタリ
  • Design And Impleme
  • Near-surface mount
  • 중국 &
  • 韩国泡菜文化和中国的咸菜文化
  • 무한&#
  • 수시 2
  • 韩流流向世界
  • 무설&#
  • 要想学好韩语首先得学好汉语
  • 사망&#
  • Expression and Bio
  • Increased Nuclear
  • 论女性主义翻译观
  • 健康食品の有効性
  • 日语的敬语表现与日本人的敬语意识
  • 日语拒否的特点及表达
  • Solve World’s Prob
  • 韩汉反身代词“??”和“自己”的对比
  • 韩汉量词句法语义功能对比
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 土木学会論文集の完全版下印刷用和文原
  • 英语语调重音研究综述
  • 英汉语言结构的差异与翻译
  • 平等化政策の現状と課題
  • 日本陸軍航空史航空特攻
  • 商务日语专业毕业生毕业论文选题范围
  • 家庭内暴力の現象について
  • 敬语使用中的禁忌
  • Treatment of high
  • On product quality
  • Functional safety
  • TIDEBROOK MARITIME
  • 日文键盘的输入方法
  • 高职高专英语课堂中的提问策略
  • 对高校学生英语口语流利性和正确性的思
  • 二语习得中的文化错误分析及对策探讨
  • 高职英语专业阅读课堂教学氛围的优化对
  • 趣谈英语中的比喻
  • 浅析提高日语国际能力考试听力成绩的对
  • 外语语音偏误认知心理分析
  • 读格林童话《小精灵》有感
  • “新世纪”版高中英语新课教学导入方法
  • 初探大学英语口语测试模式与教学的实证
  • 中加大学生拒绝言语行为的实证研究
  • 目的论与翻译失误研究—珠海市旅游景点
  • 对学生英语上下义语言知识与写作技能的
  • 英语水平对非英语专业研究生语言学习策
  • 英语教学中的文化渗透
  • 中学教师自主学习角色的一项实证研究
  • 叶维廉后期比较文学思想和中诗英译的传
  • 钟玲中诗英译的传递研究和传递实践述评
  • 建构主义和高校德育
  • 论习语的词法地位
  • 广告英语中的修辞欣赏
  • 从奢侈品消费看王尔德及其唯美主义
  • 论隐喻的逆向性
  • 企盼和谐的两性关系——以劳伦斯小说《
  • 论高等教育大众化进程中的大学英语教学
  • 试论《三四郎》的三维世界
  • 李渔的小说批评与曲亭马琴的读本作品
  • 浅谈中国英语的表现特征及存在意义
  • 湖南常德农村中学英语教师师资发展状况
  • 海明威的《向瑞士致敬》和菲茨杰拉德
  • 围绕课文综合训练,培养学生的写作能力
  • 指称晦暗性现象透析
  • 西部地区中学生英语阅读习惯调查
  • 论隐喻的逆向性
  • 认知体验与翻译
  • 试析英诗汉译中的创造性
  • 言语交际中模糊语浅议
  • 认知体验与翻译
  • 关于翻译中的词汇空缺现象及翻译对策
  • 从互文性视角解读《红楼梦》两译本宗教
  • 从目的论看中英动物文化词喻体意象的翻
  • 高校英语语法教学的几点思考
  • 高校体艺类学生外语学习兴趣与动机的研
  • 大学英语自主学习存在的问题及“指导性
  • 从接受美学看文学翻译的纯语言观
  • 《红楼梦》两种英译本中服饰内容的翻译
  • 法语对英语的影响
  • 影响中美抱怨实施策略的情景因素分析
  • 代写需求表
  • 跨文化交际中称赞语的特点及语言表达模
  • 实现文化教育主导外语教育之研究
  • 试论读者变量对英语阅读的影响
  • 从文化的角度看英语词汇中的性别歧视现
  • 合作原则在外贸函电翻译中的运用
  • Default 词义探悉
  • 从图示理论看英汉翻译中的误译
  • 许国璋等外语界老前辈所接受的双语教学
  • “provide” 和 “suppl
  • 由英汉句法对比看长句翻译中的词序处理
  • 1000名富翁的13条致富秘诀中英对
  • 英语中18大激励人心的谚语中英对照
  • 反省女性自身 寻求两性和谐---评
  • 浅析翻译中的“信”
  • 集体迫害范式解读《阿里》
  • 横看成岭侧成峰-从美学批评角度解读《
  • 福柯的话语权及规范化理论解读《最蓝的
  • 播客技术在大学英语教学中的应用
  • 如何在山区中等专业学校英语课堂实施分
  • 奈达与格特翻译理论比较研究
  • 语篇内外的衔接与连贯
  • Economic globaliza
  • 用概念整合理论分析翻译中不同思维模式
  • 英语新闻语篇汉译过程中衔接手段的转换
  • 对易卜生戏剧创作转向的阐释
  • 动词GO语义延伸的认知研究
  • 反思型教师—我国外语教师发展的有效途
  • 输入与输出在词汇学习中的动态统一关系
  • 教育实践指导双方身份认同批判性分析
  • 中英商务文本翻译异化和归化的抉择理据
  • 从艺术结构看《呼啸山庄》
  • 从儒家术语“仁”的翻译论意义的播撒
  • 论隐喻与明喻的异同及其在教学中的启示
  • 话语标记语的语用信息在英汉学习型词典
  • 论森欧外的历史小说
  • 翻译认知论 ——翻译行为本质管窥
  • 中美语文教材设计思路的比较
  • 美国写作训练的特点及思考
  • UP语义伸延的认知视角
  • 成功的关键-The Key to S
  • 杨利伟-Yang Liwei
  • 武汉一个美丽的城市
  • 对儿童来说互联网是危险的?
  • 跨文化交际教学策略与法语教学
  • 试论专业英语课程项目化改革的可行性-
  • 论沈宝基的翻译理论与实践
  • 翻译认知论——翻译行为本质管窥
  • 母爱的虚像 ——读高桥多佳子的《相似
  • 浅析英语广告语言的特点
  • 中国の株価動向分析
  • 日语拒否的特点及表达
  • 日语的敬语表现与日本人的敬语意识
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 浅谈日语敬语的运用法
  • 浅谈日语会话能力的提高
  • ^论日语中的年轻人用语
  • 敬语使用中的禁忌
  • 关于日语中的简略化表达
  • 关于日语的委婉表达
  • The Wonderful Stru
  • Of Love(论爱情)
  • SONY Computer/Notb
  • 从加拿大汉语教学现状看海外汉语教学
  • MLA格式简要规范
  • 浅析翻译类学生理解下的招聘广告
  • 日本大学排名
  • 虎头虎脑
  • 杰克逊涉嫌猥亵男童案首次庭审
  • Throughout his car
  • June 19,1997: Vict
  • 今天你睡了“美容觉”吗?
  • [双语]荷兰橙色统治看台 荷兰球员统
  • Father's Day(异趣父亲节
  • 百佳电影台词排行前25名
  • June 9,1983: Thatc
  • June 8, 1968: Robe
  • 60 players mark bi
  • June 6, 1984: Indi
  • 日本の専門家が漁業資源を警告するのは
  • オーストリア巴馬は模範的な公民に日本
  • 日本のメディアは朝鮮があるいは核実験
  • 世界のバレーボールの日本の32年の始
  • 日本の国債は滑り降りて、取引員と短い
  • 广州紧急“清剿”果子狸
  • 美国“勇气”号登陆火星
  • 第30届冰灯节哈尔滨开幕
  • 美国士兵成为时代周刊2003年度人物
  • BIRD flu fears hav
  • 中国チベット文化週間はマドリードで開
  • 中国チベット文化週間はマドリードで開
  • 中国の重陽の文化の発祥地──河南省西
  • シティバンク:日本の国債は中国の中央
  • イギリスは間もなく中国にブタ肉を輸出
  • 古いものと新しい中国センター姚明の失
  • 中国の陝西は旅行して推薦ӥ
  • 中国の電子は再度元手を割って中国の有