留学文书自荐书代写
留学硕士论文代写
SCI期刊ISTP期刊EI论文代写
留学申请推荐信个人陈述代写
留学研究计划书代写
留学论文作业代写修改
英语 English
日语 日本語
韩语한국의
法语 Français
德语 Deutsch
俄语 Pусский
西语 Español
意语 Italiano
·英语论文 ·日语论文
·韩语论文 ·德语论文
·法语论文 ·俄语论文

名称:智尚工作室
电话:0760-86388801
传真:0760-85885119
地址:广东中山市学院路1号
网址:www.zsfy.org
E-Mail:cjpdd@vip.163.com

商务QQ:875870576
微信二维码

业务联系
成功案例
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
添加时间: 2017-10-17 22:04:24 来源: 作者: 点击数:3531

Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz

Inhaltsverzeichnis

1      Einleitung    

2      Autonome mobile Roboter

2.1     Was ist ein autonomer mobiler Roboter?

2.2     Warum und wofür werden Sie gebraucht?

2.3     Geschichte der autonomen mobilen Robotik

3       Hauptteile und Schlüsseltechnologien

3.1     Sensoren

3.1.1  Abstandssensoren

3.1.1.1  Stoßfänger

3.1.1.2  Ultraschall

3.1.1.3  Infrarot

3.1.1.4  Laser

3.1.1.4.1 2D-Laserscanner

3.1.1.4.2 3D-Laserscanner

3.1.2  Sensoren für Dead-Reckoning

3.1.3  Kamera

3.1.4  Berührungssensoren

3.1.5  Sensorsignale sind interpretationsbedürftig

3.1.6 Datenfusion der Multisensoren

3.2     Aktoren

3.1.6.1     Elektrisch, pneumatisch, hydraulisch

3.1.6.2     Nicht-holonomische und holonomische Bewegung

4      Navigation

4.1     Selbstlokalisierung

4.1.1  Globale Selbstlokalisierung

4.1.2  Lokale Selbstlokalisierung

4.2     Weltmodelle für Navigation

4.2.1  Geometrische Weltmodelle

4.2.2  Topologische Weltmodelle

4.2.3  Probabilistische Weltmodelle

5      Analyse von Steuerungsarchitekturen

5.1      Prozessdatenverarbeitung

5.2      Verhaltensbasierte Steuerungsarchitekturen

6   Zusammenfassung

Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz

AbstractIn dieser Arbeit werden viele Informationen über autonome mobile Roboter ausführlich vorgestellt, besonders die Informationen über die Anforderungen an Roboter für den autonomen mobilen Einsatz. Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man ein umfassendes, völlig neues und deutliches Verständnis für die Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten. Es ist auch das Ziel dieser Arbeit, die Sensoren und Aktoren, Hauptteile und Schlüsseltechnologien für autonome mobile Roboter darzustellen. Zudem werden viele Beispiele für autonome mobile Roboter vorgestellt und auf die Geschichte der autonomen mobilen Roboter wird ebenso eingegangen. Über die Analyse der Haupteile der autonomen mobilen Roboter werden die Anforderungen an autonome mobile Roboter klar dargestellt. Mit vielen Beispielen bietet diese Arbeit viele nützliche Informationen über autonome mobile Roboter.

Schlüsselwörter: autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Anforderungen, Sensoren

1      Einleitung

Diese Arbeit befasst sich mit den Anforderungen an Roboter für den autonomen mobilen Einsatz. Autonome mobile Roboter stellen eine Verbindung der Disziplinen aus Maschinenbau, Elektrotechnik und Informatik dar. Autonome mobile Roboter bewegen sich frei durch ihre Umwelt. Über die folgende Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten wir ein umfassendes, völlig neues und deutliches Verständnis für den mobilen Einsatz von Robotern.

Diese Arbeit wird in 6 Teilen unterteilt. Nach der Einleitung werden die Komponenten der autonome mobile Roboter, Navigation, Analyse von Steuerungsarchitekturen, einzeln vorgestellt. Zum Schluss wird in der Zusammenfassung ein Resumee gezogen.

Im Hauptteil dieser Arbeit werden die Hauptkomponenten und Schlüsseltechnologien, Navigation und Steuerungsarchitekturen ausführlich behandelt. 

Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man zuerst wissen, was ist ein autonomer mobiler Roboter? Dann kann man auch wissen, was ist die Haupteile von einem auton, omen mobilen Roboter? Wie die Anforderungen an Roboter für den autonomen mobilen Einsatz sind? Wie ist die verhaltensbasierte Architektur? Wie ist die Navigation eines autonomen und mobilen Roboters? Für eine Reihe von Fragen über autonome mobile Roboter kann man in dieser Arbeit eine Antwort bekommen.

Diese Arbeit richtet sich an die Anforderungen an autonome mobile Roboter, die nicht nur für allgemeine Arbeit und auch für den Industriegebrauch sehr wichtig und hilfreich sind.

Durch diese Arbeit kann man einen umfassenden und deutlichen Blick auf die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. z,B. Mann kann die Steuerungsarchitekturen, die Sensoren und Aktoren und die Lokale und globale Selbstlokalisierung eines autonomen und mobilen Roboters besserer als früher verstehen usw. Auch man kann die Information über die Weltmodelle für Navigation gut lernen. Dieser Folgende Teil ist Autonome mobile Roboter.

2      Autonome mobile Roboter

2.1 Was ist ein autonomer mobiler Roboter?

Autonome mobile Roboter sind Roboter, die sich in ihrer Umgebung selbständig bewegen und agieren können. Aber es gibt für die Autonomie verschiedene Gliederungen. Das bedeutet auch, dass es verschiedene Unabhängigkeit für autonome mobile Roboter gibt. Für Roboter gibt es zwei Arten: der stationäre Roboter oder der mobile Roboter, der einzeln nach einem bestimmten Programm festgelegte Aufgaben erfüllt.  

Gleichzeitig hat die freie autonome Beweglichkeit eines autonomen mobilen Roboters Vorteile und auch Nachteile. Die Vorteile sind die folgende:  wegen der freien autonomen Beweglichkeit können die Roboter für Aufgaben wie Transport-, Überwachungs-, Inspektions- oder Reinigungsaufgaben eingesetzt werden.

Besonders für den Einsatz in den Umgebungen, die vielleicht für Menschen entweder unzugänglich oder gefährlich sind, sind autonome mobile Roboter eine gute Auswahl. Aber es gibt auch die Nachteile. Die Nachteile sind die folgende: für den Einsatz in semi-strukturierten Umgebungen eignen sich autonome mobile Roboter nicht, weil unvorhergesehene Umstände oder Veränderungen vielleicht in den semi-strukturierten Umgebungen vorkommen. Wenn man autonome mobile Roboter verwendet, muss man dies berücksichtigen. Die Steuerung autonomer mobiler Robote muss mit desen unvorhergesehenen Umständen  oder Veränderungen umgehen.

Die Mobilität bedeutet im Bereich der autonomen mobilen Roboter, dass autonome mobile Roboter nicht fest an einer bestimmten Stelle montiert sind, sondern sich mehr oder weniger frei in einer bestimmten Umgebung bewegen können. Die Art des Terrains bestimmt hierbei die notwendigen Aktoren zur Fortbewegung. Während sich beispielsweise Räder für eher ebenes Gelände eignen, sind für unebenes Gelände meist Ketten oder Beine (s. Laufroboter) von Vorteil. Das Wort von „Autonom“ hat seinen Ursprung in zwei griechischen Wörtern: „autos“ ist griechisch für selbst und „nomos“ für Gesetz. Es bedeutet also „eigengesetzlich machend“. Die Autonomie eines Roboters lässt sich in verschiedenen Graden realisieren. Beispielsweise sind Roboter, die zwar selbständig ihre Umgebung erkunden und die ihnen gestellten Aufgaben abarbeiten, aber immer wieder zu einer Ladestation zurückkehren müssen, nicht völlig autonom. Der notwendige Grad an Autonomie, der für einen bestimmten Roboter notwendig ist, lässt sich aus der Spezifikation der zu erledigenden Aufgaben bestimmen. Deshalb bedeutet das Wort von Autonom, dass der Roboter ohne externe Unterstützung seiner Umgebung funktionieren kann. Autonomist Synonym von Unabhängigkeit, Selbständigkeit, Entscheidungsfreiheit, usw.[1]

Das Verhalten eines autonomen mobilen Roboters kann auch wie die ,,Intelligenz“ nicht unabhängig von seiner Umgebung und der von ihm auszuführenden Aufgabe betrachtet werden. Roboter, Aufgabe und Umgebung sind voneinander abhängig und beeinflussen sich gegenseitig wie die Folgende:

         Roboter

 Aufgabe         Umgebung

2.2 Warum und wofür werden Sie gebraucht?

Autonome mobile Roboter können sich autonom in ihrer Umgebung umherbewegen. Deshalb sind autonome mobile Roboter die ideale Werkzeuge für die Aufgaben in den Bereichen Transport, Exploration, Überwachung, und Inspektion usw. 

Für autonome mobile Roboter gibt es viele Einsatzbereiche. Vor allem sind die zwei Aspekte der Überwachung und der Inspektion sehr wichtige Verwendungszwecke für autonome mobile Roboter. In diesen zwei Verwendungszwecken sind besonders die guten sensorische Fähigkeiten der autonomen mobilen Roboter sehr wichtig und sehr gefragt. Für Rohrsysteme, Kanalsysteme, kontaminierte Gebiete und Anwendungen der Raumfahrt sind autonome mobile Roboter auch sehr hilfreich. Für den flexiblen Transport der Güter spielen autonome mobile Roboter auch eine wichtige Rolle. Es gibt noch viele potentielle Verwendungszwecke für autonome mobile Roboter hier mögliche Beispiele aufführen. , wo auch die drahtlose Verbindung eine wichtige Rolle spielt, diesen Teilbereich nennt man Telerobotik[2].

Die Gebiete der künstlichen Intelligenz, der kognitiven Wissenschaften und der Psychologie spielen für autonome mobile Roboter auch eine wichtige Rolle. Autonome mobile Roboter können dadurch Hypothesen über intelligentes Verhalten, Wahrnehmung und Kognition überprüfen und verbessern.

Deshalb sind autonome mobile Roboter nicht nur für Industrie, Landwirtschaft, Medizinische Technik, Dienstleistung sehr wichtig, sondern auch für Staatssicherheit und Landesverteidigung Autonome mobile Roboter erhalten derzeit eine weltweite Aufmerksamkeit. 

2.3 Geschichte der autonomen mobilen Robotik

Meistens verbinden die Menschen künstliche Intelligenz und autonome mobile Robotik eng miteinander. Schon vor der Dartmouth College Konferenz im Jahre 1956, als der Begriff ,,künstliche Intelligenz gestellt wurde, war man sich dessen bewußt, dass man autonome mobile Roboter interessante Aufgaben ausführen und lernen lassen konnte.

William Grey Walter hat in den frühen 1950er Jahren zwei mobile Roboter entwickelt. Durch Auf- oder Entladungen eines Kondensators, der elektrische Ladungen speichert hatte und dabei Gehirn-Neuronen simulierte, könnte der autonome mobile Roboter sich die Phototaxis realisieren und steuern. Mobiler Roboter von William Gery Walter wie folgende gezeigt.

IMG_256

Abbildung 1: Machina SpeculatrixRoboter von William Gery Walter

1969 entwickelte Nils Nilsson in Stanford den mobilen Roboter SHAKEY. Dieser Roboter verfügte über einen visuellen Entfernungsmesser, eine Kamera und binäre Berührungssensoren und war über Funk mit einem DEC PDP 10 Computer verbunden. SHAKEY konnte Aufgaben ausführen wie Hindernisausweichen und Objektmanipulation, allerdings in einer sehr strukturierten Umgebung. Mobiler Roboter Shakey wie folgende gezeigt.

IMG_256

Abbildung 2: Mobiler Roboter Shakey

ln den 1970er Jahren wurde der JPL ROVER für Planetenexploration am Jet Propulsion Laboratory in Pasadena entwickelt. Der Roboter verwendete eine TV-Kamera, einen Laserentfernungsmesser und Berührungssensoren, um seine Umgebung in die Kategorien ,,navigierbar, nicht navigierbar” und unbekannt einzuteilen und benutzte einen Trägheitskompaß mit Koppelnavigation.

Hans Moravec entwickelte ende der 1970er Jahre in Stanford den mobilen Roboter CART. CART nahm von einem bestimmten Ort aus neun Kamerabilder auf, erstellte daraus ein zweidimensionales Weltmodell, bewegte sich einen Meter weiter, wiederholte den Vorgang, und so weiter. Um die neun Bilder einer Position zu verarbeiten, brauchte er jeweils 15 Minuten: 5 Minuten für die Digitalisierung der 9 Photos; 5 Minuten für die Grobreduktion der Bilder, wobei Hindernisse als Kreise dargestellt wurden; und 5 Minuten zur Überarbeitung des Weltmodells und für die Routenplanung. CART war in der Lage, Hindernissen erfolgreich auszuweichen, wenn auch sehr langsam. Er hatte jedoch Schwierigkeiten, seine eigene Position korrekt zu bestimmen und kontrastarme Hindernisse zu identifizieren[3].  Mobiler Roboter Cart wie folgende gezeigt.

IMG_256

Abbildung 3: Cart

Mobiler Roboter HILARE wurde in den späten 1970er Jahren als eines der ersten europäischen Projekte in der mobilen Robotik bei LAAS in Toulouse entwickelt. Mobiler Roboter HILARE nutzt digitale Bildverarbeitung, Laserentfernungsmesser und Ultraschallsensoren für die Navigation. Die Steuerungsstrategie beruhte auf einer langsamen Szenenanalyse, die alle 10 Sekunden ausgeführt wurde, und einer parallelen, schnelleren dynamischen Bildverarbeitung, die alle 20 Zentimeter entlang der Route durchgeführt wurde. Hindernisse in der unmittelbaren Umgebung wurden mittels Ultraschallsensoren ausfindig gemacht und umfahren. Durch eine zweidimensionale polygone Raumdarstellung und ein globales Koordinatensystem wurden Navigation und Routenplanung erreicht. Mobiler Roboter HILARE wie folgende gezeigt.

IMG_256

Abbildung 4: HILARE

3      Hauptteile und Schlüsseltechnologien

Es gibt einige Hauptteile und Schlüsseltechnologien für autonome mobile Roboter. In diesem Teil werden diese Hauptteile und Schlüsseltechnologien ausführlich gezeigt. z,B. Sensor und Aktor usw.

3.1 Sensoren und Aktoren

Sensoren dienen zur Erfassung von Eigenschaften der Umgebung und des Roboters selbst. Mit den Sensoren können autonome mobile Roboter die physikalischen Eigenschaften der Umgebung wie Temperatur, Helligkeit, Berührungswiderstand, Gewicht, Größe usw. messen. Ein Sensor empfängt ein physikalisches Signal und reagiert darauf mit einem elektrischen Ausgangssignal.

Abbildung 5: Sensor[4]

Die Sensoren eignen sich für die Messung der Eigenschaften der Umgebung und des autonomen mobilen Roboters selbst. Die Sensoren und Aktoren werden als „intern“ oder „extern“ klassifiziert. Interne Sensoren können die Steuerungssoftware mit Daten über den Zustand des Roboters versorgen. z,B. über den Ladezustand der Batterien. Externe Sensoren können Daten über die Umwelt messen. z,B Art und Entfernung von Hindernissen. 

Um die Entfernung zu Objekten vor einer Kollision zu messen, benutzt man Sensoren zur Entfernungsmessung. Diese gibt es gemäß drei wesentlichen Messprinzipien: Laufzeitmessungen, Phasendifferenzmessung und Triangulation. Unter einer Laufzeitmessung versteht man die Zeitmessung zwischen ausgesendetem Signal und empfangenem Echo.

Bei Phasendifferenzmessung würde man Längstwellen verwenden ( Bsp. eine Frequenz von 10,2 kHz im OMEGA-Navigationssystem ). Sendet Sender ein modulierten Sinussignal (Sinusschwingung) aus. Dann werden diese Sinussignale von Objekt zu Sensoren reflektiert zurück, dazwischen besteht die Phasendifferenz, vergleicht man nun das ursprüngliche mit dem reflektierten Signal und kann die Distanz damit errechnet werden . 

Von der Triangulation würden wir wissen, dass ein 
Srahl ( von Laser oder Leuchtdiode erzeugt ) auf das Messobjekt fokussiert und mit einer CCD-Zeile oder einem PSD registriert das Streulicht. Bei Kenntnis der Strahlrichtung und des Abstandes zwischen Sensoren und Lichtquelle kann damit der Abstand vom Objekt zur Sensoren mit Hilfe von Winkelfunktionen bestimmt werden.

Aktoren dienen zur Manipulation des Roboters und der Umgebung. Interne Aktoren können den Zustand des Roboters verändern. Externe Aktoren dienen zur Fortbewegung oder zum Bewegen von Objekten. 

Als interner Aktor wird meistens der Elektromotor in der mobilen Robotik verwendet. Im allgemeinen ist der Elektromotor ein Gleichstrommotor oder ein Schrittmotor. (Ein Schrittmotor ist ein Synchronmotor, bei dem der Rotor durch ein gesteuertes, schrittweise rotierendes, elektromagnetisches Feld der Statorspulen um einen minimalen Winkel (Schritt) gedreht werden kann). Der Gleichstrommotor ist am einfachsten zu steuern, da Gleichstrom nur einfach durch den Transistor als Schalter gesteuert werden könnten. Der Schrittmotor eignet sich für sehr präzise Bewegungen, das heißt, dass die Steuerung präzise per Software möglich ist. Um den Motor in Schritt zu bringen, legt man die Mittelanzapfungen auf Masse, so hat man also beispielweise 4 Anschlüsse. Legt man nun an zwei dieser Anschlüsse die Spannung an, bewegt sich der Motor nur einen winzigen kaum sichtbaren Schritt. 

In diesem Teil werden nun einige wichtige Sensoren und Aktoren gezeigt. Zunächst ist die Vorstellung von den Sensoren. Mobile Roboter interagieren mit ihrer Umgebung, die sie mit Sensoren wahrnehmen. Roboterprogrammierung erfordert folglich das Verarbeiten von Sensordaten. Der Aufbau und die Funktion von Sensoren haben einen entscheidenden Einfluss auf die Konzeption der Programme. Daher skizziert dieser Teil die gebräuchlichsten Sensoren für mobile Roboter. Die folgende Abbildung 6 zeigt einige verschiedene Sensor. In diesem Teil werden auch Kamera, Laserscanner, Ultraschallsensor und Infrotsensor und andere gebräuchlichste Sensoren vorgestellt.

IMG_256

Abbildung 6: die verschiedene Sensoren

3.1.1 Abstandssensoren

Durch Kontaktsensoren erkennt autonomer mobiler Roboter den Abstand Null zu einem soliden Objekt. Mit diesen Abstandssensoren kann autonomer mobiler Roboter die Daten messen, die sich für die Kollisionsvermeidung eignen. Die Daten von Abstandssensoren spielen eine sehr wichtige und hilfreiche Rolle für die Lokalisierung und die Navigation des autonomen mobilen Roboters. Mit diesen Abstandssensoren kann man die Form der Umgebung und den Abstand dazu exakt erfassen. Diese Sensoren messen die Signallaufzeit, das ist die Zeit, die ein Signal braucht, um sich bis zu einem Objekt in der Umgebung und zurück zu bewegen, woraus der Abstand zum Objekt bestimmt wird. Diese Sensoren sind die aktive Sensoren. Aber im Gegensatz zu passiven Sensoren, wie zum Beispiel einer Kamera, können diese Abstandssensoren aktiv Signale aussenden. Sie haben aber grundsätzlich auch den Nachteil, z,B. die Sensorik der anderen Roboter zu stören, wenn viele Roboter verwendet werden. Für die Signale gibt es hier nur Schall und elektromagnetische Wellen verschiedener Frequenzen. z,B. Licht (besonders Infrarotlicht und Laserlicht) und Radiowellen (Radar) sowie Schall mit hohen Frequenzen, also Ultraschall.[5]

3.1.1.1 Stoßfänger

Stoßfänger sind nicht mittelbare Kollisionssensoren. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, werden diese Sensoren dann aktiviert. Die Sicherheit ist sehr wichtig für autonome mobile Roboter. In diesem Aspekt können Stoßfänger eine sehr wichtige Rolle spielen. Mit Stoßfänger können autonome mobile Roboter erkennen, was ist nicht sicher. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, wird ein Signal dann gesendet, um die Bewegung der autonomen mobilen Roboter zu verhindern.

3.1.1.2 Ultraschall

Wegen der niedrigen Kosten, der einfachen Durchführung und der entwickelten Technologie ist Ultraschallsensor jetzt ein häufig verwendeter Entfernungsmesser in den autonomen mobilen Roboter.

Wenn sich die Geschwindigkeit des Ultraschalls in der Luft auf der Temperatur und der Feuchtigkeit bezieht, sind deshalb die Temperatur und der Feuchtigkeit für exakte Messung sehr wichtig. In den meisten Fällen sind die Ausbreitungsgeschwindigkeit der Ultraschallausbreitung in der Luft etwas niedriger, aber die Ausbreitungsgeschwindigkeit der Ultraschallausbreitung in der Flüssigkeit oder in dem Festkörper sind etwas höher. Die Folgende ist eine Beispiel-Tabelle vom Zusammenhang von der Temperatur und der Ausbreitungsgeschwindigkeit vom Ultraschall.[6]

 

Temperatur

()

-30

-20

-10

0

10

20

30

100

Ausbreitungsgeschwindigkeit

(m/s)

313

319

325

333

338

344

349

386

Die Mindestreichweiten vom Ultraschall sind von 30 bis 40 cm. Wenn die Hindernisse näher liegen, kann Ultraschallsensor diese Hindernisse nicht sicher erkennen. Typische maximale Reichweiten liegen zwischen 4 und 10 Metern.

Ultraschall-Entfernungsmesser, kurz Ultraschallsensoren genannt, senden zyklisch einen kurzen, hochfrequenten Schallimpuls aus. Dieser verbreitet sich mit Schallgeschwindigkeit in der Luft. Trifft er auf ein Objekt, wird er dort reflektiert und gelangt als Echo zurück zum Ultraschallsensor.

Die Zeitspanne zwischen dem Aussenden des Schallimpulses und dem Empfang des Echosignals entspricht der Entfernung zum Objekt, und der Sensor gibt diesen Wert geeignet codiert aus (z.B. als Spannungssignal analog oder digital). Da die Entfernung zum Objekt über eine Schall laufzeitmessung und nicht über eine Intensitätsmessung bestimmt wird, haben Ultraschallsensoren eine ausgezeichnete Hintergrundausblendung. Nahezu alle Materialien, die den Schall reflektieren, werden detektiert – unabhängig z.B. von ihrer Farbe.

Selbst glasklare Materialien oder dünne Folien stellen kein Problem dar,auch nicht Staub und Nebel. Handelsübliche Ultraschallsensoren erlauben Entfernungsmessungen bis 10m und können den Messwert mit millimetergenauer Auflösung erfassen.

Es gibt einen Blindbereich für Ultraschallsensoren, der nahe am Sensor steht, in dem nicht gemessen werden kann. Messungen finden nur innerhalb eines Öffnungswinkels statt. Abbildung 7 zeigt den Messbereich eines Ultraschallsensors. Die dunkel grauen Bereiche werden mit einem dünnen Rundstab mit definiertem Durchmesser ausgemessen und zeigen den typischen Bereich des Sensors, in dem Abstände zuverlässig bestimmt werden. Um die hellgrauen Bereiche zu erhalten, wird eine Platte definierter Größe von außen in die Schallfelder geführt. Hierbei wird immer der optimale Winkel der Platte zum Sensor eingestellt. Dies ist somit der maximale Erfassungsbereich des Sensors. Außerhalb der hellgrauen Schallkeulen ist eine Auswertung von UltraschallReflexionen nicht mehr möglich. Abbildung 7 veranschaulicht die Vorgehensweise. Dies zeigt, dass bei Ultraschallsensoren nicht nur die Entfernung zu Objekten, sondern auch der Auftreffwinkel des Schalls und somit die Form der Objekte relevant ist. Dies erschwert die Auswertung der Messwerte. Die Folgende ist die Darstellung vom messbereich eines Ultraschallsensors

IMG_256

Abbildung 7:  messbereich eines Ultraschallsensors

Aber wegen des größeren Abstrahlwinkels und der schlechten Richtcharakteristik gibt es auch einige Beschränktheiten für Ultraschallsensor.  In diesem Fall werden mehrere Ultraschallsensoren oder andere Sensoren für Ausgleich verwendet. Die Größe der Öffnungswinkel der Ausbreitungskegel üblicher Ultraschallwandler (α = 35◦, Polaroid Sensor) sind einerseits geeignet für Kollisionsvermeidung, andererseits wird aber die genaue Erfassung der Form der Umgebung erschwert, weil die Winkelaufsung dementsprechend grob ist. Bessere Winkelauflösungen wären zwar mit entsprechend höheren Frequenzen im MHz Bereich zu erreichen, mit denen sich ein besser fokussiertes Signal realisieren ließe, Signale dieser hohen Frequenzen werden jedoch stark von der Luft absorbiert und führen deshalb zu deutlich kleineren Reichweiten.

Bei der Bewegung können autonome mobile Roboter zu jeder Zeit vielleicht auf ein Hindernis stoßen. In diesem Fall kann Ultraschallsensor eine wichtige Rolle spielen. Mit dem Ultraschallsensor können autonome mobile Roboter einige nützliche Informationen über Hindernis erkennen. Deshalb ist Ultraschallsensor ein sehr wichtiger Sensor für autonome mobile Roboter.

3.1.1.3 Infrarot

Roboter verwenden oft auch Infrarotsensoren, die ebenfalls ringförmig am angebracht sind. Die Sensoren emittieren einen modulierten infraroten Lichtimpuls. Sensoren empfangen nur ein Signal, sie senden keines aus. Wegen der entwickelten Technologie sind Infrarotsensoren (IR) wohl die einfachsten der kontaktlosen Sensoren und werden in der autonomen mobilen Robotik vielfach in der Hinderniserkennung verwendet.

Infrarotsensoren können ein infrarotes Lichtsignal empfangen!. Nach der Strahlung der Objekte dieses Lichtsignals kommt eine Reflexion.Wenn die Infrarotsensoren das Lichtsignal empfängt, werden die Daten der Zeitdifferenz von der Aussendung und dem Empfang  mit den Bilder erledigt.

Infrarotsensoren haben gute Entstörung. Wegen des kleineren Abstrahlwinkels sind Infrarotsensoren wichtige Sensoren für die Hindernisvermeidung. Infrarotsensoren haben gute Empfindlichkeit, die für das Erkennen des Hindernises sehr hilfreich ist.

Die Entfernungsgenauigkeit dieser Infrarot-Sensoren liegt bei ca. 30 cm bei Reichweiten um 5 Meter. Im Vergleich zu den Ultraschallsensoren haben Infrarot-Sensoren eine bessere Winkelaudlösung. Es gibt auch einige Hauptgründe für Fehlmessungen, z,B. Absorption, Totalreflektion und Fremdsignale (wie z.B. direktes Sonnenlicht).[7]

IMG_256

Abnildung 8: die verschiedenen Infrarotsensoren

3.1.1.4 Laser

Mit Laser-Sensoren können autonome mobile Roboter die Informationen mit der Lasertechnik messen. Weil Laserscanner gerade im letzten Jahrzehnt in der mobilen Robotik durchgesetzt wird, sind deshalb Laser-Sensoren neue Werkzeuge für die Messung.

Die Eigenschaften der Laser-Sensoren sind die schnelle Geschwindigkeit, die hohe Präzision usw. Mit diesen Laser-Sensoren können autonome mobile Roboter den Platz messen. Laserentfernungsmesser (auch Laserradar oder Lidar) werden heute häufig in der mobilen Robotik eingesetzt, um die Entfernung, Geschwindigkeit und Beschleunigungsrate von wahrgenommenen Objekten zu messen. Auf dem Roboter ARS sowie auf vielen anderen mobilen Robotern kommt als Laser-Entfernungssensor der PLS (Proximity Laser Scanner) der Firma SICK Optic Electronic Company zum Einsatz. Der Sensor wurde ursprünglich zur Überwachung von gefährlichen Regionen, etwa dem Arbeitsbereich eines Industrieroboters, entwickelt.

Der Scanner hat eine Reichweite von 20 m, eine Winkelauflösung von 0.5 Grad bei einem Scanbereich von 180 Grad in einer Ebene und eine Entfernungsgenauigkeit von 5 cm. Der Sensor kann nach Wahl 360, 180, 90, 45, 30, 15, 10 oder 9 Entfernungswerte pro Scan über die serielle RS 232 Schnittstelle senden.

Der Sensor arbeitet mit Laufzeitmessung des reflektierten Lichts. Eine hochauflösende Uhr misst die Zeit zwischen der Aussendung eines extrem kurzen Lichtimpulses und der Detektion eines Signals durch den Empfänger. Ein Spiegel leitet den Laserstrahl um und rotiert dabei mit einer Frequenz von 12 Hz. Das reflektierte Signal gelangt durch den halbdurchlässigen Spiegel zum Empfänger.

IMG_256

Abbildung 8: 1D-Laser Abstands Messsystem Leica Disto (Modell: D810 Touch)

Sie basieren jeweils auf einem Laserabstandsmesssystem,das einen Laserstrahl in einer Richtung aussendet und über Lichtlaufzeitmessung oder Phasendifferenzmessung die Entfernungbis zumnächsten Objekt in Laufrichtungmisst. Solch ein Basis-Messgerät ist gewissermaßen ein 1D-Laserabstandsmesssystem, weil es die Entfernung zu einem Raumpunkt misst. Sie sind aus dem Heimoder Handwerkerbereichbekannt, s. Abbildung 8.

Dort verwendet man Laserlicht im sichtbaren Spektralbereich, um den Raumpunkt sehen zu können, zu dem gerade die Entfernung gemessen wird. Solche 1D-Sensoren werden auf mobilen Robotern üblicherweise nicht eingesetzt, verdeutlichen aber das Messprinzip.

3.1.1.4.1 2D-Laserscanner

Mobile autonome Roboter müssen durch unbekannte Umgebungen navigieren können, um ihre Aufgaben wie Post austragen oder Staub saugen zu erledigen.

Für diese grundlegenden Navigationsaufgaben standen bisher nur 2D−Laserscanner zur Verfügung, mit denen lediglich eine horizontale Abtastung der Umgebung möglich war. Derartige Systeme sind insbesondere nicht in der Lage, Hindernisse wie Tische oder Objekte mit überstehenden Kanten außerhalb der Scan−Ebene zu erfassen.

2D-Laserscanner erweitern 1D-Laserentfernungssensoren. Zum Erzeugeneiner einzelnen Zeile wird ein Spiegel rotiert,andem der Laserstrahl reflektiert wird. Dadurch entstehen verschiedene Scanbereiche, üblicherweise 90, 180oder 270. Diese Bereiche werden mit Winkelauflösungen von 1, 0.5 oder 0.25 abgetastet. Diese Scanner wurden als Sicherheitssensoren entwickelt.

IMG_256

Abbildung 9: 2D-Laserscanner der Firma Sick (Modell: LMS5xx2D)

3.1.1.4.2 3D-Laserscanner

3D ist ein aktueller Trend in der Robotik. Die Entwicklung von 3D-Sensorik schreitet schnell voran. Der 3D−Laserscanner ist als Sensor für autonome mobile Roboter geeignet und basiert auf einem 2D−Scanner, wie sie heute schon üblicherweise auf autonomen Robotern eingesetzt werden.

3D-Laserscanner messen Entfernungen zu Objekten im dreidimensionalen Raum. Dabei wird einem 2D-Laserscanner entweder ein zweiter Drehspiegel hinzugefügt, oder ein kompletter 2D-Scanner wird gedreht.

IMG_256

Abbildung 10: 3D−Laserscanner für Roboter Dimension Inspektion (Modell: MetraSCAN 3D™ R-Series)

Weitere Anwendungsgebiete für den 3D−Laserscanner sind beispielsweise: Für Facility Managenent Systeme. Diese benötigen aktuelle Informationen über Gebäude. Es wird versucht, ein digitales Gebäudemodell aktuell zu halten.

Für Objektklassifikationssysteme. Es wird versucht, aus den 3D Informationen (Tiefenbildern) Objekte zu klassifizieren.

Für 3D−Überwachungssysteme. Hierbei werden Einrichtungen und Anlagen überwacht, um zum Beispiel den Sicherheitsbereich von Maschinen zu kontrollieren[8]. 

 

3.1.2     Sensoren für Koppelnavigation

Koppelnavigation ist eine Methode zur relativen Positionsbestimmung. Mit allen Sensoren vom autonomen mobilen Roboter können diese Sensoren für Koppelnavigation die Bewegungsinformationen vom autonomen mobilen Roboter erfassen. Durch Rekursionsformel können diese Sensoren für Dead-Reckoning die abgeschätzte Position vom autonomen mobilen Roboter bekommen.

Koppelnavigation ist die laufende näherungsweise Ortsbestimmung eines bewegten Objekts aufgrund von Bewegungsrichtung (Kurs) und Geschwindigkeit (Fahrt). Mit diesen Sensoren für Koppelnavigation werden kleine Positionsveränderungen des Roboters bestimmt. Dazu werden alle Positionsveränderungen über die Zeit aufsummiert. Diese Koppelnavigation-Sensoren sind meistens direkt im Antrieb des Roboters integriert. Geeignete Sensoren (wie Drehgeber) sind an den Antriebsachsen des Roboters platziert. Da auch die Kraftübertragung über die Antriebsachsen erfolgt, besteht hier die Gefahr, dass ein evtl. auftretender Schlupf die Messungen verfälscht. Breite Räder oder Kettenantriebe führen zu Schlupf und somit zu Ungenauigkeiten. Weiche Räder können je nach Belastung den Umfang verändern und deshalb ebenfalls die Odometrie verfälschen. Deshalb werden in manchen Fällen passiv mitlaufende Räder benutzt, um die Positionsveränderung zu messen.

Zudem eignen sich für Koppelnavigation alle Sensoren, die die Geschwindigkeit des Roboters relativ zur Umwelt messen. Aber diese Koppelnavigation-Sensoren sind nicht geeignet für die präzise Messung, die lange Zeit braucht und eine Langstrecke hat.

Koppelnavigation eignet sich für die inertiale Positionsbestimmung. Der Begriff die inertiale Positionsbestimmung leitet sich vom Prinzip der Massenträgheit ab. Die inertiale Messeinheit mit ihren Beschleunigungs- und Drehratensensoren berechnet jede Lageänderung des Fahr- oder Flugzeugs aus den Beschleunigungen der internen quantitativ bekannten Massen, auch seismische Massen genannt[9].Diese Koppelnavigation-Sensor macht die Positionsbestimmung einfach.

3.1.3     Kamera

Die Eigenschaften des Sensors Kamera  sind breiter Detektionsbereich, reiche Informationen. Durch Kamera können die dreidimensionale Objekte  zur  zweidimensionalen Form wechseln. Durch die Bildverarbeitung werden die Bilder der Objekte exportiert.

Der Sensor Kamera nimmt einzelne Bilder mit Pixelsensoren auf und stellt sie dem Roboter in digitaler Form zur Verfügung. Die Pixelsensoren sind die Sensoren, die mit verschiedenen Pixeln entwickelt werden. Ein Pixel oder Bildpunkt bezeichnet das kleinste Element einer Rastergrafik. Eine Rastergrafik setzt ein Bild aus vielen Bildpunkten. Der Anschluss von Kameras an den Steuerrechner erfolgt üblicherweise mit Hilfe von Usb oder Firewire. Über Algorithmen werden die Form, die Distanz und die Geschwindigkeit und andere nützliche Informationen bestimmt. Mit der Bildfrequenz eines Kameras werden die Distanz und die Geschwindigkeit der Objekte gemessen. Die Relativverschiebung nach der Bewegungsbilder der Aufnahme wird durch den SSD (sum of squared differences) Algorithmus gerechnet. Aber bei der Bildverarbeitung brauchen die Methoden wie Schärfen und Merkmalextraktion viel Zeit. Deshalb gibt es vielleich auch einige Einschränkung.  Optische Entfernungsmessung kann die transparente Hindernisse wie Glas usw. nicht erkennen.

Zudem haben die Lichtstärke und der Rauch einen offensichtlichen Einfluß auf optische Sensoren. Deshalb sind die  Lichtbedingungen sehr wichtig und hilfreich für Visionsensor. Wenn es eine gute Lichtbedingung gibt, können viele schlechte Resultat vermieden werden.

3D-Kameras

Seit einigen Jahren werden 3D-Kamera entwickelt. Diese Kameras verwenden zusätzliche Laserdioden, die die Szene mit moduliertem Licht beleuchten.

IMG_256

Abbildung 11: ein Roboter mit 3D-Kameras

3.1.4  Berührungssensoren

Die Berührungssensoren sind die wichtige Technik für Autonome mobile Roboter. Die Berührungssensoren können physikalischen Kontakt mit einem Objekt feststellen. Genauer gesagt messen sie eine physikalische Veränderung, die normalerweise durch physikalischen Kontakt mit einem Objekt hervorgerufen wird. Die einfachsten Berührungssensoren sind Mikroschalter oder Fühlersensoren.

Wenn eine Stoßleiste mit einem Objekt in Berührung kommt, wird dadurch ein Mikroschalter geschlossen und schließt einen Stromkreis, was vom Rechner des Roboters erkannt wird.

Andere einfache Berührungssensoren beruhen zum Beispiel auf Dehnungsmeßstreifen oder piezoelektrischen Sensoren. Piezoelektrische Sensoren arbeiten mit dem piezoelektrischen Effekt und haben sich als universelles Instrument zum Messen verschiedener Prozesse erwiesen. Sie werden für die Bestimmung von Druck, Beschleunigung, Spannung, Kraft oder als Gassensor in der Qualitäts- sowie in der Prozesskontrolle eingesetzt.[10]

3.1.5 Sensorsignale sind interpretationsbedürftig

Es wird klar aus der Beschreibung der verschiedenen Sensoren und Aktoren, die in der autonomen mobilen Robotik zur Verfügung stehen, daß die Sensoren ausschließlich bestimmte physikalische Eigenschaften wahrnehmen können, die in irgend einem, zunächst vagen, Zusammenhang mit der Information stehen, die der Roboter tatsächlich benötigt.

Die folgende sind die Weise der Interpretation der Sensorsignale. Es gibt nur Mikroschalter, Sonarsensoren, Infrarotsensoren usw., deren Signal die An- oder Abwesenheit eines Objekts angibt. Es ist aber durchaus möglich, daß der Mikroschalter ein Signal auslöst, nur weil der Roboter über eine Bodenwelle fährt; oder ein Sonarsensor meldet ein Hindernis aufgrund von Übersprechen (crosstalk); oder ein Infrarotsensor entdeckt möglicherweise ein Objekt nicht, weil es schwarz ist und deshalb kein Infrarotsignal reflektiert[11].

3.1.6 Datenfusion der Multisensoren 

Wenn verschiedenene und sehr viele Sensoren verwendet werden, gibt es für jeden Sensor einige Verwendungsbedingungen und Wahrnehmungsbereiche. Jeder Sensor kann auch einige Informationen über die Umgebung oder die Objekte wahrnehmen. Wenn man die Informationen, die von jedem Sensor wahrgenommen werden, effktiv verwenden möchte, sollen diese Informationen mit einer Form zusammen erledigt werden. Das Prozess bezeichnet man als Datenfusion der Multisensoren. Weil Sensoren verschiedene Charakteristiken aufweisen und unterschiedliche Vor-und Nachteile haben, ist Datenfusion eine außer ordentlich schwierige Aufgabe.

Die Technik der Datenfusion der Multisensoren ist eine der Schlüsseltechnologien für autonome mobile Roboter. Die Menschen begannen schon in den 80er Jahren des 20. Jh diese Technik der Datenfusion der Multisensoren zu erforschen. Datenfusion bedeutet, dass alle Informationen integriert verarbeitet werden, die von vielen verschiedenene Sensoren wahrgenommen werden. Diese Technik der Datenfusion der Multisensoren umfasst die Komplementarität, die Redundanz, die Rechtzeitigkeit und die niedrige Kosten der Informationen. Deshalb können autonome mobile Roboter mit der Technik der Informationsfusion der Multisensoren die Eigenschaften der Umgebung genauer und umfassender zeigen. Es ist hilfreich dafür, dass autonome mobile Roboter die richtige Beurteilung machen. Diese Technik der Datenfusion der Multisensoren kann die Schnelligkeit, die Genauigkeit und die Stabilität anbieten.   

Nach der Datenfusion der Multisensoren werden die Informationen zum  Kontrollzentrum übertragen. Dann macht das Kontrollzentrum die Beurteilung. Dann wird die Beurteilung zum Aktor übertragen. Zum Schluss werden autonome mobile Roboter entsprechende Aktion machen.

 

3.2   Aktoren

3.2.1 Elektrisch, pneumatisch, hydraulisch

Autonome mobile Roboter können die Arbeit automatisch machen und können nicht nur die Anweisung der Menschen akzeptieren, auch können nach vorprogrammierten Programme selbst arbeiten.

Autonome mobile Roboter können die menschliche Arbeiten ersetzen. z,B. Bereiche vom der Herstellung oder einigen gefährlichen Arbeitsbereichen. Der Aktorentyp, der in der autonomen mobilen Robotik am häufigsten verwendet wird, ist der Elektromotor, normalerweise ein Gleichstrommotor oder ein Schrittmotor.

Im Allgemein versteht man Aktoren als die Teile eines Roboters, die physikalische Aktionen durchführen können. Das Antriebsgerät ist eine Vorrichtung, die die Aktoren für Bewegung antreibt.

Die Aktoren kann die Bewegung oder die Arbeitssituation des autonomen mobilen Robotik zu jeder Zeit erkennen. Diese Detektionsgerät sind sehr hilfreich dafür, dass die Bewegung vom autonomen mobilen Roboter den vorherbestimmten Anforderungen entsprechen. Es gibt eine spezielle Form von Aktoren Manipulatoren, die Veränderungen der Umwelt zulassen (Handhabungsaufgaben wie z.B. Objekte greifen und absetzen, bohren, schweißen). Einige Aktoren besitzen eine interne Regelung, die die gegebenen Soll-Werte bestmöglich umzusetzen versucht. Dennoch kann man davon ausgehen, dass jeder Aktor fehlerbehaftet ist und dass einige Aktionen unter bestimmten Bedingungen nicht korrekt ausgeführt werden können.

Die Aktoren von einem autonomen mobilen Roboter dienen zur Veränderung seiner Position in der Umgebung. Dies können ein Fahrwerk mit Rädern, Ketten, Beine zum Laufen oder Springen oder andere Fortbewegungsmechanismen zum Schwimmen, Fliegen, Rollen sein. Es gibt sehr viele Fortbewegungsarten, welche alle ihre Vor- und Nachteile haben. Beine ermöglichen z.B. eine sehr flexible Fortbewegung und sind insbesondere in unwegsamem Gelände nützlich.

Aber die Ansteuerung ist sehr komplex. Außerdem lassen sich mit Rädern auf glattem Untergrund im Allgemeinen höhere Geschwindigkeiten erreichen. Viele Arbeiten eignen sich für spezielle Fortbewegungssystemen und deren Kontrolle. In dieser Arbeit soll jedoch darauf nicht weiter eingegangen werden, sondern es werden beispielhaft nur rollende Roboter, die vorwärts und rückwärts fahren und sich dabei drehen können, betrachtet. Dies schließt jedoch nicht aus, dass sich die hier vorgestellten Konzepte auf Roboter mit anderen Fortbewegungssystemen und sogar mit völlig anderen Aktoren übertragen lassen.

3.2.2 Nicht-holonomische und holonomische Bewegung[12]

Die Bewegungsmöglichkeiten eines Roboters können durch die Grenzen, die dieser Bewegung gesetzt sind, charakterisiert werden. Nicht-holonomische Systeme unterliegen Beschränkungen, die mit Geschwindigkeiten zu tun haben, während holonomische Einschränkungen von Geschwindigkeiten unabhängig sind. Ein Beispiel für die nicht-holonomische Beschränkung ist die Bewegung eines Rades um seine Achse. Die Geschwindigkeit des Kontaktpunktes zwischen Rad und Boden der sog. Momentanpol, ist in Achsenrichtung auf Null beschränkt, die Radbewegung unterliegt daher einer nicht-holonomischen Bewegungseinschränkung.

4      Navigation

Die Navigationstechnik ist die Kerntechnologien für autonome mobile Roboter. Für einen autonomen mobilen Roboter ist    Navigation eine der wichtigsten Fähigkeiten.

An erster Stelle steht natürlich die Notwendigkeit, überhaupt betriebsfähig zu bleiben, also gefährliche Situationen wie Zusammenstöße zu vermeiden und akzeptable Betriebsbedingungen aufrecht zu erhalten (Temperatur, Strahlung, Witterungsschutz usw.). Wenn der autonome mobile Roboter jedoch Aufgaben ausführen soll, die sich auf bestimmte Orte in der Roboterumgebung beziehen, dann muss er navigieren können. Die Navigation der autonomen mobilen Roboter ist eine Domäne, die seit vielen Jahren von vielen Forschungsgruppen untersucht wird. Es gibt bereits mehrere Robotersysteme, die hervorragend in ihrer Umgebung navigieren können.

Man kann Navigation als eine Kombination der folgenden drei Kompetenzen definieren: Selbstlokalisierung, Routenplanung, Kartenerstellung und Karteninterpretation. Der Begriff Karte steht in diesem Zusammenhang für jede direkte Zuordnung oder Abbildung von Einheiten in der wirklichen Welt auf Einheiten innerhalb einer internen Repräsentation. Diese Repräsentation gleicht nicht unbedingt einer gewöhnlichen Landkarte oder einem Stadtplan. Bei Robotern zum Beispiel besteht eine ,,Karte häufig aus den Erregungsmustern künstlicher neuronaler Netze. Lokalisierung steht für die Kompetenz des autonomen mobilen Roboter, seine eigene Position innerhalb eines Bezugssystems feststellen zu können.

Routenplanung ist im Prinzip eine Erweiterung der Lokalisierung, da der autonomen mobilen Roboter seine gegenwärtige Position und die angestrebte Ziel position innerhalb ein und desselben Bezugsystems bestimmen muss. Die Kompetenz des Kartenerstellens bezieht sich nicht nur auf Karten, wie wir sie normalerweise benutzen, d.h. metrische Karten der Umgebung, sondern auf jegliche Art der Beschreibung von Positionen innerhalb des Bezugsystems. Dazu gehört auch,Informationen über erkundetes Terrain festzuhalten. Schließlich benötigt man für den Umgang mit Karten auch die Fähigkeit, sie zu interpretieren.[13]

Durch die Navigation eines autonomen mobilen Roboters kann man drei Fragen „Wo bin ich?“, „Wohin gehe ich?“ und „Wie gelange ich dorthin?“ erfassen. Es gibt viele Navigationsweise für Autonome mobile Roboter. z,B Visionbasierte Positionierung, Lichtreflexion Positionierung, das Global Positioning System (GPS), Ultraschallpositionierung, SLAM (simultaneous localization and mapping) Technologien usw.

Jede Navigation hat eigene Eigenschaften und eignet sich für unterschiedliche Anwendungsbereiche. Die Navigation ist eine der wichtigsten Aufgaben eines autonomen mobilen Roboters.

4.1 Selbstlokalisierung

Dieser Teil stellt Methoden zur Selbstlokalisierung eines autonomen mobilen Roboters vor. Die Aufgabe hierbei ist, die Position des Roboters aufgrund einer apriori Umgebungskarte und Sensordaten des Roboters zu bestimmen.

Zur Bestimmung der Position in einem globalen Bezugssystem gibt es integriete Sensoren. Generell unterscheidet man zwischen zwei verschiedenen Selbstlokalisierungsproblemen: globale Selbstlokalisierung und lokale Selbstlokalisierung.

4.1.1 Globale Selbstlokalisierung

Bei der globalen Selbstlokalisierung wird der autonome mobile Roboter an einen beliebigen Ort gestellt und dem System wird die Gelegenheit gegeben, die Umwelt mit den Sensoren des Roboters zu beobachten.

Das System muss dann durch Beurteilung der Sensorinformationen entscheiden, an welchen möglichen Positionen der autonome mobile Roboter sich befinden kann. Der Prozeß, um diese Entscheidung zu treffen, ist im allgemeinen aufwendig und benötigt je nach Größe des Suchraums entsprechend viel Rechenzeit.

GPS

Gps (englisch. global positioning system, deutsch. das globale Positionsbestimmungssystem) ist ein weit verbreitetes Sensorsystem für autonome mobile Roboter. Der Begriff Gps wird aber im Allgemeinen für das Navstar-Gps (engl. Navigational Satellite Timing and Ranging – Global Positioning System) des US Verteidigungsministeriums verwendet, das seit 1995 zur weltweiten Positionsbestimmung und Zeitmessung verwendet werden kann. Abbildung 12 zeigt einen Navstar-Satelliten und einen Gps-Empfänger.

Satellitensignale von mindestens vier Satelliten werden mit kleinen und mobilen Empfangsgeräten detektiert. Um die Laufzeiten der Signale gering zu halten, befinden sich die Satelliten im erdnahen Orbit, decken aber nur einen kleinen Teil der Erdoberfläche ab. Mindestens 24, besser 32 Satelliten werden benötigt, um eine vollständige Abdeckung zu erreichen.

Bei der Standortbestimmung misst man die Laufzeit zu mindestens vier Satelliten. Jede dieser Entfernungen definiert eine Kugeloberfläche um den zugehörigen Satelliten, auf der sich der Empfänger befindet.

Zwei Kugeln schneiden sich in einem Kreis, drei Kugeln ergeben maximal zwei Punkte als Schnittmenge, wenn man vom geometrischen Fall mit gleichem Radius und Mittelpunkt absieht, was in der Praxis nie erreicht werden kann. Verwendet man Hintergrundwissen und verwirft den weniger wahrscheinlichen Schnittpunkt, lässt sich die Position bestimmen.

IMG_256

Abbildung 12: Navstar - GPS Satellite Network

4.1.2 Lokale Selbstlokalisierung

Bei der lokalen Selbstlokalisierung dagegen ist die ungefähre Position des Roboters bereits bekannt und es soll „nur“ eine Positionskorrektur berechnet werden. Dies ist der Fall, wenn der Roboter an einer ungefähr bekannten Position aufgestellt wird und dann fortlaufend seine Position durch Abgleich der Sensordaten mit Umgebungskarte bestimmt.

Zunächst wird eine bekannte Selbstlokalisierungsmethode, die Koppelnavigation, vorgestellt, welche Sensordaten der Odometrie auswertet. Dieses Verfahren wird in den meisten Robotersystemen eingesetzt.

Bei der Koppelnavigation wird die Positionsänderung eines Fahrzeugs durch Messen des zurückgelegten Weges eines oder mehrere Räder bestimmt. Zu diesem Zweck sind an den Rädern Sensoren angebracht, welche die Drehbewegung des jeweiligen Rades messen. Zusätzlich kann ein Kreiselkompaß verwendet werden, um die Orientierung des Roboters zuverlässiger zu bestimmen.

Lokalisierungsmethoden lassen sich allgemein in die drei Kategorien verhaltensbasierte Ansätze, Landmarkenlokalisierung und dichte Sensordaten vergleichende Verfahren einteilen. Verhaltensbasierte Ansäze beruhen auf der Interaktion von Roboteraktionen mit der Umwelt, um zu navigieren.

Zum Beispiel folgte Connell's Roboter Herbert einer Faustregel, um durch eine Büroumgebung zu fahren und seinen Weg zurückzunden, indem die Prozedur der Hinfahrt rückwärts angewandt wurde [Connell, 1990]. Weiter verfeinerte Systeme lernen interne Strukturen, die „abgespielt“ werden können, um Aktionen zu wiederholen oder rückgängig zu machen [Arkin, 1990].Während verhaltensbasierte Systeme für bestimmte Aufgaben sehr nützlich sind, ist ihre Fähigkeit einen Roboter geometrisch zu lokalisieren begrenzt, da die Navigationsfähigkeit implizit in der Sensor- und Aktionshistorie liegt. Landmarkenlokalisierung beruht auf der Erkennung von Landmarken, um den Roboter geometrisch zu lokalisieren.

Die Landmarken können können a priori gegeben sein (z.B. die Satelliten im GPS-Navigationssystem oder in der Umgebung angebrachte Marken, die mit speziellen Mustern oder auffälligen Farben versehen sind), oder vom Robotersystem in einer Explorationsphase gelernt werden (z.B. Sonar-Landmarken [Leonard et al., 1990].) Während Landmarkenlokalisierung beeindruckende Ergebnisse in geometrischer Lokalisierung erreichen kann, muß entweder die Einsatzumgebung vorher eingerichtet werden oder natürliche Landmarken effizient und robust erkannt werden können.

Im Gegensatz hierzu, versuchen dichte Sensordaten vergleichende Verfahren die gesamte verfügbare Sensorinformation zu verwenden, um die Roboterposition zu bestimmen. Dies wird dadurch bewerkstelligt, dass dichte Sensorscans mit einer Oberflächenkarte der Umgebung verglichen werden ohne dabei Landmarken aus den Sensordaten zu extrahieren. Daher können dichte Sensordaten vergleichende Verfahren sich beliebige in den Sensordaten vorhandene Merkmale zum Vorteil machen, ohne dabei explizit diese Merkmale zu denieren.

4.2 Weltmodelle für Navigation

Weltmodelle für Navigation der autonomen mobilen Roboter sind zumeist zwei-dimensionale, geometrische oder topologische Karten. Die dritte Dimension in die Karten mit aufzunehmen, macht das Modell für die Navigation meistens unnötig komplex. Topologische Karte ist eine mittel- bis großmaßstäbige Karte, die zur genauen Abbildung der Geländeformen (Topografie) und anderer sichtbarer Details der Erdoberfläche dient. Das Gelände wird in der Regel durch Höhenlinien dargestellt, ergänzt um markante Höhenpunkte (Gipfel, Sättel usw.) und den Verlauf der Gewässer[14]. Ein topologischer Karte wird verwendet, um Informationen, die nicht unbedingt auf präzisen Geographie konzentriert zu vermitteln. Die Karte wird vereinfacht, um einen allgemeinen Überblick über eine Fläche bereitzustellen, so dass die Informationen auf der Karte ist klarer und leichter zu lesen. Typische Beispiele eines topologischen Karte gehören ein U-Bahn-Karte, eine Karte mit Wegbeschreibungen zu einem Geschäfts enthalten, oder eine Karte verwendet werden, um Statistiken, wie zum Beispiel Internet-Nutzung in Europa oder die Kindersterblichkeit um Land zu vertreten. In all diesen Beispielen erfolgt präzise Geographie zweiten Platz auf den Informationen, die der Karte zu kommunizieren versucht[15]. 

Außer dieser Repräsentation der Umwelt gehören aber weitere Komponenten zu einem Weltmodell. So muss ein Verfahren existieren, mit dem der aktuelle Zustand des Weltmodells mittels der Sensordaten aktualisiert werden kann, und es müssen entsprechende Algorithmen zur Planung der globalen Navigation anwendbar sein.

4.2.1 Geometrische Weltmodelle

Unter geometrischen Weltmodellen werden hier positionsbezogene Modelle verstanden. Die Eigenschaften der Umwelt werden jeweils ‚an‘ einer bestimmten Position bzw. mit einer Positionsangabe gespeichert, so dass sie sich in einer zwei-dimensionalen geometrischen Karte mit euklidischen Koordinaten platzieren lassen. Bei gerasterten Karten wird die Umwelt in eine Menge von Bereichen eingeteilt - im einfachsten Fall in gleich große Quadranten (Raster) - und die Eigenschaften der Umwelt für jeden der Bereiche gespeichert. Ein typisches Beispiel hierfür sind Belegungsrasterkarte. Vektorielle Karten dagegen speichern eine Menge von Objekten jeweils mit Positionsangabe, wobei die Positionsangabe hier nicht an ein Raster gebunden sein muss und die Objekte selbst neben anderen Eigenschaften typischerweise auch eine geometrische Beschreibung beinhalten.

4.2.1.1 Vektorielle Karten mit geometrischen Primitiven

Als geometrische Grundformen zur Beschreibung der Umwelt werden hier Liniensegmente, Kreise, Polygone oder andere geometrische Primitive benutzt.

Der Rand eines Polygons ist eine Liste von Liniensegmenten. Oft werden insbesondere konvexe Polygone zur Modellierung von Hindernissen verwendet. Polygone eignen sich besonders in manuell erstellten Weltmodellen kombiniert mit Off-Line-Planung. Der Nachteil dieser Methode besteht unter Anderem darin, dass die Sensoren eines mobilen Roboters immer nur eine Seite eines Polygons erfassen können und deshalb eine dynamische Erstellung und Pflege eines solchen Modells schwer fällt.

4.2.1.2 Belegungsrasterkarte

Belegungsrasterkarte eignen sich nicht nur als Weltmodell, sondern sind auch als Methode zur Sensor-Fusion bekannt.

Für die lokale Navigation ist vor allem die freie, befahrbare Fläche in der Umgebung des Roboters interessant. Sind mehrere verschiedene Sensoren zum Messen der freien Fläche vorhanden, so stellt sich zwangsläufig die Frage nach einer geeigneten Sensor-Fusion. Die Messungen der verschiedenen Sensoren sind von unterschiedlichen Zeitpunkten und haben unterschiedliche Charakteristika, was die Genauigkeit, die Reichweite und sonstige Eigenschaften betrifft. Selbst wenn nur ein Abstandssensor benutzt wird, ist zumindest die Zusammenfassung mehrerer zeitlich aufeinander folgender Messungen von Interesse.

Für die Erstellung einer Belegungsrasterkarte wird die lokale Umgebung des Roboters eingeteilt in Regionen, im einfachsten Fall durch ein Raster (engl.: grid) in Quadranten.

4.2.2 Topologische Weltmodelle[16]

Topologische Weltmodelle sind Graphen, die nicht notwendig maßtabsgerechte Abbildungen der Umgebung sind. Der Graph besteht aus signifikanten Stellen (Knoten) und Transitionen (Kanten).

Diese Weltmodelle geben hauptsächlich die Topologie der Umwelt wieder. Sie besitzen im Allgemeinen einen höheren Abstraktionsgrad als geometrische Karten und werden typischerweise als Graph mit Objekten und Beziehungen zwischen diesen Objekten dargestellt.

Die Knoten des Graphen eines topologischen Weltmodells sind attribuierte Objekte. Rein topologische Karten enthalten jedoch keine metrischen Distanzinformationen. Die Kanten sind lediglich Verbindungswege zwischen Knoten und könen als Attribute Aktions sequenzen, wie „rechts abbiegen und geradeaus fahren besitzen. Die Karte ist dementsprechend eine starke Vereinfachung der Umwelt. Es werden nur Nachbarschaftsbeziehungen abgebildet, nicht jedoch die präzisen geometrischen Verhältnisse.

Dies ist ein Grund, weshalb diese Art der Umweltrepräsentation gut geeignet ist, um eine Sensordatenfusion durchzuführen, da die Sensordaten unterschiedlicher Quellen einheitlich als Attribute von Knoten oder Kanten behandelt werden.

Das topologische Weltmodell ist folglich gut geeignet, um eine globale Karte zu erstellen. Da die globale Karte eine Hilfe für eine Navigation zwischen zwei entfernten Punkten ist, sind die Beziehungen zwischen den Punkten wichtig. Genau das, was ein topologisches Modell darstellt. Für die lokale Karte ist es jedoch nicht geeignet, da zu viel abstrahiert wird.

4.2.3 Probabilistische Weltmodelle

Da die Sensorik, auf welche alle Verfahren zur Aktualisierung eines Weltmodells angewiesen sind, fehlerbehaftet ist, ist auch ein bestimmter Zustand immer fehlerbehaftet. Mittels eines Fehlermodells lässt sich dieser Fehler des Zustands zumindest annähernd quantitativ eingrenzen. Unabhängig von der Ungenauigkeit der Sensorik kommen jedoch weitere Fehlerquellen hinzu:

Erstens sind durch die ungenaue Modellierung der Umwelt Fehlinterpretationen der Sensordaten möglich. Dies kommt daher, dass sich in der Umwelt Objekte (z.B. Personen oder andere dynamische Objekte) befinden, welche im Weltmodell nicht oder nur unzureichend modelliert werden können.

Diese Objekte können bei der Auswertung der Sensordaten mit Objekten im Weltmodell verwechselt werden oder die Erkennung von Objekten im Weltmodell verhindern. Zweitens kann die Umwelt z.B. von verschiedenen Positionen aus die gleichen Sensoreindrücke vermitteln. Dadurch wird eine eindeutige Positionsbestimmung und somit auch die Zuordnung der Sensordaten zum globalen Modell nur aus den momentanen Sensordaten unmöglich. Da viele Aktualisierungsverfahren für Weltmodelle einen eindeutigen, zuvor bestimmten Zustand des Modells zur Bestimmung des neuen aktuellen Zustandes benutzen, wird in vielen nicht probabilistischen Verfahren nur der wahrscheinlichste alte Zustand als Grundlage für die Berechnung der neuen Zustände verwendet.

Probabilistische Weltmodelle können auf geometrischen oder topologischen Weltmodellen basieren. In probabilistischen Weltmodellen wird nicht ein bestimmter Zustand gespeichert, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen Zustände oder zumindest über einer Teilmenge der möglichen Zustände. Dadurch steigt der Aktualisierungsaufwand aber auch der Informationsgehalt. Die probabilistisch erfassten Zustandsvariablen im Weltmodell betreffen hier meistens nur wenige Objekte im Weltmodell. Typischerweise wird sogar nur die Position des Roboters mit einer probabilistischen Zustandsvariablen beschrieben.

Um die Wahrscheinlichkeitsverteilung der Zustandsvariablen aktualisieren zu können, benötigt man ein probabilistisches Sensor- und Aktormodell. Das Sensormodell beinhaltet Informationen, wie wahrscheinlich es ist, bei einem bestimmten realen Zustand eine bestimmte Sensormessung zu erhalten.

Das Aktormodell beschreibt andererseits wie wahrscheinlich es ist, einen bestimmten realen Folgezustand zu erreichen unter der Bedingung, dass versucht wurde eine bestimmte Aktion auszuführen.

Sensor- und Aktormodelle können teilweise durch statistische Versuche ermittelt werden. Um die Zahl der Experimente zu reduzieren, ist es wichtig zu bestimmen, von welchen Faktoren der Ausgang der Messungen bzw. der Aktion wesentlich abhängt. Die Wahrscheinlichkeitsverteilung der Entfernungen einer Entfernungsmessung hängt global gesehen beispielsweise mit der Position des Sensors und der momentanen Beschaffenheit der Umgebung zusammen.

Da reale, dynamische Umgebungen jedoch diese Bedingung nicht erfüllen, müssen zusätzliche Techniken angewendet werden, um ein gutes Lokalisierungsverfahren zu erhalten. Abgesehen davon wird die Aktualisierung schon unter diesen Annahmen sehr aufwendig, wenn die betrachteten Zustandsräume groß sind. Aus diesem Grund werden auch entsprechende Techniken zur Reduktion des Aktualisierungsaufwandes benötigt.

5      Analyse von Steuerungsarchitekturen

In diesem Teil kann man die Steuerungsarchitektur der autonomen mobilen Roboter einfach erfassen. Für eine hohe Flexibilität und Anpassungsfähigkeit der autonomen mobilen Roboter ist die Steuerungsarchitektur sehr wichtig. Deshalb sollten Steuerungsarchitekturen für autonome mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein. Mit der Steuerungsarchitektur können autonome mobile Roboter in unserem Leben eine wichtige Rolle spielen.

In diesem Teil werden zunächst die Informationen über Prozessdatenverarbeitung vorgestellt.  Dann werden die Informationen über Verhaltensbasierte Steuerungsarchitekturen ausführlich vorgestellt.

5.1 Prozessdatenverarbeitung

Etwas abstrakter betrachtet handelt es sich bei einem Roboter um ein System, das Prozessdaten verarbeitet. Die Daten werden von Sensoren geliefert und Ergebnisse über Aktoren in physische Reaktionen umgesetzt.

x → Black-Box → y

Der aktuelle Ausgang y der Black-Box wird bestimmt von der Sequenz aller Wahrnehmungen x bis zum aktuellen Zeitpunkt, das bedeutet, dass die Box im Allgemeinen auch ein Erinnerungsvermögen hat. Die gewählte Steuerungsarchitektur beantwortet dann die Frage nach der Struktur der Black-Box.

Ein Großteil der Forschungsarbeiten der künstlichen Intelligenz beschäftigt sich mit der Lösung von Problemstellungen, bei denen zum Zeitpunkt, wenn der Lösungsprozess gestartet wird, alle nötigen Informationen vorliegen. Lsungsmethoden beruhen hier im Allgemeinen auf intelligenten Suchstrategien im Zustandsraum des Problems. Lösungen sind dabei vollständige Pfade (Folgen von Zuständen bzw. Folgen von Aktionen) vom Ausgangszustand zum Zielzustand, welche die Zielbedingungen des Problems erfüllen und evtl. zusätzlich eine Kostenfunktion minimieren. Hierbei werden im Normalfall einige Voraussetzungen angenommen, die diese Vorgehensweise rechtfertigen:

Bestimmte Aktionen bewirken bestimmte, bekannte Zustandsänderungen und nur diese.

Während des Lösungsprozesses ändert sich der Zustand des Weltmodells nicht.

5.1.1 Zeitbedingungen

Im Gegensatz zur Verarbeitung von Daten aus einer Datenbank können die Daten vom System nicht bei Bedarf abgeholt werden, sondern müssen ausgelesen werden, wenn sie vom Sensor gemessen werden.

Insbesondere fallen natürlich kontinuierlich weitere Daten an, und auch die Verarbeitung muss kontinuierlich erfolgen. Dabei werden im Allgemeinen auch Daten und Ergebnisse aus den vorhergehenden Zeitschritten benöigt. Sensordaten fallen in teilweise sehr unterschiedlichen Zeitintervallen an. Natürlich können die Daten gespeichert bzw. gepuffert werden. Handelt es sich jedoch um wichtige Daten, die z.B. für die Kollisionsvermeidung relevant sind, müssen sie innerhalb einer engen Zeitspanne bearbeitet und ausgewertet werden. Andererseits fallen auch andere Daten an, die zwar ebenfalls wichtig sind, auf die jedoch nicht besonders schnell reagiert werden muss.

Auch die Verarbeitungszeit der Daten ist je nach Ziel der Verarbeitung unterschiedlich. So ist die Prüfung, ob ein Messwert eine Schwelle überschreitet, in wenigen Prozessortakten erledigt, jedoch kann die Erkennung eines Objektes sehr aufwendig werden und die Akkumulation vieler Daten erfordern. Weiterhin können auch verschiedene Verarbeitungsergebnisse bestimmter Datenquellen verschiedene Dringlichkeiten besitzen. Auch auf der Ausgangsseite sind zeitliche Bedingungen zu beachten. So müssen manche Steuerkommandos nicht unmittelbar, sondern erst zu einem bestimmten Zeitpunkt oder auch nach einer bestimmten Verzögerungszeit, ausgeführt werden.

Die oben genannten gemischten Echtzeitanforderungen an die Datenverarbeitung sind ein wesentlicher Grund für den Entwurf von neuen Architekturen zur Verarbeitung der Daten eines mobilen Roboters.

5.2 Verhaltensbasierte Steuerungsarchitekturen

Als Rodney Brooks im Jahr 1984 seinen Artikel „A robust layered control system for a mobile robot“ [Bro86][17] veröffentlichte und gleichzeitig demonstrierte, erfuhren die meiste Menschen die verhaltensbasierte Steuerungsarchitektur. Dieses Jahr 1984 ist ein wichtiges Jahr für Verhaltensbasierte Steuerungsarchitekturen der autonomen mobilen Roboter. Es ist ein kurzer Überblick über die Geschichte verhaltensbasierter Steuerungsarchitekturen der autonomen mobilen Roboter.

Verhaltensbasierte Steuerungsarchitekturen ist die einfachste Softwarearchitektur für autonome Roboter. Das Verhalten des Roboters wird durch eine Ansammlung von Stimulus-Response Regeln definiert. Die sensorischen Inputs werden über jede dieser Regeln iteriert. Die Outputs dieser Regeln bestimmen dann die Reaktion des Roboters, wobei eine Kombination der ausgelösten Verhalten ausgeführt wird. Wesentlich für diese Architektur ist, dass die Regeln keinen von außen beobachtbaren State besitzen. Dadurch dass die Regeln gleichzeitig ausgelöst werden, und ohne Planung ihre Prozeduren durchlaufen ist diese Architektur sehr schnell, im Gegensatz zu anderen planungsbasierten Ansätzen. Der größte Vorteil des reaktiven Modells ist seine Geschwindigkeit. Der Roboter kann sofort auf unvorhergesehene Ereignisse reagieren, während andere Architekturen diese gar nicht erst registrieren, oder erst planen müssen wie sie mit diesem Ereignis umgehen. Nachteilig ist, dass der Roboter in dieser Architektur nicht lernt. Er erstellt kein internes Weltmodell und kann keine optimalen Routen, geschweige denn Langzeitstrategien planen. Dies ist hinderlich bei Einsatzgebieten, in denen nur eingeschränkte Kommunikation mit dem Roboter möglich ist[18].

Offensichtlich war man mit dem verhaltensbasierten Ansatz auf eine Methode gestoßen, die gerade in der Robotik Vorteile gegenüber dem konventionellen funktionalen Ansatz birgt und die zusätzlich ihr Vorbild in der Natur fand. Weitere Wissenschaftler gelangten mehr oder weniger unabhängig zu ähnlichen Erkenntnissen ([PV92, PS94, Ste94, Smi94, MB93, Bee90, Sac87]). Es folgten verschiedene Studien zu verhaltensbasierten, reaktiven mobilen Robotern ([Bra84, VKP92, Kub97, SP95, SB95, Ste97b, Ste97a, Mat97, FS95, GIM94])[19].

Es fiel jedoch auf, dass verhaltensbasierte Roboter zwar sehr reaktionsschnell und robust agierten, es mangelte ihnen jedoch an planerischen Fähigkeiten [BKSW95b, BK95b, BK95a][20]. Dadurch wurden die Prämissen von Brooks, kein Weltmodell zu benutzen und keinen internen Zustand zu speichern, in Frage gestellt. Wie auch Erann Gat in [Gat93] herausstellt, entstehen Probleme mit Weltmodellen und internen Zuständen immer dann, wenn implizit Folgerungen und Vorhersagen aus den gespeicherten Zuständen generiert werden, welche nicht zutreffen.

Deshalb sind viele Probleme zu beseitigen, indem darauf geachtet wird, dass das Weltmodell und der intern gespeicherte Zustand nur Informationen enthalten, die zutreffende Vorhersagen zulassen. Dies ist zumeist für abstraktere Informationen der Fall. Diese Informationen können zwar genutzt werden, um die Aktionen des Roboters grob zu leiten, sind jedoch nicht geeignet, um ihn zu steuern. Verhaltensbasierte Steuerungsarchitekturen müssen nun festlegen, wie dieses Leiten der Aktionen realisiert wird, ohne die reaktiven Fähigkeiten zu unterbinden[21].

6       Zusammenfassung

Roboter sind künstliche, von Menschen entworfene und gebaute technische Objekte. Autonome mobile Roboter bewegen sich in einer offenen Umgebung, deshalb sind die Definition und Pflege eines geschlossenen Weltmodells schwieriger als bei stationären Robotern. Für einen mobilen Roboter stellt die sichere Navigation ein grundlegendes Aufgabenfeld dar. Gleichzeitig ist die Navigation in dynamischen Umgebungen ein typischer Anwendungsfall für die Zusammenfassung von reaktiven Verfahren.

Die Navigation lässt sich in lokale und globale Navigation unterteilen. In der lokalen Umgebung muss der Roboter sensororientiert arbeiten und auf dynamische Objekte reagieren. Bei einigen Robotern müssen zusätzlich nicht-holonomische Eigenschaften berücksichtigt werden.

Es gibt noch die Informationen über Lokalisierung über autonome mobile Roboter, die ein sehr wichtiges Thema für autonome mobile Roboter ist. Es ist notwendig, dass man Lokalisierung für autonome mobile Roboter gut versteht.

In der Zukunft werden autonome mobile Roboter vielleicht die folgende Eigenschaften haben:

1.      Miniaturisierung: Weil autonome mobile Roboter meistens in den Bereichen von Hausarbeiten und Dienstleistungen verwendet werden, werden die Körper der autonomen mobilen Roboter zur Miniaturisierung entwickeln.

2.      Hochgeschwindigkeit: Die Hochgeschwindigkeit wird sehr hilfreich für autonome mobile Roboter, die meistens im Outdoorbereich verwendet werden, weil die Hochgeschwindigkeit kann die Leistungsfähigkeit erhöhen. Aber für die Hochgeschwindigkeit sind Positioniergenauigkeit und Kontrolle sehr wichtig.Deshalbe braucht es höhere Anforderungen.

3.      Freundliche Mensch-Computer-Interaktion: In der Zukunft können autonome mobile Roboter mit der freundlichen Mensch-Computer-Interaktion bessere Dienstleistungen den Menschen anbieten.

4.      Besse Sicherheit: Weil autonome mobile Roboter von den Menschen verwendet werden, müssen autonome mobile Roboter mindestens für Mensch unschädlich sein. Die Entwickelung der autonomen mobilen Roboter muss die Sicherheit berücksichtigen.

Deshalb werden autonome mobile Roboter vielleicht mehr wichtiger als jetzt sein.

Literatur

» Steuerungsarchitekturen für autonome mobileRoboter «

»Mobile Robotik«, Ulrich Nehmzow

Ein 3D−Laserscanner für autonome mobile Roboter, Andreas Nüchter, Kai Lingemann

Kartenerstellung und Navigation zur Positionsbestimmung autonomer Fahrzeuge

de.wikipedia.org



[1] https://de.wikipedia.org/wiki/Autonomer_mobiler_Roboter

[2] Seit 11, »Mobile Robotik«, Ulrich Nehmzow

[3] Seite 13, »Mobile Robotik«, Ulrich Nehmzow

[4] Einführung in die Robotik, Mohamed Oubbati

[5] Seit 21, » Steuerungsarchitekturen für autonome mobileRoboter «

[6] https://wenku.baidu.com/view/7ac9d563bcd126fff7050b82.html

[7] Seit 12, » Steuerungsarchitekturen für autonome mobileRoboter «

[8] Ein 3D−Laserscanner für autonome mobile Roboter, Andreas Nüchter, Kai Lingemann

[9] https://de.wikipedia.org/wiki/Tr%C3%A4gheitsnavigationssystem

[10] https://de.wikipedia.org/wiki/Piezoelektrischer_Sensor

[11] Seite 46, »Mobile Robotik«, Ulrich Nehmzow

[12] Seite 44, »Mobile Robotik«, Ulrich Nehmzow

[13] Seite 98, »Mobile Robotik«, Ulrich Nehmzow

[14] https://de.wikipedia.org/wiki/Topografische_Karte

[15] Was ist ein topologische Karte? By Bernardo.

[16] Kartenerstellung und Navigation zur Positionsbestimmung autonomer Fahrzeuge

[17]http://baike.baidu.com/link?url=3I2JnrUrjF4EatyEC5A2l90MDJRQRlrR9fFtbDyPumC2ubNO_ObVtkfTUt2I8nQtpfNTjN7Sg4WjeZiWmM6nNkL2l0ASuJEiWwFLClq5xqTgCH7Azf7rl6dcAgDr8IoF1tTr6_Noqv2dGNnUaGQYd9dLzedyGg4McKly4iu0GMu

[18]https://de.wikipedia.org/wiki/Autonomer_mobiler_Roboter#Verhaltensbasierte_Architektur_.28Reaktive_Architektur.29

[19] Seite69 » Steuerungsarchitekturen für autonome mobileRoboter «

[20] »Steuerungsarchitekturen für autonome mobileRoboter «

[21] »Steuerungsarchitekturen für autonome mobileRoboter «

关于我们  |  诚聘英才  |  联系我们  |  友情链接
版权所有:@ 智尚代写联盟 电话:0760-86388801 客服QQ:875870576
地址: 广东中山市学院路1号 皖ICP备12010335号-7
  • 論文作成開始報告書
  • 西语作业代写PLANIFICACI&
  • 西班牙语作业代写PLANIFICAC
  • 高等教育科学研究项目立项指南
  • Reason for applica
  • 日语学位论文开题报告代写
  • 翻译硕士(英语笔译及英语口译)学位论
  • 中国现当代文学翻译的现状与问题
  • 文学翻译新观念
  • 找人代写硕士论文,要求写手至少硕士学
  • 重复提取促进长期记忆保持和意义学习的
  • 艺术院校内容依托英语教学的实证研究
  • 基于概念场的认知框架中的概念隐喻分析
  • 多元回归统计建模在语料库语言学中近义
  • paper6工作室专注留学生论文代写
  • 德语医学论文标题汉译的编辑加工
  • 高职韩语专业毕业论文的问题分析
  • develop communicat
  • VICTORIA UNIVERSIT
  • 日本地址电话
  • 英语动词现在时与将来时呼应的认知解读
  • 核心素养与英语课堂教学
  • 新国标下商务英语精读内容与语言融合型
  • 语言生态学视阈下美国语言教育政策研究
  • 应用技术型民族院校的大学英语教学改革
  • 圣诞节西班牙语
  • 基于区域经济发展的分类递进式大学英语
  • MOOC对高校专业课教学的效能研究
  • 西班牙语论文代写
  • 实习报告写作要求规范细则
  • 茶本体的开发,实现和评估
  • Anaylse des Leben
  • um Material,was ge
  • TEXTOS WEB ACOCEX
  • praktische WurzelS
  • FAQ vom Würzelschn
  • 中国饮食文化法国饮食文化
  • 中国春节特色法国圣诞节
  • 英韩翻译案例
  • 中国自動車産業の現状と課題 -環境保
  • 战争的结构
  • 法语论文修改意见
  • reference 代写
  • A proposal submitt
  • Gründe der erfolge
  • 工业翻译中译英考试题目
  • Introduction to en
  • 从汉法主要颜色词汇的文化内涵看两国文
  • Un problème chez &
  • INTERNATIONAL AND
  • IHRM Individual re
  • НАЦИОНАЛЬНО-КУЛЬТУ
  • ТЕОРЕТИЧЕСКИЕ ОСНО
  • SPE会议论文翻译
  • Project Proposal 地
  • 中国意大利家用电器领域合作的可能性和
  • Career Goal与Career
  • Caractéristiques e
  • L'influence de l'S
  • 英语口语教学改革途径测试与分析
  • 语用学理论与高校英语阅读教学
  • 日本语研究计划书写作申请
  • To Whom it May Con
  • 译文中英对照葡萄酒产品介绍
  • 韩国传统用餐礼节
  • 日本語の暧昧語婉曲暧昧性省略表現以心
  • 研究计划书写作要求
  • Outline Impact of
  • 计算机工程与网络技术国际学术会议EI
  • 微软的人脸3D建模技术 Kinect
  • Qualitative resear
  • 新闻的感想
  • 与老师对话的测验
  • 韩语论文修改意见教授老师
  • 华南师范大学外国语言文化学院英语专业
  • APA论文写作格式
  • the surrounding en
  • Современное состоя
  • CHIN30005 Advanced
  • The APA Harvard Sy
  • Annotated Bibiolgr
  • Acker Merrall & Co
  • 资生堂进入中国市场的经营策略
  • Introduction to Pu
  • 软件测试Introduction t
  • Pro Ajax and java
  • 用户体验The user exper
  • AJAX Design Patter
  • The Rich Client Pl
  • Keyframer Chunks
  • 3D-Studio File For
  • Mathematics for Co
  • The Linux MTD, JFF
  • 中日体态语的表现形式及其差异
  • CB 202 System Anal
  • 论日本恐怖电影与好莱坞恐怖片的异同
  • 俄语论文修改
  • 古典诗歌翻译英语论文资料
  • <한중
  • 公司治理(Corporate Gov
  • 英语习语翻译中的移植与转换
  • 日语(上) 期末复习题
  • ACTIVIDAD CORRESPO
  • 리더&#
  • 购物小票翻译
  • 论文摘要翻译英文
  • Bedeutung der Prod
  • ELABORACIÓN
  • 英语考卷代写代做
  • 日本語の感情形容詞の使用特徴——ドラ
  • 未来創造学部卒業研究要領
  • 光之明(国际)低碳产品交易中心介绍
  • 中国の茶文化と日本茶道との比較—精神
  • 목차
  • Final Project Grad
  • 東京学芸大学>センターなど教員許 夏
  • 東京学芸大学 大学院教育学研究科(修
  • 白澤論
  • ポスト社会主義モンゴルにおけるカザフ
  • 言語と色彩現象—史的テクストをもとに
  • 渡来人伝説の研究
  • 中日企业文化差异的比较
  • Modellierung des B
  • 日本大学奖学金申请
  • 大学日语教师尉老师
  • 석사&#
  • Chemical Shift of
  • 中韩生日习俗文化比较
  • Measure of Attachm
  • 酒店韩国客人满意度影响因素研究
  • 要旨部分の訂正版をお送りします
  • Writing and textua
  • 日本企業文化が中国企業にもたらす啓示
  • 日本情报信息专业考试题
  • 雅丽姿毛绒时装有限公司网站文案(中文
  • 語用論の関連性理論「carston」
  • 組織行動と情報セキュリティ.レポート
  • Bedarf
  • 中日企业文化差异的比较
  • 从语形的角度对比中日“手”语义派生的
  • 中国明朝汉籍东传日本及其对日本文化的
  • 《中日茶道文化比较》
  • 从中日两国电视剧看中日文化之差异
  • FOM Hochschule für
  • Die Rolle der Bank
  • A Penny for Your T
  • 也谈ガ行鼻浊音的语音教学问题
  • On the Difference
  • 衣装は苗族の伝統文化の主な表現形式
  • 日语语言文学硕士论文:日本の义务教育
  • 日本的茶文化
  • Samsung Electronic
  • Synthesis and char
  • The traveling mark
  • The Japanese Democ
  • 四季の歌
  • CapitoloI La situa
  • The Effects of Aff
  • WEB服务安全保障分析
  • 音译汉语和英语的相互渗透引用
  • 中日两国服装贸易日语论文写作要求
  • 日语论文修改意见
  • 英语作文题目
  • 申请留学社会经验心得体会
  • BE951 Coursework O
  • Overview township
  • 日本の長寿社会考察
  • 日语老师教师电话联系方式
  • 「依頼」に対する中上級者の「断り」に
  • 日本語序論
  • component formatti
  • 日文文献资料的查阅方法
  • 日文文献资料的查阅方法
  • 日语文献检索日文文献搜索网站
  • 日本留学硕士及研究生的区别硕士申请条
  • Adult attachment s
  • レベルが向上する中国の日本学研究修士
  • 日本留学硕士(修士)与研究生的区别
  • Nontraditional Man
  • Engine Lathes
  • Automatic Screw M
  • Chain Drives
  • V-belt
  • Bestimmung der rut
  • 中山LED生产厂家企业黄页大全
  • 活用神话的文化背景来看韩国语教育方案
  • MLA論文格式
  • 旅游中介
  • MLA论文格式代写MLA论文
  • 小論文參考資料寫作格式範例(採APA
  • clothing model; fi
  • 共同利用者支援システムへのユーザー登
  • 太陽風を利用した次世代宇宙推進システ
  • RAO-SS:疎行列ソルバにおける実
  • 井伏鱒二の作品における小動物について
  • 從“老祖宗的典籍”到“現代科學的証
  • “A great Pecking D
  • 净月法师简历
  • 科技论文中日对照
  • 翻译的科技论文节选
  •  IPY-4へ向ける準備の進み具合
  • 論文誌のJ-STAGE投稿ʍ
  • Journal of Compute
  • 学会誌 (Journal of Co
  • 学会誌JCCJ特集号への投稿締切日の
  • 「化学レポート:現状と将来」
  • 韩语翻译个人简历
  • 九三会所
  • 事態情報附加連体節の中国語表現につい
  • International Bacc
  • HL introduction do
  • コーパスを利用した日本語の複合動詞の
  • 日语分词技术在日语教材开发中的应用构
  • 北極圏環境研究センター活動報告
  • 语用学在翻译中的运用
  • 日汉交替传译小议——从两篇口译试题谈
  • 総合科学専攻における卒業論文(ミニ卒
  • Heroes in August W
  • 玛雅文明-西班牙语论文
  • 西班牙语论文-西班牙旅游美食建筑
  • 八戸工業大学工学部環境建設工学科卒業
  • 親の連れ子として離島の旧家にやって来
  • 「米ソ協定」下の引揚げにおいて
  • タイトル:少子化対策の国際比較
  • メインタイトル:ここに入力。欧数字は
  • 東洋大学工学部環境建設学科卒業論文要
  • IPCar:自動車プローブ情報システ
  • Abrupt Climate Cha
  • Recognition of Eco
  • Complexities of Ch
  • Statistical Analys
  • Dangerous Level o
  • 中日对照新闻稿
  • 俄汉语外来词使用的主要领域对比分析
  • 两种形式的主谓一致
  • 韩语论文大纲修改
  • 중국&#
  • 俄语外来词的同化问题
  • 北海道方言中自发助动词らさる的用法与
  • 论高职英语教育基础性与实用性的有机结
  • 论高职幼师双语口语技能的培养
  • 论高职幼师英语口语技能的培养
  •     自分・この眼&
  • 成蹊大学大学院 経済経営研究科
  • アクア・マイクロ
  • 公共経営研究科修士論文(政策提言論文
  • 基于学习风格的英语学习多媒体课件包
  • 后殖民时期印度英语诗歌管窥
  • 汉语互动致使句的句法生成
  • 笔译价格
  • 携帯TV電話の活用
  • 英語学習におけるノートテイキング方略
  • 強化学習と決定木によるエージェント
  • エージェントの行動様式の学習法
  • 学習エージェントとは
  • 強化学習と決定木学習による汎用エージ
  • 講演概要の書き方
  • 对学生英语上下义语言知识与写作技能的
  • 英汉词汇文化内涵及其翻译
  • 论大学英语教学改革之建构主义理论指导
  • 国内影片片名翻译研究综观及现状
  • 平成13年度経済情報学科特殊研究
  • Comparison of curr
  • 英文论文任务书
  • This project is to
  • the comparison of
  • デジタルペンとRFIDタグを活用した
  • 無資格者無免許・対策関
  • 創刊の辞―医療社会学の通常科学化をめ
  • gastric cancer:ade
  • 揭示政治语篇蕴涵的意识形态
  • 试论专业英语课程项目化改革的可行性
  • 多媒体环境下的英语教学交际化
  • 翻译认知论
  • 读高桥多佳子的《相似形》
  • 以英若诚对“Death of A S
  • 论沈宝基的翻译理论与实践
  • 论语域与文学作品中人物会话的翻译
  • 浅析翻译活动中的文化失衡
  • 谈《傲慢与偏见》的语言艺术
  • 论语言结构差异对翻译实效性的影响
  • 英语传递小句的认知诠释
  • 英语阅读输入的四大误区
  • 在语言选择中构建社会身份
  • 私たちが見た、障害者雇用の今。
  • 震災復興の経済分析
  • 研究面からみた大学の生産性
  • 喫煙行動の経済分析
  • 起業の経済分析
  • 高圧力の科学と技術の最近の進歩
  • 「観光立国」の実現に向けて
  • 資源としてのマグロと日本の動向
  • 揚湯試験結果の概要温泉水の水質の概要
  • 計量史研究執筆要綱 
  • 日中友好中国大学生日本語科卒業論文
  • 제 7 장
  • 전자&
  • 現代國民論、現代皇室論
  • 記紀批判—官人述作論、天皇宗家論
  • 津田的中國觀與亞洲觀
  • 津田思想的形成
  • 反思台灣與中國的津田左右吉研究
  • 遠隔講義 e-learning
  • 和文タイトルは17ポイント,センタリ
  • Design And Impleme
  • Near-surface mount
  • 중국 &
  • 韩国泡菜文化和中国的咸菜文化
  • 무한&#
  • 수시 2
  • 韩流流向世界
  • 무설&#
  • 要想学好韩语首先得学好汉语
  • 사망&#
  • Expression and Bio
  • Increased Nuclear
  • 论女性主义翻译观
  • 健康食品の有効性
  • 日语的敬语表现与日本人的敬语意识
  • 日语拒否的特点及表达
  • Solve World’s Prob
  • 韩汉反身代词“??”和“自己”的对比
  • 韩汉量词句法语义功能对比
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 土木学会論文集の完全版下印刷用和文原
  • 英语语调重音研究综述
  • 英汉语言结构的差异与翻译
  • 平等化政策の現状と課題
  • 日本陸軍航空史航空特攻
  • 商务日语专业毕业生毕业论文选题范围
  • 家庭内暴力の現象について
  • 敬语使用中的禁忌
  • Treatment of high
  • On product quality
  • Functional safety
  • TIDEBROOK MARITIME
  • 日文键盘的输入方法
  • 高职高专英语课堂中的提问策略
  • 对高校学生英语口语流利性和正确性的思
  • 二语习得中的文化错误分析及对策探讨
  • 高职英语专业阅读课堂教学氛围的优化对
  • 趣谈英语中的比喻
  • 浅析提高日语国际能力考试听力成绩的对
  • 外语语音偏误认知心理分析
  • 读格林童话《小精灵》有感
  • “新世纪”版高中英语新课教学导入方法
  • 初探大学英语口语测试模式与教学的实证
  • 中加大学生拒绝言语行为的实证研究
  • 目的论与翻译失误研究—珠海市旅游景点
  • 对学生英语上下义语言知识与写作技能的
  • 英语水平对非英语专业研究生语言学习策
  • 英语教学中的文化渗透
  • 中学教师自主学习角色的一项实证研究
  • 叶维廉后期比较文学思想和中诗英译的传
  • 钟玲中诗英译的传递研究和传递实践述评
  • 建构主义和高校德育
  • 论习语的词法地位
  • 广告英语中的修辞欣赏
  • 从奢侈品消费看王尔德及其唯美主义
  • 论隐喻的逆向性
  • 企盼和谐的两性关系——以劳伦斯小说《
  • 论高等教育大众化进程中的大学英语教学
  • 试论《三四郎》的三维世界
  • 李渔的小说批评与曲亭马琴的读本作品
  • 浅谈中国英语的表现特征及存在意义
  • 湖南常德农村中学英语教师师资发展状况
  • 海明威的《向瑞士致敬》和菲茨杰拉德
  • 围绕课文综合训练,培养学生的写作能力
  • 指称晦暗性现象透析
  • 西部地区中学生英语阅读习惯调查
  • 论隐喻的逆向性
  • 认知体验与翻译
  • 试析英诗汉译中的创造性
  • 言语交际中模糊语浅议
  • 认知体验与翻译
  • 关于翻译中的词汇空缺现象及翻译对策
  • 从互文性视角解读《红楼梦》两译本宗教
  • 从目的论看中英动物文化词喻体意象的翻
  • 高校英语语法教学的几点思考
  • 高校体艺类学生外语学习兴趣与动机的研
  • 大学英语自主学习存在的问题及“指导性
  • 从接受美学看文学翻译的纯语言观
  • 《红楼梦》两种英译本中服饰内容的翻译
  • 法语对英语的影响
  • 影响中美抱怨实施策略的情景因素分析
  • 代写需求表
  • 跨文化交际中称赞语的特点及语言表达模
  • 实现文化教育主导外语教育之研究
  • 试论读者变量对英语阅读的影响
  • 从文化的角度看英语词汇中的性别歧视现
  • 合作原则在外贸函电翻译中的运用
  • Default 词义探悉
  • 从图示理论看英汉翻译中的误译
  • 许国璋等外语界老前辈所接受的双语教学
  • “provide” 和 “suppl
  • 由英汉句法对比看长句翻译中的词序处理
  • 1000名富翁的13条致富秘诀中英对
  • 英语中18大激励人心的谚语中英对照
  • 反省女性自身 寻求两性和谐---评
  • 浅析翻译中的“信”
  • 集体迫害范式解读《阿里》
  • 横看成岭侧成峰-从美学批评角度解读《
  • 福柯的话语权及规范化理论解读《最蓝的
  • 播客技术在大学英语教学中的应用
  • 如何在山区中等专业学校英语课堂实施分
  • 奈达与格特翻译理论比较研究
  • 语篇内外的衔接与连贯
  • Economic globaliza
  • 用概念整合理论分析翻译中不同思维模式
  • 英语新闻语篇汉译过程中衔接手段的转换
  • 对易卜生戏剧创作转向的阐释
  • 动词GO语义延伸的认知研究
  • 反思型教师—我国外语教师发展的有效途
  • 输入与输出在词汇学习中的动态统一关系
  • 教育实践指导双方身份认同批判性分析
  • 中英商务文本翻译异化和归化的抉择理据
  • 从艺术结构看《呼啸山庄》
  • 从儒家术语“仁”的翻译论意义的播撒
  • 论隐喻与明喻的异同及其在教学中的启示
  • 话语标记语的语用信息在英汉学习型词典
  • 论森欧外的历史小说
  • 翻译认知论 ——翻译行为本质管窥
  • 中美语文教材设计思路的比较
  • 美国写作训练的特点及思考
  • UP语义伸延的认知视角
  • 成功的关键-The Key to S
  • 杨利伟-Yang Liwei
  • 武汉一个美丽的城市
  • 对儿童来说互联网是危险的?
  • 跨文化交际教学策略与法语教学
  • 试论专业英语课程项目化改革的可行性-
  • 论沈宝基的翻译理论与实践
  • 翻译认知论——翻译行为本质管窥
  • 母爱的虚像 ——读高桥多佳子的《相似
  • 浅析英语广告语言的特点
  • 中国の株価動向分析
  • 日语拒否的特点及表达
  • 日语的敬语表现与日本人的敬语意识
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 浅谈日语敬语的运用法
  • 浅谈日语会话能力的提高
  • ^论日语中的年轻人用语
  • 敬语使用中的禁忌
  • 关于日语中的简略化表达
  • 关于日语的委婉表达
  • The Wonderful Stru
  • Of Love(论爱情)
  • SONY Computer/Notb
  • 从加拿大汉语教学现状看海外汉语教学
  • MLA格式简要规范
  • 浅析翻译类学生理解下的招聘广告
  • 日本大学排名
  • 虎头虎脑
  • 杰克逊涉嫌猥亵男童案首次庭审
  • Throughout his car
  • June 19,1997: Vict
  • 今天你睡了“美容觉”吗?
  • [双语]荷兰橙色统治看台 荷兰球员统
  • Father's Day(异趣父亲节
  • 百佳电影台词排行前25名
  • June 9,1983: Thatc
  • June 8, 1968: Robe
  • 60 players mark bi
  • June 6, 1984: Indi
  • 日本の専門家が漁業資源を警告するのは
  • オーストリア巴馬は模範的な公民に日本
  • 日本のメディアは朝鮮があるいは核実験
  • 世界のバレーボールの日本の32年の始
  • 日本の国債は滑り降りて、取引員と短い
  • 广州紧急“清剿”果子狸
  • 美国“勇气”号登陆火星
  • 第30届冰灯节哈尔滨开幕
  • 美国士兵成为时代周刊2003年度人物
  • BIRD flu fears hav
  • 中国チベット文化週間はマドリードで開
  • 中国チベット文化週間はマドリードで開
  • 中国の重陽の文化の発祥地──河南省西
  • シティバンク:日本の国債は中国の中央
  • イギリスは間もなく中国にブタ肉を輸出
  • 古いものと新しい中国センター姚明の失
  • 中国の陝西は旅行して推薦ӥ
  • 中国の電子は再度元手を割って中国の有