Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Inhaltsverzeichnis
1 Einleitung
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
2.2 Warum und wofür werden Sie gebraucht?
2.3 Geschichte der autonomen mobilen Robotik
3 Hauptteile und Schlüsseltechnologien
3.1 Sensoren
3.1.1 Abstandssensoren
3.1.1.1 Stoßfänger
3.1.1.2 Ultraschall
3.1.1.3 Infrarot
3.1.1.4 Laser
3.1.1.4.1 2D-Laserscanner
3.1.1.4.2 3D-Laserscanner
3.1.2 Sensoren für Dead-Reckoning
3.1.3 Kamera
3.1.4 Berührungssensoren
3.1.5 Sensorsignale sind interpretationsbedürftig
3.1.6 Datenfusion der Multisensoren
3.2 Aktoren
3.1.6.1 Elektrisch, pneumatisch, hydraulisch
3.1.6.2 Nicht-holonomische und holonomische Bewegung
4 Navigation
4.1 Selbstlokalisierung
4.1.1 Globale Selbstlokalisierung
4.1.2 Lokale Selbstlokalisierung
4.2 Weltmodelle für Navigation
4.2.1 Geometrische Weltmodelle
4.2.2 Topologische Weltmodelle
4.2.3 Probabilistische Weltmodelle
5 Analyse von Steuerungsarchitekturen
5.1 Prozessdatenverarbeitung
5.2 Verhaltensbasierte Steuerungsarchitekturen
6 Zusammenfassung
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Abstract:In dieser Arbeit werden viele Informationen über autonome mobile Roboter ausführlich vorgestellt, besonders die Informationen über die Anforderungen an Roboter für den autonomen mobilen Einsatz. Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man ein umfassendes, völlig neues und deutliches Verständnis für die Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten. Es ist auch das Ziel dieser Arbeit, die Sensoren und Aktoren, Hauptteile und Schlüsseltechnologien für autonome mobile Roboter darzustellen. Zudem werden viele Beispiele für autonome mobile Roboter vorgestellt und auf die Geschichte der autonomen mobilen Roboter wird ebenso eingegangen. Über die Analyse der Haupteile der autonomen mobilen Roboter werden die Anforderungen an autonome mobile Roboter klar dargestellt. Mit vielen Beispielen bietet diese Arbeit viele nützliche Informationen über autonome mobile Roboter.
Schlüsselwörter: autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Anforderungen, Sensoren
1 Einleitung
Diese Arbeit befasst sich mit den Anforderungen an Roboter für den autonomen mobilen Einsatz. Autonome mobile Roboter stellen eine Verbindung der Disziplinen aus Maschinenbau, Elektrotechnik und Informatik dar. Autonome mobile Roboter bewegen sich frei durch ihre Umwelt. Über die folgende Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten wir ein umfassendes, völlig neues und deutliches Verständnis für den mobilen Einsatz von Robotern.
Diese Arbeit wird in 6 Teilen unterteilt. Nach der Einleitung werden die Komponenten der autonome mobile Roboter, Navigation, Analyse von Steuerungsarchitekturen, einzeln vorgestellt. Zum Schluss wird in der Zusammenfassung ein Resumee gezogen.
Im Hauptteil dieser Arbeit werden die Hauptkomponenten und Schlüsseltechnologien, Navigation und Steuerungsarchitekturen ausführlich behandelt.
Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man zuerst wissen, was ist ein autonomer mobiler Roboter? Dann kann man auch wissen, was ist die Haupteile von einem auton, omen mobilen Roboter? Wie die Anforderungen an Roboter für den autonomen mobilen Einsatz sind? Wie ist die verhaltensbasierte Architektur? Wie ist die Navigation eines autonomen und mobilen Roboters? Für eine Reihe von Fragen über autonome mobile Roboter kann man in dieser Arbeit eine Antwort bekommen.
Diese Arbeit richtet sich an die Anforderungen an autonome mobile Roboter, die nicht nur für allgemeine Arbeit und auch für den Industriegebrauch sehr wichtig und hilfreich sind.
Durch diese Arbeit kann man einen umfassenden und deutlichen Blick auf die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. z,B. Mann kann die Steuerungsarchitekturen, die Sensoren und Aktoren und die Lokale und globale Selbstlokalisierung eines autonomen und mobilen Roboters besserer als früher verstehen usw. Auch man kann die Information über die Weltmodelle für Navigation gut lernen. Dieser Folgende Teil ist Autonome mobile Roboter.
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
Autonome mobile Roboter sind Roboter, die sich in ihrer Umgebung selbständig bewegen und agieren können. Aber es gibt für die Autonomie verschiedene Gliederungen. Das bedeutet auch, dass es verschiedene Unabhängigkeit für autonome mobile Roboter gibt. Für Roboter gibt es zwei Arten: der stationäre Roboter oder der mobile Roboter, der einzeln nach einem bestimmten Programm festgelegte Aufgaben erfüllt.
Gleichzeitig hat die freie autonome Beweglichkeit eines autonomen mobilen Roboters Vorteile und auch Nachteile. Die Vorteile sind die folgende: wegen der freien autonomen Beweglichkeit können die Roboter für Aufgaben wie Transport-, Überwachungs-, Inspektions- oder Reinigungsaufgaben eingesetzt werden.
Besonders für den Einsatz in den Umgebungen, die vielleicht für Menschen entweder unzugänglich oder gefährlich sind, sind autonome mobile Roboter eine gute Auswahl. Aber es gibt auch die Nachteile. Die Nachteile sind die folgende: für den Einsatz in semi-strukturierten Umgebungen eignen sich autonome mobile Roboter nicht, weil unvorhergesehene Umstände oder Veränderungen vielleicht in den semi-strukturierten Umgebungen vorkommen. Wenn man autonome mobile Roboter verwendet, muss man dies berücksichtigen. Die Steuerung autonomer mobiler Robote muss mit desen unvorhergesehenen Umständen oder Veränderungen umgehen.
Die Mobilität bedeutet im Bereich der autonomen mobilen Roboter, dass autonome mobile Roboter nicht fest an einer bestimmten Stelle montiert sind, sondern sich mehr oder weniger frei in einer bestimmten Umgebung bewegen können. Die Art des Terrains bestimmt hierbei die notwendigen Aktoren zur Fortbewegung. Während sich beispielsweise Räder für eher ebenes Gelände eignen, sind für unebenes Gelände meist Ketten oder Beine (s. Laufroboter) von Vorteil. Das Wort von „Autonom“ hat seinen Ursprung in zwei griechischen Wörtern: „autos“ ist griechisch für selbst und „nomos“ für Gesetz. Es bedeutet also „eigengesetzlich machend“. Die Autonomie eines Roboters lässt sich in verschiedenen Graden realisieren. Beispielsweise sind Roboter, die zwar selbständig ihre Umgebung erkunden und die ihnen gestellten Aufgaben abarbeiten, aber immer wieder zu einer Ladestation zurückkehren müssen, nicht völlig autonom. Der notwendige Grad an Autonomie, der für einen bestimmten Roboter notwendig ist, lässt sich aus der Spezifikation der zu erledigenden Aufgaben bestimmen. Deshalb bedeutet das Wort von „Autonom“, dass der Roboter ohne externe Unterstützung seiner Umgebung funktionieren kann. „Autonom“ ist Synonym von Unabhängigkeit, Selbständigkeit, Entscheidungsfreiheit, usw.
Das Verhalten eines autonomen mobilen Roboters kann auch wie die ,,Intelligenz“ nicht unabhängig von seiner Umgebung und der von ihm auszuführenden Aufgabe betrachtet werden. Roboter, Aufgabe und Umgebung sind voneinander abhängig und beeinflussen sich gegenseitig wie die Folgende:
Roboter
Aufgabe Umgebung
2.2 Warum und wofür werden Sie gebraucht?
Autonome mobile Roboter können sich autonom in ihrer Umgebung umherbewegen. Deshalb sind autonome mobile Roboter die ideale Werkzeuge für die Aufgaben in den Bereichen Transport, Exploration, Überwachung, und Inspektion usw.
Für autonome mobile Roboter gibt es viele Einsatzbereiche. Vor allem sind die zwei Aspekte der Überwachung und der Inspektion sehr wichtige Verwendungszwecke für autonome mobile Roboter. In diesen zwei Verwendungszwecken sind besonders die guten sensorische Fähigkeiten der autonomen mobilen Roboter sehr wichtig und sehr gefragt. Für Rohrsysteme, Kanalsysteme, kontaminierte Gebiete und Anwendungen der Raumfahrt sind autonome mobile Roboter auch sehr hilfreich. Für den flexiblen Transport der Güter spielen autonome mobile Roboter auch eine wichtige Rolle. Es gibt noch viele potentielle Verwendungszwecke für autonome mobile Roboter hier mögliche Beispiele aufführen. , wo auch die drahtlose Verbindung eine wichtige Rolle spielt, diesen Teilbereich nennt man Telerobotik.
Die Gebiete der künstlichen Intelligenz, der kognitiven Wissenschaften und der Psychologie spielen für autonome mobile Roboter auch eine wichtige Rolle. Autonome mobile Roboter können dadurch Hypothesen über intelligentes Verhalten, Wahrnehmung und Kognition überprüfen und verbessern.
Deshalb sind autonome mobile Roboter nicht nur für Industrie, Landwirtschaft, Medizinische Technik, Dienstleistung sehr wichtig, sondern auch für Staatssicherheit und Landesverteidigung Autonome mobile Roboter erhalten derzeit eine weltweite Aufmerksamkeit.
2.3 Geschichte der autonomen mobilen Robotik
Meistens verbinden die Menschen künstliche Intelligenz und autonome mobile Robotik eng miteinander. Schon vor der Dartmouth College Konferenz im Jahre 1956, als der Begriff ,,künstliche Intelligenz“ gestellt wurde, war man sich dessen bewußt, dass man autonome mobile Roboter interessante Aufgaben ausführen und lernen lassen konnte.
William Grey Walter hat in den frühen 1950er Jahren zwei mobile Roboter entwickelt. Durch Auf- oder Entladungen eines Kondensators, der elektrische Ladungen speichert hatte und dabei Gehirn-Neuronen simulierte, könnte der autonome mobile Roboter sich die Phototaxis realisieren und steuern. Mobiler Roboter von William Gery Walter wie folgende gezeigt.
Abbildung 1: Machina Speculatrix(Roboter von William Gery Walter)
1969 entwickelte Nils Nilsson in Stanford den mobilen Roboter SHAKEY. Dieser Roboter verfügte über einen visuellen Entfernungsmesser, eine Kamera und binäre Berührungssensoren und war über Funk mit einem DEC PDP 10 Computer verbunden. SHAKEY konnte Aufgaben ausführen wie Hindernisausweichen und Objektmanipulation, allerdings in einer sehr strukturierten Umgebung. Mobiler Roboter Shakey wie folgende gezeigt.
Abbildung 2: Mobiler Roboter Shakey
ln den 1970er Jahren wurde der JPL ROVER für Planetenexploration am Jet Propulsion Laboratory in Pasadena entwickelt. Der Roboter verwendete eine TV-Kamera, einen Laserentfernungsmesser und Berührungssensoren, um seine Umgebung in die Kategorien ,,navigierbar“, „nicht navigierbar” und „unbekannt“ einzuteilen und benutzte einen Trägheitskompaß mit Koppelnavigation.
Hans Moravec entwickelte ende der 1970er Jahre in Stanford den mobilen Roboter CART. CART nahm von einem bestimmten Ort aus neun Kamerabilder auf, erstellte daraus ein zweidimensionales Weltmodell, bewegte sich einen Meter weiter, wiederholte den Vorgang, und so weiter. Um die neun Bilder einer Position zu verarbeiten, brauchte er jeweils 15 Minuten: 5 Minuten für die Digitalisierung der 9 Photos; 5 Minuten für die Grobreduktion der Bilder, wobei Hindernisse als Kreise dargestellt wurden; und 5 Minuten zur Überarbeitung des Weltmodells und für die Routenplanung. CART war in der Lage, Hindernissen erfolgreich auszuweichen, wenn auch sehr langsam. Er hatte jedoch Schwierigkeiten, seine eigene Position korrekt zu bestimmen und kontrastarme Hindernisse zu identifizieren. Mobiler Roboter Cart wie folgende gezeigt.
Abbildung 3: Cart
Mobiler Roboter HILARE wurde in den späten 1970er Jahren als eines der ersten europäischen Projekte in der mobilen Robotik bei LAAS in Toulouse entwickelt. Mobiler Roboter
Abbildung 4: HILARE
3 Hauptteile und Schlüsseltechnologien
Es gibt einige Hauptteile und Schlüsseltechnologien für autonome mobile Roboter. In diesem Teil werden diese Hauptteile und Schlüsseltechnologien ausführlich gezeigt. z,B. Sensor und Aktor usw.
3.1 Sensoren und Aktoren
Sensoren dienen zur Erfassung von Eigenschaften der Umgebung und des Roboters selbst. Mit den Sensoren können autonome mobile Roboter die physikalischen Eigenschaften der Umgebung wie Temperatur, Helligkeit, Berührungswiderstand, Gewicht, Größe usw. messen. Ein Sensor empfängt ein physikalisches Signal und reagiert darauf mit einem elektrischen Ausgangssignal.
Abbildung 5: Sensor
Die Sensoren eignen sich für die Messung der Eigenschaften der Umgebung und des autonomen mobilen Roboters selbst. Die Sensoren und Aktoren werden als „intern“ oder „extern“ klassifiziert. Interne Sensoren können die Steuerungssoftware mit Daten über den Zustand des Roboters versorgen. z,B. über den Ladezustand der Batterien. Externe Sensoren können Daten über die Umwelt messen. z,B Art und Entfernung von Hindernissen.
Um die Entfernung zu Objekten vor einer Kollision zu messen, benutzt man Sensoren zur Entfernungsmessung. Diese gibt es gemäß drei wesentlichen Messprinzipien: Laufzeitmessungen, Phasendifferenzmessung und Triangulation. Unter einer Laufzeitmessung versteht man die Zeitmessung zwischen ausgesendetem Signal und empfangenem Echo.
Bei Phasendifferenzmessung würde man Längstwellen verwenden ( Bsp. eine Frequenz von 10,2 kHz im OMEGA-Navigationssystem ). Sendet Sender ein modulierten Sinussignal (Sinusschwingung) aus. Dann werden diese Sinussignale von Objekt zu Sensoren reflektiert zurück, dazwischen besteht die Phasendifferenz, vergleicht man nun das ursprüngliche mit dem reflektierten Signal und kann die Distanz damit errechnet werden .
Von der Triangulation würden wir wissen, dass ein Srahl ( von Laser oder Leuchtdiode erzeugt ) auf das Messobjekt fokussiert und mit einer CCD-Zeile oder einem PSD registriert das Streulicht. Bei Kenntnis der Strahlrichtung und des Abstandes zwischen Sensoren und Lichtquelle kann damit der Abstand vom Objekt zur Sensoren mit Hilfe von Winkelfunktionen bestimmt werden.
Aktoren dienen zur Manipulation des Roboters und der Umgebung. Interne Aktoren können den Zustand des Roboters verändern. Externe Aktoren dienen zur Fortbewegung oder zum Bewegen von Objekten.
Als interner Aktor wird meistens der Elektromotor in der mobilen Robotik verwendet. Im allgemeinen ist der Elektromotor ein Gleichstrommotor oder ein Schrittmotor. (Ein Schrittmotor ist ein Synchronmotor, bei dem der Rotor durch ein gesteuertes, schrittweise rotierendes, elektromagnetisches Feld der Statorspulen um einen minimalen Winkel (Schritt) gedreht werden kann). Der Gleichstrommotor ist am einfachsten zu steuern, da Gleichstrom nur einfach durch den Transistor als Schalter gesteuert werden könnten. Der Schrittmotor eignet sich für sehr präzise Bewegungen, das heißt, dass die Steuerung präzise per Software möglich ist. Um den Motor in Schritt zu bringen, legt man die Mittelanzapfungen auf Masse, so hat man also beispielweise 4 Anschlüsse. Legt man nun an zwei dieser Anschlüsse die Spannung an, bewegt sich der Motor nur einen winzigen kaum sichtbaren Schritt.
In diesem Teil werden nun einige wichtige Sensoren und Aktoren gezeigt. Zunächst ist die Vorstellung von den Sensoren. Mobile Roboter interagieren mit ihrer Umgebung, die sie mit Sensoren wahrnehmen. Roboterprogrammierung erfordert folglich das Verarbeiten von Sensordaten. Der Aufbau und die Funktion von Sensoren haben einen entscheidenden Einfluss auf die Konzeption der Programme. Daher skizziert dieser Teil die gebräuchlichsten Sensoren für mobile Roboter. Die folgende Abbildung 6 zeigt einige verschiedene Sensor. In diesem Teil werden auch Kamera, Laserscanner, Ultraschallsensor und Infrotsensor und andere gebräuchlichste Sensoren vorgestellt.
Abbildung 6: die verschiedene Sensoren
3.1.1 Abstandssensoren
Durch Kontaktsensoren erkennt autonomer mobiler Roboter den Abstand Null zu einem soliden Objekt. Mit diesen Abstandssensoren kann autonomer mobiler Roboter die Daten messen, die sich für die Kollisionsvermeidung eignen. Die Daten von Abstandssensoren spielen eine sehr wichtige und hilfreiche Rolle für die Lokalisierung und die Navigation des autonomen mobilen Roboters. Mit diesen Abstandssensoren kann man die Form der Umgebung und den Abstand dazu exakt erfassen. Diese Sensoren messen die Signallaufzeit, das ist die Zeit, die ein Signal braucht, um sich bis zu einem Objekt in der Umgebung und zurück zu bewegen, woraus der Abstand zum Objekt bestimmt wird. Diese Sensoren sind die aktive Sensoren. Aber im Gegensatz zu passiven Sensoren, wie zum Beispiel einer Kamera, können diese Abstandssensoren aktiv Signale aussenden. Sie haben aber grundsätzlich auch den Nachteil, z,B. die Sensorik der anderen Roboter zu stören, wenn viele Roboter verwendet werden. Für die Signale gibt es hier nur Schall und elektromagnetische Wellen verschiedener Frequenzen. z,B. Licht (besonders Infrarotlicht und Laserlicht) und Radiowellen (Radar) sowie Schall mit hohen Frequenzen, also Ultraschall.
3.1.1.1 Stoßfänger
Stoßfänger sind nicht mittelbare Kollisionssensoren. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, werden diese Sensoren dann aktiviert. Die Sicherheit ist sehr wichtig für autonome mobile Roboter. In diesem Aspekt können Stoßfänger eine sehr wichtige Rolle spielen. Mit Stoßfänger können autonome mobile Roboter erkennen, was ist nicht sicher. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, wird ein Signal dann gesendet, um die Bewegung der autonomen mobilen Roboter zu verhindern.
3.1.1.2 Ultraschall
Wegen der niedrigen Kosten, der einfachen Durchführung und der entwickelten Technologie ist Ultraschallsensor jetzt ein häufig verwendeter Entfernungsmesser in den autonomen mobilen Roboter.
Wenn sich die Geschwindigkeit des Ultraschalls in der Luft auf der Temperatur und der Feuchtigkeit bezieht, sind deshalb die Temperatur und der Feuchtigkeit für exakte Messung sehr wichtig. In den meisten Fällen sind die Ausbreitungsgeschwindigkeit der Ultraschallausbreitung in der Luft etwas niedriger, aber die Ausbreitungsgeschwindigkeit der Ultraschallausbreitung in der Flüssigkeit oder in dem Festkörper sind etwas höher. Die Folgende ist eine Beispiel-Tabelle vom Zusammenhang von der Temperatur und der Ausbreitungsgeschwindigkeit vom Ultraschall.
Temperatur
(℃) |
-30 |
-20 |
-10 |
0 |
10 |
20 |
30 |
100 |
Ausbreitungsgeschwindigkeit
(m/s) |
313 |
319 |
325 |
333 |
338 |
344 |
349 |
386 |
Die Mindestreichweiten vom Ultraschall sind von 30 bis 40 cm. Wenn die Hindernisse näher liegen, kann Ultraschallsensor diese Hindernisse nicht sicher erkennen. Typische maximale Reichweiten liegen zwischen 4 und 10 Metern.
Ultraschall-Entfernungsmesser, kurz Ultraschallsensoren genannt, senden zyklisch einen kurzen, hochfrequenten Schallimpuls aus. Dieser verbreitet sich mit Schallgeschwindigkeit in der Luft. Trifft er auf ein Objekt, wird er dort reflektiert und gelangt als Echo zurück zum Ultraschallsensor.
Die Zeitspanne zwischen dem Aussenden des Schallimpulses und dem Empfang des Echosignals entspricht der Entfernung zum Objekt, und der Sensor gibt diesen Wert geeignet codiert aus (z.B. als Spannungssignal analog oder digital). Da die Entfernung zum Objekt über eine Schall laufzeitmessung und nicht über eine Intensitätsmessung bestimmt wird, haben Ultraschallsensoren eine ausgezeichnete Hintergrundausblendung. Nahezu alle Materialien, die den Schall reflektieren, werden detektiert – unabhängig z.B. von ihrer Farbe.
Selbst glasklare Materialien oder dünne Folien stellen kein Problem dar,auch nicht Staub und Nebel. Handelsübliche Ultraschallsensoren erlauben Entfernungsmessungen bis 10m und können den Messwert mit millimetergenauer Auflösung erfassen.
Es gibt einen Blindbereich für Ultraschallsensoren, der nahe am Sensor steht, in dem nicht gemessen werden kann. Messungen finden nur innerhalb eines Öffnungswinkels statt. Abbildung 7 zeigt den Messbereich eines Ultraschallsensors. Die dunkel grauen Bereiche werden mit einem dünnen Rundstab mit definiertem Durchmesser ausgemessen und zeigen den typischen Bereich des Sensors, in dem Abstände zuverlässig bestimmt werden. Um die hellgrauen Bereiche zu erhalten, wird eine Platte definierter Größe von außen in die Schallfelder geführt. Hierbei wird immer der optimale Winkel der Platte zum Sensor eingestellt. Dies ist somit der maximale Erfassungsbereich des Sensors. Außerhalb der hellgrauen Schallkeulen ist eine Auswertung von UltraschallReflexionen nicht mehr möglich. Abbildung 7 veranschaulicht die Vorgehensweise. Dies zeigt, dass bei Ultraschallsensoren nicht nur die Entfernung zu Objekten, sondern auch der Auftreffwinkel des Schalls und somit die Form der Objekte relevant ist. Dies erschwert die Auswertung der Messwerte. Die Folgende ist die Darstellung vom messbereich eines Ultraschallsensors
Abbildung 7: messbereich eines Ultraschallsensors
Aber wegen des größeren Abstrahlwinkels und der schlechten Richtcharakteristik gibt es auch einige Beschränktheiten für Ultraschallsensor. In diesem Fall werden mehrere Ultraschallsensoren oder andere Sensoren für Ausgleich verwendet. Die Größe der Öffnungswinkel der Ausbreitungskegel üblicher Ultraschallwandler (α = 35◦, Polaroid Sensor) sind einerseits geeignet für Kollisionsvermeidung, andererseits wird aber die genaue Erfassung der Form der Umgebung erschwert, weil die Winkelauflösung dementsprechend grob ist. Bessere Winkelauflösungen wären zwar mit entsprechend höheren Frequenzen im MHz Bereich zu erreichen, mit denen sich ein besser fokussiertes Signal realisieren ließe, Signale dieser hohen Frequenzen werden jedoch stark von der Luft absorbiert und führen deshalb zu deutlich kleineren Reichweiten.
Bei der Bewegung können autonome mobile Roboter zu jeder Zeit vielleicht auf ein Hindernis stoßen. In diesem Fall kann Ultraschallsensor eine wichtige Rolle spielen. Mit dem Ultraschallsensor können autonome mobile Roboter einige nützliche Informationen über Hindernis erkennen. Deshalb ist Ultraschallsensor ein sehr wichtiger Sensor für autonome mobile Roboter.
3.1.1.3 Infrarot
Roboter verwenden oft auch Infrarotsensoren, die ebenfalls ringförmig am angebracht sind. Die Sensoren emittieren einen modulierten infraroten Lichtimpuls. Sensoren empfangen nur ein Signal, sie senden keines aus. Wegen der entwickelten Technologie sind Infrarotsensoren (IR) wohl die einfachsten der kontaktlosen Sensoren und werden in der autonomen mobilen Robotik vielfach in der Hinderniserkennung verwendet.
Infrarotsensoren können ein infrarotes Lichtsignal empfangen!. Nach der Strahlung der Objekte dieses Lichtsignals kommt eine Reflexion.Wenn die Infrarotsensoren das Lichtsignal empfängt, werden die Daten der Zeitdifferenz von der Aussendung und dem Empfang mit den Bilder erledigt.
Infrarotsensoren haben gute Entstörung. Wegen des kleineren Abstrahlwinkels sind Infrarotsensoren wichtige Sensoren für die Hindernisvermeidung. Infrarotsensoren haben gute Empfindlichkeit, die für das Erkennen des Hindernises sehr hilfreich ist.
Die Entfernungsgenauigkeit dieser Infrarot-Sensoren liegt bei ca. 30 cm bei Reichweiten um 5 Meter. Im Vergleich zu den Ultraschallsensoren haben Infrarot-Sensoren eine bessere Winkelaudlösung. Es gibt auch einige Hauptgründe für Fehlmessungen, z,B. Absorption, Totalreflektion und Fremdsignale (wie z.B. direktes Sonnenlicht).
Abnildung 8: die verschiedenen Infrarotsensoren
3.1.1.4 Laser
Mit Laser-Sensoren können autonome mobile Roboter die Informationen mit der Lasertechnik messen. Weil Laserscanner gerade im letzten Jahrzehnt in der mobilen Robotik durchgesetzt wird, sind deshalb Laser-Sensoren neue Werkzeuge für die Messung.
Die Eigenschaften der Laser-Sensoren sind die schnelle Geschwindigkeit, die hohe Präzision usw. Mit diesen Laser-Sensoren können autonome mobile Roboter den Platz messen. Laserentfernungsmesser (auch Laserradar oder Lidar) werden heute häufig in der mobilen Robotik eingesetzt, um die Entfernung, Geschwindigkeit und Beschleunigungsrate von wahrgenommenen Objekten zu messen. Auf dem Roboter ARS sowie auf vielen anderen mobilen Robotern kommt als Laser-Entfernungssensor der PLS (Proximity Laser Scanner) der Firma SICK Optic Electronic Company zum Einsatz. Der Sensor wurde ursprünglich zur Überwachung von gefährlichen Regionen, etwa dem Arbeitsbereich eines Industrieroboters, entwickelt.
Der Scanner hat eine Reichweite von 20 m, eine Winkelauflösung von 0.5 Grad bei einem Scanbereich von 180 Grad in einer Ebene und eine Entfernungsgenauigkeit von 5 cm. Der Sensor kann nach Wahl 360, 180, 90, 45, 30, 15, 10 oder 9 Entfernungswerte pro Scan über die serielle RS 232 Schnittstelle senden.
Der Sensor arbeitet mit Laufzeitmessung des reflektierten Lichts. Eine hochauflösende Uhr misst die Zeit zwischen der Aussendung eines extrem kurzen Lichtimpulses und der Detektion eines Signals durch den Empfänger. Ein Spiegel leitet den Laserstrahl um und rotiert dabei mit einer Frequenz von 12 Hz. Das reflektierte Signal gelangt durch den halbdurchlässigen Spiegel zum Empfänger.
Abbildung 8: 1D-Laser Abstands Messsystem Leica Disto (Modell: D810 Touch)
Sie basieren jeweils auf einem Laserabstandsmesssystem,das einen Laserstrahl in einer Richtung aussendet und über Lichtlaufzeitmessung oder Phasendifferenzmessung die Entfernungbis zumnächsten Objekt in Laufrichtungmisst. Solch ein Basis-Messgerät ist gewissermaßen ein 1D-Laserabstandsmesssystem, weil es die Entfernung zu einem Raumpunkt misst. Sie sind aus dem Heimoder Handwerkerbereichbekannt, s. Abbildung 8.
Dort verwendet man Laserlicht im sichtbaren Spektralbereich, um den Raumpunkt sehen zu können, zu dem gerade die Entfernung gemessen wird. Solche 1D-Sensoren werden auf mobilen Robotern üblicherweise nicht eingesetzt, verdeutlichen aber das Messprinzip.
3.1.1.4.1 2D-Laserscanner
Mobile autonome Roboter müssen durch unbekannte Umgebungen navigieren können, um ihre Aufgaben wie Post austragen oder Staub saugen zu erledigen.
Für diese grundlegenden Navigationsaufgaben standen bisher nur 2D−Laserscanner zur Verfügung, mit denen lediglich eine horizontale Abtastung der Umgebung möglich war. Derartige Systeme sind insbesondere nicht in der Lage, Hindernisse wie Tische oder Objekte mit überstehenden Kanten außerhalb der Scan−Ebene zu erfassen.
2D-Laserscanner erweitern 1D-Laserentfernungssensoren. Zum Erzeugeneiner einzelnen Zeile wird ein Spiegel rotiert,andem der Laserstrahl reflektiert wird. Dadurch entstehen verschiedene Scanbereiche, üblicherweise 90◦, 180◦ oder 270◦. Diese Bereiche werden mit Winkelauflösungen von 1◦, 0.5◦ oder 0.25◦ abgetastet. Diese Scanner wurden als Sicherheitssensoren entwickelt.
Abbildung 9: 2D-Laserscanner der Firma Sick (Modell: LMS5xx2D)
3.1.1.4.2 3D-Laserscanner
3D ist ein aktueller Trend in der Robotik. Die Entwicklung von 3D-Sensorik schreitet schnell voran. Der 3D−Laserscanner ist als Sensor für autonome mobile Roboter geeignet und basiert auf einem 2D−Scanner, wie sie heute schon üblicherweise auf autonomen Robotern eingesetzt werden.
3D-Laserscanner messen Entfernungen zu Objekten im dreidimensionalen Raum. Dabei wird einem 2D-Laserscanner entweder ein zweiter Drehspiegel hinzugefügt, oder ein kompletter 2D-Scanner wird gedreht.
Abbildung 10: 3D−Laserscanner für Roboter Dimension Inspektion (Modell: MetraSCAN 3D™ R-Series)
Weitere Anwendungsgebiete für den 3D−Laserscanner sind beispielsweise: Für Facility Managenent Systeme. Diese benötigen aktuelle Informationen über Gebäude. Es wird versucht, ein digitales Gebäudemodell aktuell zu halten.
Für Objektklassifikationssysteme. Es wird versucht, aus den 3D Informationen (Tiefenbildern) Objekte zu klassifizieren.
Für 3D−Überwachungssysteme. Hierbei werden Einrichtungen und Anlagen überwacht, um zum Beispiel den Sicherheitsbereich von Maschinen zu kontrollieren.
3.1.2 Sensoren für Koppelnavigation
Koppelnavigation ist eine Methode zur relativen Positionsbestimmung. Mit allen Sensoren vom autonomen mobilen Roboter können diese Sensoren für Koppelnavigation die Bewegungsinformationen vom autonomen mobilen Roboter erfassen. Durch Rekursionsformel können diese Sensoren für Dead-Reckoning die abgeschätzte Position vom autonomen mobilen Roboter bekommen.
Koppelnavigation ist die laufende näherungsweise Ortsbestimmung eines bewegten Objekts aufgrund von Bewegungsrichtung (Kurs) und Geschwindigkeit (Fahrt). Mit diesen Sensoren für Koppelnavigation werden kleine Positionsveränderungen des Roboters bestimmt. Dazu werden alle Positionsveränderungen über die Zeit aufsummiert. Diese Koppelnavigation-Sensoren sind meistens direkt im Antrieb des Roboters integriert. Geeignete Sensoren (wie Drehgeber) sind an den Antriebsachsen des Roboters platziert. Da auch die Kraftübertragung über die Antriebsachsen erfolgt, besteht hier die Gefahr, dass ein evtl. auftretender Schlupf die Messungen verfälscht. Breite Räder oder Kettenantriebe führen zu Schlupf und somit zu Ungenauigkeiten. Weiche Räder können je nach Belastung den Umfang verändern und deshalb ebenfalls die Odometrie verfälschen. Deshalb werden in manchen Fällen passiv mitlaufende Räder benutzt, um die Positionsveränderung zu messen.
Zudem eignen sich für Koppelnavigation alle Sensoren, die die Geschwindigkeit des Roboters relativ zur Umwelt messen. Aber diese Koppelnavigation-Sensoren sind nicht geeignet für die präzise Messung, die lange Zeit braucht und eine Langstrecke hat.
Koppelnavigation eignet sich für die inertiale Positionsbestimmung. Der Begriff „die inertiale Positionsbestimmung“ leitet sich vom Prinzip der Massenträgheit ab. Die inertiale Messeinheit mit ihren Beschleunigungs- und Drehratensensoren berechnet jede Lageänderung des Fahr- oder Flugzeugs aus den Beschleunigungen der internen quantitativ bekannten Massen, auch seismische Massen genannt.Diese Koppelnavigation-Sensor macht die Positionsbestimmung einfach.
3.1.3 Kamera
Die Eigenschaften des Sensors Kamera sind breiter Detektionsbereich, reiche Informationen. Durch Kamera können die dreidimensionale Objekte zur zweidimensionalen Form wechseln. Durch die Bildverarbeitung werden die Bilder der Objekte exportiert.
Der Sensor Kamera nimmt einzelne Bilder mit Pixelsensoren auf und stellt sie dem Roboter in digitaler Form zur Verfügung. Die Pixelsensoren sind die Sensoren, die mit verschiedenen Pixeln entwickelt werden. Ein Pixel oder Bildpunkt bezeichnet das kleinste Element einer Rastergrafik. Eine Rastergrafik setzt ein Bild aus vielen Bildpunkten. Der Anschluss von Kameras an den Steuerrechner erfolgt üblicherweise mit Hilfe von Usb oder Firewire. Über Algorithmen werden die Form, die Distanz und die Geschwindigkeit und andere nützliche Informationen bestimmt. Mit der Bildfrequenz eines Kameras werden die Distanz und die Geschwindigkeit der Objekte gemessen. Die Relativverschiebung nach der Bewegungsbilder der Aufnahme wird durch den SSD (sum of squared differences) Algorithmus gerechnet. Aber bei der Bildverarbeitung brauchen die Methoden wie Schärfen und Merkmalextraktion viel Zeit. Deshalb gibt es vielleich auch einige Einschränkung. Optische Entfernungsmessung kann die transparente Hindernisse wie Glas usw. nicht erkennen.
Zudem haben die Lichtstärke und der Rauch einen offensichtlichen Einfluß auf optische Sensoren. Deshalb sind die Lichtbedingungen sehr wichtig und hilfreich für Visionsensor. Wenn es eine gute Lichtbedingung gibt, können viele schlechte Resultat vermieden werden.
3D-Kameras
Seit einigen Jahren werden 3D-Kamera entwickelt. Diese Kameras verwenden zusätzliche Laserdioden, die die Szene mit moduliertem Licht beleuchten.
Abbildung 11: ein Roboter mit 3D-Kameras
3.1.4 Berührungssensoren
Die Berührungssensoren sind die wichtige Technik für Autonome mobile Roboter. Die Berührungssensoren können physikalischen Kontakt mit einem Objekt feststellen. Genauer gesagt messen sie eine physikalische Veränderung, die normalerweise durch physikalischen Kontakt mit einem Objekt hervorgerufen wird. Die einfachsten Berührungssensoren sind Mikroschalter oder Fühlersensoren.
Wenn eine Stoßleiste mit einem Objekt in Berührung kommt, wird dadurch ein Mikroschalter geschlossen und schließt einen Stromkreis, was vom Rechner des Roboters erkannt wird.
Andere einfache Berührungssensoren beruhen zum Beispiel auf Dehnungsmeßstreifen oder piezoelektrischen Sensoren. Piezoelektrische Sensoren arbeiten mit dem piezoelektrischen Effekt und haben sich als universelles Instrument zum Messen verschiedener Prozesse erwiesen. Sie werden für die Bestimmung von Druck, Beschleunigung, Spannung, Kraft oder als Gassensor in der Qualitäts- sowie in der Prozesskontrolle eingesetzt.
3.1.5 Sensorsignale sind interpretationsbedürftig
Es wird klar aus der Beschreibung der verschiedenen Sensoren und Aktoren, die in der autonomen mobilen Robotik zur Verfügung stehen, daß die Sensoren ausschließlich bestimmte physikalische Eigenschaften wahrnehmen können, die in irgend einem, zunächst vagen, Zusammenhang mit der Information stehen, die der Roboter tatsächlich benötigt.
Die folgende sind die Weise der Interpretation der Sensorsignale. Es gibt nur Mikroschalter, Sonarsensoren, Infrarotsensoren usw., deren Signal die An- oder Abwesenheit eines Objekts angibt. Es ist aber durchaus möglich, daß der Mikroschalter ein Signal auslöst, nur weil der Roboter über eine Bodenwelle fährt; oder ein Sonarsensor meldet ein Hindernis aufgrund von Übersprechen (crosstalk); oder ein Infrarotsensor entdeckt möglicherweise ein Objekt nicht, weil es schwarz ist und deshalb kein Infrarotsignal reflektiert.
3.1.6 Datenfusion der Multisensoren
Wenn verschiedenene und sehr viele Sensoren verwendet werden, gibt es für jeden Sensor einige Verwendungsbedingungen und Wahrnehmungsbereiche. Jeder Sensor kann auch einige Informationen über die Umgebung oder die Objekte wahrnehmen. Wenn man die Informationen, die von jedem Sensor wahrgenommen werden, effktiv verwenden möchte, sollen diese Informationen mit einer Form zusammen erledigt werden. Das Prozess bezeichnet man als Datenfusion der Multisensoren. Weil Sensoren verschiedene Charakteristiken aufweisen und unterschiedliche Vor-und Nachteile haben, ist Datenfusion eine außer ordentlich schwierige Aufgabe.
Die Technik der Datenfusion der Multisensoren ist eine der Schlüsseltechnologien für autonome mobile Roboter. Die Menschen begannen schon in den 80er Jahren des 20. Jh diese Technik der Datenfusion der Multisensoren zu erforschen. Datenfusion bedeutet, dass alle Informationen integriert verarbeitet werden, die von vielen verschiedenene Sensoren wahrgenommen werden. Diese Technik der Datenfusion der Multisensoren umfasst die Komplementarität, die Redundanz, die Rechtzeitigkeit und die niedrige Kosten der Informationen. Deshalb können autonome mobile Roboter mit der Technik der Informationsfusion der Multisensoren die Eigenschaften der Umgebung genauer und umfassender zeigen. Es ist hilfreich dafür, dass autonome mobile Roboter die richtige Beurteilung machen. Diese Technik der Datenfusion der Multisensoren kann die Schnelligkeit, die Genauigkeit und die Stabilität anbieten.
Nach der Datenfusion der Multisensoren werden die Informationen zum Kontrollzentrum übertragen. Dann macht das Kontrollzentrum die Beurteilung. Dann wird die Beurteilung zum Aktor übertragen. Zum Schluss werden autonome mobile Roboter entsprechende Aktion machen.
3.2 Aktoren
3.2.1 Elektrisch, pneumatisch, hydraulisch
Autonome mobile Roboter können die Arbeit automatisch machen und können nicht nur die Anweisung der Menschen akzeptieren, auch können nach vorprogrammierten Programme selbst arbeiten.
Autonome mobile Roboter können die menschliche Arbeiten ersetzen. z,B. Bereiche vom der Herstellung oder einigen gefährlichen Arbeitsbereichen. Der Aktorentyp, der in der autonomen mobilen Robotik am häufigsten verwendet wird, ist der Elektromotor, normalerweise ein Gleichstrommotor oder ein Schrittmotor.
Im Allgemein versteht man Aktoren als die Teile eines Roboters, die physikalische Aktionen durchführen können. Das Antriebsgerät ist eine Vorrichtung, die die Aktoren für Bewegung antreibt.
Die Aktoren kann die Bewegung oder die Arbeitssituation des autonomen mobilen Robotik zu jeder Zeit erkennen. Diese Detektionsgerät sind sehr hilfreich dafür, dass die Bewegung vom autonomen mobilen Roboter den vorherbestimmten Anforderungen entsprechen. Es gibt eine spezielle Form von Aktoren Manipulatoren, die Veränderungen der Umwelt zulassen (Handhabungsaufgaben wie z.B. Objekte greifen und absetzen, bohren, schweißen). Einige Aktoren besitzen eine interne Regelung, die die gegebenen Soll-Werte bestmöglich umzusetzen versucht. Dennoch kann man davon ausgehen, dass jeder Aktor fehlerbehaftet ist und dass einige Aktionen unter bestimmten Bedingungen nicht korrekt ausgeführt werden können.
Die Aktoren von einem autonomen mobilen Roboter dienen zur Veränderung seiner Position in der Umgebung. Dies können ein Fahrwerk mit Rädern, Ketten, Beine zum Laufen oder Springen oder andere Fortbewegungsmechanismen zum Schwimmen, Fliegen, Rollen sein. Es gibt sehr viele Fortbewegungsarten, welche alle ihre Vor- und Nachteile haben. Beine ermöglichen z.B. eine sehr flexible Fortbewegung und sind insbesondere in unwegsamem Gelände nützlich.
Aber die Ansteuerung ist sehr komplex. Außerdem lassen sich mit Rädern auf glattem Untergrund im Allgemeinen höhere Geschwindigkeiten erreichen. Viele Arbeiten eignen sich für spezielle Fortbewegungssystemen und deren Kontrolle. In dieser Arbeit soll jedoch darauf nicht weiter eingegangen werden, sondern es werden beispielhaft nur rollende Roboter, die vorwärts und rückwärts fahren und sich dabei drehen können, betrachtet. Dies schließt jedoch nicht aus, dass sich die hier vorgestellten Konzepte auf Roboter mit anderen Fortbewegungssystemen und sogar mit völlig anderen Aktoren übertragen lassen.
3.2.2 Nicht-holonomische und holonomische Bewegung
Die Bewegungsmöglichkeiten eines Roboters können durch die Grenzen, die dieser Bewegung gesetzt sind, charakterisiert werden. Nicht-holonomische Systeme unterliegen Beschränkungen, die mit Geschwindigkeiten zu tun haben, während holonomische Einschränkungen von Geschwindigkeiten unabhängig sind. Ein Beispiel für die nicht-holonomische Beschränkung ist die Bewegung eines Rades um seine Achse. Die Geschwindigkeit des Kontaktpunktes zwischen Rad und Boden der sog. Momentanpol, ist in Achsenrichtung auf Null beschränkt, die Radbewegung unterliegt daher einer nicht-holonomischen Bewegungseinschränkung.
4 Navigation
Die Navigationstechnik ist die Kerntechnologien für autonome mobile Roboter. Für einen autonomen mobilen Roboter ist Navigation eine der wichtigsten Fähigkeiten.
An erster Stelle steht natürlich die Notwendigkeit, überhaupt betriebsfähig zu bleiben, also gefährliche Situationen wie Zusammenstöße zu vermeiden und akzeptable Betriebsbedingungen aufrecht zu erhalten (Temperatur, Strahlung, Witterungsschutz usw.). Wenn der autonome mobile Roboter jedoch Aufgaben ausführen soll, die sich auf bestimmte Orte in der Roboterumgebung beziehen, dann muss er navigieren können. Die Navigation der autonomen mobilen Roboter ist eine Domäne, die seit vielen Jahren von vielen Forschungsgruppen untersucht wird. Es gibt bereits mehrere Robotersysteme, die hervorragend in ihrer Umgebung navigieren können.
Man kann Navigation als eine Kombination der folgenden drei Kompetenzen definieren: Selbstlokalisierung, Routenplanung, Kartenerstellung und Karteninterpretation. Der Begriff Karte steht in diesem Zusammenhang für jede direkte Zuordnung oder Abbildung von Einheiten in der wirklichen Welt auf Einheiten innerhalb einer internen Repräsentation. Diese Repräsentation gleicht nicht unbedingt einer gewöhnlichen Landkarte oder einem Stadtplan. Bei Robotern zum Beispiel besteht eine ,,Karte“ häufig aus den Erregungsmustern künstlicher neuronaler Netze. Lokalisierung steht für die Kompetenz des autonomen mobilen Roboter, seine eigene Position innerhalb eines Bezugssystems feststellen zu können.
Routenplanung ist im Prinzip eine Erweiterung der Lokalisierung, da der autonomen mobilen Roboter seine gegenwärtige Position und die angestrebte Ziel position innerhalb ein und desselben Bezugsystems bestimmen muss. Die Kompetenz des Kartenerstellens bezieht sich nicht nur auf Karten, wie wir sie normalerweise benutzen, d.h. metrische Karten der Umgebung, sondern auf jegliche Art der Beschreibung von Positionen innerhalb des Bezugsystems. Dazu gehört auch,Informationen über erkundetes Terrain festzuhalten. Schließlich benötigt man für den Umgang mit Karten auch die Fähigkeit, sie zu interpretieren.
Durch die Navigation eines autonomen mobilen Roboters kann man drei Fragen „Wo bin ich?“, „Wohin gehe ich?“ und „Wie gelange ich dorthin?“ erfassen. Es gibt viele Navigationsweise für Autonome mobile Roboter. z,B Visionbasierte Positionierung, Lichtreflexion Positionierung, das Global Positioning System (GPS), Ultraschallpositionierung, SLAM (simultaneous localization and mapping) Technologien usw.
Jede Navigation hat eigene Eigenschaften und eignet sich für unterschiedliche Anwendungsbereiche. Die Navigation ist eine der wichtigsten Aufgaben eines autonomen mobilen Roboters.
4.1 Selbstlokalisierung
Dieser Teil stellt Methoden zur Selbstlokalisierung eines autonomen mobilen Roboters vor. Die Aufgabe hierbei ist, die Position des Roboters aufgrund einer apriori Umgebungskarte und Sensordaten des Roboters zu bestimmen.
Zur Bestimmung der Position in einem globalen Bezugssystem gibt es integriete Sensoren. Generell unterscheidet man zwischen zwei verschiedenen Selbstlokalisierungsproblemen: globale Selbstlokalisierung und lokale Selbstlokalisierung.
4.1.1 Globale Selbstlokalisierung
Bei der globalen Selbstlokalisierung wird der autonome mobile Roboter an einen beliebigen Ort gestellt und dem System wird die Gelegenheit gegeben, die Umwelt mit den Sensoren des Roboters zu beobachten.
Das System muss dann durch Beurteilung der Sensorinformationen entscheiden, an welchen möglichen Positionen der autonome mobile Roboter sich befinden kann. Der Prozeß, um diese Entscheidung zu treffen, ist im allgemeinen aufwendig und benötigt je nach Größe des Suchraums entsprechend viel Rechenzeit.
GPS
Gps (englisch. global positioning system, deutsch. das globale Positionsbestimmungssystem) ist ein weit verbreitetes Sensorsystem für autonome mobile Roboter. Der Begriff Gps wird aber im Allgemeinen für das Navstar-Gps (engl. Navigational Satellite Timing and Ranging – Global Positioning System) des US Verteidigungsministeriums verwendet, das seit 1995 zur weltweiten Positionsbestimmung und Zeitmessung verwendet werden kann. Abbildung 12 zeigt einen Navstar-Satelliten und einen Gps-Empfänger.
Satellitensignale von mindestens vier Satelliten werden mit kleinen und mobilen Empfangsgeräten detektiert. Um die Laufzeiten der Signale gering zu halten, befinden sich die Satelliten im erdnahen Orbit, decken aber nur einen kleinen Teil der Erdoberfläche ab. Mindestens 24, besser 32 Satelliten werden benötigt, um eine vollständige Abdeckung zu erreichen.
Bei der Standortbestimmung misst man die Laufzeit zu mindestens vier Satelliten. Jede dieser Entfernungen definiert eine Kugeloberfläche um den zugehörigen Satelliten, auf der sich der Empfänger befindet.
Zwei Kugeln schneiden sich in einem Kreis, drei Kugeln ergeben maximal zwei Punkte als Schnittmenge, wenn man vom geometrischen Fall mit gleichem Radius und Mittelpunkt absieht, was in der Praxis nie erreicht werden kann. Verwendet man Hintergrundwissen und verwirft den weniger wahrscheinlichen Schnittpunkt, lässt sich die Position bestimmen.
Abbildung 12: Navstar - GPS Satellite Network
4.1.2 Lokale Selbstlokalisierung
Bei der lokalen Selbstlokalisierung dagegen ist die ungefähre Position des Roboters bereits bekannt und es soll „nur“ eine Positionskorrektur berechnet werden. Dies ist der Fall, wenn der Roboter an einer ungefähr bekannten Position aufgestellt wird und dann fortlaufend seine Position durch Abgleich der Sensordaten mit Umgebungskarte bestimmt.
Zunächst wird eine bekannte Selbstlokalisierungsmethode, die Koppelnavigation, vorgestellt, welche Sensordaten der Odometrie auswertet. Dieses Verfahren wird in den meisten Robotersystemen eingesetzt.
Bei der Koppelnavigation wird die Positionsänderung eines Fahrzeugs durch Messen des zurückgelegten Weges eines oder mehrere Räder bestimmt. Zu diesem Zweck sind an den Rädern Sensoren angebracht, welche die Drehbewegung des jeweiligen Rades messen. Zusätzlich kann ein Kreiselkompaß verwendet werden, um die Orientierung des Roboters zuverlässiger zu bestimmen.
Lokalisierungsmethoden lassen sich allgemein in die drei Kategorien verhaltensbasierte Ansätze, Landmarkenlokalisierung und dichte Sensordaten vergleichende Verfahren einteilen. Verhaltensbasierte Ansäze beruhen auf der Interaktion von Roboteraktionen mit der Umwelt, um zu navigieren.
Zum Beispiel folgte Connell's Roboter Herbert einer Faustregel, um durch eine Büroumgebung zu fahren und seinen Weg zurückzunden, indem die Prozedur der Hinfahrt rückwärts angewandt wurde [Connell, 1990]. Weiter verfeinerte Systeme lernen interne Strukturen, die „abgespielt“ werden können, um Aktionen zu wiederholen oder rückgängig zu machen [Arkin, 1990].Während verhaltensbasierte Systeme für bestimmte Aufgaben sehr nützlich sind, ist ihre Fähigkeit einen Roboter geometrisch zu lokalisieren begrenzt, da die Navigationsfähigkeit implizit in der Sensor- und Aktionshistorie liegt. Landmarkenlokalisierung beruht auf der Erkennung von Landmarken, um den Roboter geometrisch zu lokalisieren.
Die Landmarken können können a priori gegeben sein (z.B. die Satelliten im GPS-Navigationssystem oder in der Umgebung angebrachte Marken, die mit speziellen Mustern oder auffälligen Farben versehen sind), oder vom Robotersystem in einer Explorationsphase gelernt werden (z.B. Sonar-Landmarken [Leonard et al., 1990].) Während Landmarkenlokalisierung beeindruckende Ergebnisse in geometrischer Lokalisierung erreichen kann, muß entweder die Einsatzumgebung vorher eingerichtet werden oder natürliche Landmarken effizient und robust erkannt werden können.
Im Gegensatz hierzu, versuchen dichte Sensordaten vergleichende Verfahren die gesamte verfügbare Sensorinformation zu verwenden, um die Roboterposition zu bestimmen. Dies wird dadurch bewerkstelligt, dass dichte Sensorscans mit einer Oberflächenkarte der Umgebung verglichen werden ohne dabei Landmarken aus den Sensordaten zu extrahieren. Daher können dichte Sensordaten vergleichende Verfahren sich beliebige in den Sensordaten vorhandene Merkmale zum Vorteil machen, ohne dabei explizit diese Merkmale zu denieren.
4.2 Weltmodelle für Navigation
Weltmodelle für Navigation der autonomen mobilen Roboter sind zumeist zwei-dimensionale, geometrische oder topologische Karten. Die dritte Dimension in die Karten mit aufzunehmen, macht das Modell für die Navigation meistens unnötig komplex. Topologische Karte ist eine mittel- bis großmaßstäbige Karte, die zur genauen Abbildung der Geländeformen (Topografie) und anderer sichtbarer Details der Erdoberfläche dient. Das Gelände wird in der Regel durch Höhenlinien dargestellt, ergänzt um markante Höhenpunkte (Gipfel, Sättel usw.) und den Verlauf der Gewässer. Ein topologischer Karte wird verwendet, um Informationen, die nicht unbedingt auf präzisen Geographie konzentriert zu vermitteln. Die Karte wird vereinfacht, um einen allgemeinen Überblick über eine Fläche bereitzustellen, so dass die Informationen auf der Karte ist klarer und leichter zu lesen. Typische Beispiele eines topologischen Karte gehören ein U-Bahn-Karte, eine Karte mit Wegbeschreibungen zu einem Geschäfts enthalten, oder eine Karte verwendet werden, um Statistiken, wie zum Beispiel Internet-Nutzung in Europa oder die Kindersterblichkeit um Land zu vertreten. In all diesen Beispielen erfolgt präzise Geographie zweiten Platz auf den Informationen, die der Karte zu kommunizieren versucht.
Außer dieser Repräsentation der Umwelt gehören aber weitere Komponenten zu einem Weltmodell. So muss ein Verfahren existieren, mit dem der aktuelle Zustand des Weltmodells mittels der Sensordaten aktualisiert werden kann, und es müssen entsprechende Algorithmen zur Planung der globalen Navigation anwendbar sein.
4.2.1 Geometrische Weltmodelle
Unter geometrischen Weltmodellen werden hier positionsbezogene Modelle verstanden. Die Eigenschaften der Umwelt werden jeweils ‚an‘ einer bestimmten Position bzw. mit einer Positionsangabe gespeichert, so dass sie sich in einer zwei-dimensionalen geometrischen Karte mit euklidischen Koordinaten platzieren lassen. Bei gerasterten Karten wird die Umwelt in eine Menge von Bereichen eingeteilt - im einfachsten Fall in gleich große Quadranten (Raster) - und die Eigenschaften der Umwelt für jeden der Bereiche gespeichert. Ein typisches Beispiel hierfür sind Belegungsrasterkarte. Vektorielle Karten dagegen speichern eine Menge von Objekten jeweils mit Positionsangabe, wobei die Positionsangabe hier nicht an ein Raster gebunden sein muss und die Objekte selbst neben anderen Eigenschaften typischerweise auch eine geometrische Beschreibung beinhalten.
4.2.1.1 Vektorielle Karten mit geometrischen Primitiven
Als geometrische Grundformen zur Beschreibung der Umwelt werden hier Liniensegmente, Kreise, Polygone oder andere geometrische Primitive benutzt.
Der Rand eines Polygons ist eine Liste von Liniensegmenten. Oft werden insbesondere konvexe Polygone zur Modellierung von Hindernissen verwendet. Polygone eignen sich besonders in manuell erstellten Weltmodellen kombiniert mit Off-Line-Planung. Der Nachteil dieser Methode besteht unter Anderem darin, dass die Sensoren eines mobilen Roboters immer nur eine Seite eines Polygons erfassen können und deshalb eine dynamische Erstellung und Pflege eines solchen Modells schwer fällt.
4.2.1.2 Belegungsrasterkarte
Belegungsrasterkarte eignen sich nicht nur als Weltmodell, sondern sind auch als Methode zur Sensor-Fusion bekannt.
Für die lokale Navigation ist vor allem die freie, befahrbare Fläche in der Umgebung des Roboters interessant. Sind mehrere verschiedene Sensoren zum Messen der freien Fläche vorhanden, so stellt sich zwangsläufig die Frage nach einer geeigneten Sensor-Fusion. Die Messungen der verschiedenen Sensoren sind von unterschiedlichen Zeitpunkten und haben unterschiedliche Charakteristika, was die Genauigkeit, die Reichweite und sonstige Eigenschaften betrifft. Selbst wenn nur ein Abstandssensor benutzt wird, ist zumindest die Zusammenfassung mehrerer zeitlich aufeinander folgender Messungen von Interesse.
Für die Erstellung einer Belegungsrasterkarte wird die lokale Umgebung des Roboters eingeteilt in Regionen, im einfachsten Fall durch ein Raster (engl.: grid) in Quadranten.
4.2.2 Topologische Weltmodelle
Topologische Weltmodelle sind Graphen, die nicht notwendig maßtabsgerechte Abbildungen der Umgebung sind. Der Graph besteht aus signifikanten Stellen (Knoten) und Transitionen (Kanten).
Diese Weltmodelle geben hauptsächlich die Topologie der Umwelt wieder. Sie besitzen im Allgemeinen einen höheren Abstraktionsgrad als geometrische Karten und werden typischerweise als Graph mit Objekten und Beziehungen zwischen diesen Objekten dargestellt.
Die Knoten des Graphen eines topologischen Weltmodells sind attribuierte Objekte. Rein topologische Karten enthalten jedoch keine metrischen Distanzinformationen. Die Kanten sind lediglich Verbindungswege zwischen Knoten und könen als Attribute Aktions sequenzen, wie „rechts abbiegen und geradeaus fahren“ besitzen. Die Karte ist dementsprechend eine starke Vereinfachung der Umwelt. Es werden nur Nachbarschaftsbeziehungen abgebildet, nicht jedoch die präzisen geometrischen Verhältnisse.
Dies ist ein Grund, weshalb diese Art der Umweltrepräsentation gut geeignet ist, um eine Sensordatenfusion durchzuführen, da die Sensordaten unterschiedlicher Quellen einheitlich als Attribute von Knoten oder Kanten behandelt werden.
Das topologische Weltmodell ist folglich gut geeignet, um eine globale Karte zu erstellen. Da die globale Karte eine Hilfe für eine Navigation zwischen zwei entfernten Punkten ist, sind die Beziehungen zwischen den Punkten wichtig. Genau das, was ein topologisches Modell darstellt. Für die lokale Karte ist es jedoch nicht geeignet, da zu viel abstrahiert wird.
4.2.3 Probabilistische Weltmodelle
Da die Sensorik, auf welche alle Verfahren zur Aktualisierung eines Weltmodells angewiesen sind, fehlerbehaftet ist, ist auch ein bestimmter Zustand immer fehlerbehaftet. Mittels eines Fehlermodells lässt sich dieser Fehler des Zustands zumindest annähernd quantitativ eingrenzen. Unabhängig von der Ungenauigkeit der Sensorik kommen jedoch weitere Fehlerquellen hinzu:
Erstens sind durch die ungenaue Modellierung der Umwelt Fehlinterpretationen der Sensordaten möglich. Dies kommt daher, dass sich in der Umwelt Objekte (z.B. Personen oder andere dynamische Objekte) befinden, welche im Weltmodell nicht oder nur unzureichend modelliert werden können.
Diese Objekte können bei der Auswertung der Sensordaten mit Objekten im Weltmodell verwechselt werden oder die Erkennung von Objekten im Weltmodell verhindern. Zweitens kann die Umwelt z.B. von verschiedenen Positionen aus die gleichen Sensoreindrücke vermitteln. Dadurch wird eine eindeutige Positionsbestimmung und somit auch die Zuordnung der Sensordaten zum globalen Modell nur aus den momentanen Sensordaten unmöglich. Da viele Aktualisierungsverfahren für Weltmodelle einen eindeutigen, zuvor bestimmten Zustand des Modells zur Bestimmung des neuen aktuellen Zustandes benutzen, wird in vielen nicht probabilistischen Verfahren nur der wahrscheinlichste alte Zustand als Grundlage für die Berechnung der neuen Zustände verwendet.
Probabilistische Weltmodelle können auf geometrischen oder topologischen Weltmodellen basieren. In probabilistischen Weltmodellen wird nicht ein bestimmter Zustand gespeichert, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen Zustände oder zumindest über einer Teilmenge der möglichen Zustände. Dadurch steigt der Aktualisierungsaufwand aber auch der Informationsgehalt. Die probabilistisch erfassten Zustandsvariablen im Weltmodell betreffen hier meistens nur wenige Objekte im Weltmodell. Typischerweise wird sogar nur die Position des Roboters mit einer probabilistischen Zustandsvariablen beschrieben.
Um die Wahrscheinlichkeitsverteilung der Zustandsvariablen aktualisieren zu können, benötigt man ein probabilistisches Sensor- und Aktormodell. Das Sensormodell beinhaltet Informationen, wie wahrscheinlich es ist, bei einem bestimmten realen Zustand eine bestimmte Sensormessung zu erhalten.
Das Aktormodell beschreibt andererseits wie wahrscheinlich es ist, einen bestimmten realen Folgezustand zu erreichen unter der Bedingung, dass versucht wurde eine bestimmte Aktion auszuführen.
Sensor- und Aktormodelle können teilweise durch statistische Versuche ermittelt werden. Um die Zahl der Experimente zu reduzieren, ist es wichtig zu bestimmen, von welchen Faktoren der Ausgang der Messungen bzw. der Aktion wesentlich abhängt. Die Wahrscheinlichkeitsverteilung der Entfernungen einer Entfernungsmessung hängt global gesehen beispielsweise mit der Position des Sensors und der momentanen Beschaffenheit der Umgebung zusammen.
Da reale, dynamische Umgebungen jedoch diese Bedingung nicht erfüllen, müssen zusätzliche Techniken angewendet werden, um ein gutes Lokalisierungsverfahren zu erhalten. Abgesehen davon wird die Aktualisierung schon unter diesen Annahmen sehr aufwendig, wenn die betrachteten Zustandsräume groß sind. Aus diesem Grund werden auch entsprechende Techniken zur Reduktion des Aktualisierungsaufwandes benötigt.
5 Analyse von Steuerungsarchitekturen
In diesem Teil kann man die Steuerungsarchitektur der autonomen mobilen Roboter einfach erfassen. Für eine hohe Flexibilität und Anpassungsfähigkeit der autonomen mobilen Roboter ist die Steuerungsarchitektur sehr wichtig. Deshalb sollten Steuerungsarchitekturen für autonome mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein. Mit der Steuerungsarchitektur können autonome mobile Roboter in unserem Leben eine wichtige Rolle spielen.
In diesem Teil werden zunächst die Informationen über Prozessdatenverarbeitung vorgestellt. Dann werden die Informationen über Verhaltensbasierte Steuerungsarchitekturen ausführlich vorgestellt.
5.1 Prozessdatenverarbeitung
Etwas abstrakter betrachtet handelt es sich bei einem Roboter um ein System, das Prozessdaten verarbeitet. Die Daten werden von Sensoren geliefert und Ergebnisse über Aktoren in physische Reaktionen umgesetzt.
x → Black-Box → y
Der aktuelle Ausgang y der Black-Box wird bestimmt von der Sequenz aller Wahrnehmungen x bis zum aktuellen Zeitpunkt, das bedeutet, dass die Box im Allgemeinen auch ein Erinnerungsvermögen hat. Die gewählte Steuerungsarchitektur beantwortet dann die Frage nach der Struktur der Black-Box.
Ein Großteil der Forschungsarbeiten der künstlichen Intelligenz beschäftigt sich mit der Lösung von Problemstellungen, bei denen zum Zeitpunkt, wenn der Lösungsprozess gestartet wird, alle nötigen Informationen vorliegen. Lsungsmethoden beruhen hier im Allgemeinen auf intelligenten Suchstrategien im Zustandsraum des Problems. Lösungen sind dabei vollständige Pfade (Folgen von Zuständen bzw. Folgen von Aktionen) vom Ausgangszustand zum Zielzustand, welche die Zielbedingungen des Problems erfüllen und evtl. zusätzlich eine Kostenfunktion minimieren. Hierbei werden im Normalfall einige Voraussetzungen angenommen, die diese Vorgehensweise rechtfertigen:
Bestimmte Aktionen bewirken bestimmte, bekannte Zustandsänderungen und nur diese.
Während des Lösungsprozesses ändert sich der Zustand des Weltmodells nicht.
5.1.1 Zeitbedingungen
Im Gegensatz zur Verarbeitung von Daten aus einer Datenbank können die Daten vom System nicht bei Bedarf abgeholt werden, sondern müssen ausgelesen werden, wenn sie vom Sensor gemessen werden.
Insbesondere fallen natürlich kontinuierlich weitere Daten an, und auch die Verarbeitung muss kontinuierlich erfolgen. Dabei werden im Allgemeinen auch Daten und Ergebnisse aus den vorhergehenden Zeitschritten benöigt. Sensordaten fallen in teilweise sehr unterschiedlichen Zeitintervallen an. Natürlich können die Daten gespeichert bzw. gepuffert werden. Handelt es sich jedoch um wichtige Daten, die z.B. für die Kollisionsvermeidung relevant sind, müssen sie innerhalb einer engen Zeitspanne bearbeitet und ausgewertet werden. Andererseits fallen auch andere Daten an, die zwar ebenfalls wichtig sind, auf die jedoch nicht besonders schnell reagiert werden muss.
Auch die Verarbeitungszeit der Daten ist je nach Ziel der Verarbeitung unterschiedlich. So ist die Prüfung, ob ein Messwert eine Schwelle überschreitet, in wenigen Prozessortakten erledigt, jedoch kann die Erkennung eines Objektes sehr aufwendig werden und die Akkumulation vieler Daten erfordern. Weiterhin können auch verschiedene Verarbeitungsergebnisse bestimmter Datenquellen verschiedene Dringlichkeiten besitzen. Auch auf der Ausgangsseite sind zeitliche Bedingungen zu beachten. So müssen manche Steuerkommandos nicht unmittelbar, sondern erst zu einem bestimmten Zeitpunkt oder auch nach einer bestimmten Verzögerungszeit, ausgeführt werden.
Die oben genannten gemischten Echtzeitanforderungen an die Datenverarbeitung sind ein wesentlicher Grund für den Entwurf von neuen Architekturen zur Verarbeitung der Daten eines mobilen Roboters.
5.2 Verhaltensbasierte Steuerungsarchitekturen
Als Rodney Brooks im Jahr 1984 seinen Artikel „A robust layered control system for a mobile robot“ [Bro86] veröffentlichte und gleichzeitig demonstrierte, erfuhren die meiste Menschen die verhaltensbasierte Steuerungsarchitektur. Dieses Jahr 1984 ist ein wichtiges Jahr für Verhaltensbasierte Steuerungsarchitekturen der autonomen mobilen Roboter. Es ist ein kurzer Überblick über die Geschichte verhaltensbasierter Steuerungsarchitekturen der autonomen mobilen Roboter.
Verhaltensbasierte Steuerungsarchitekturen ist die einfachste Softwarearchitektur für autonome Roboter. Das Verhalten des Roboters wird durch eine Ansammlung von Stimulus-Response Regeln definiert. Die sensorischen Inputs werden über jede dieser Regeln iteriert. Die Outputs dieser Regeln bestimmen dann die Reaktion des Roboters, wobei eine Kombination der ausgelösten Verhalten ausgeführt wird. Wesentlich für diese Architektur ist, dass die Regeln keinen von außen beobachtbaren State besitzen. Dadurch dass die Regeln gleichzeitig ausgelöst werden, und ohne Planung ihre Prozeduren durchlaufen ist diese Architektur sehr schnell, im Gegensatz zu anderen planungsbasierten Ansätzen. Der größte Vorteil des reaktiven Modells ist seine Geschwindigkeit. Der Roboter kann sofort auf unvorhergesehene Ereignisse reagieren, während andere Architekturen diese gar nicht erst registrieren, oder erst planen müssen wie sie mit diesem Ereignis umgehen. Nachteilig ist, dass der Roboter in dieser Architektur nicht lernt. Er erstellt kein internes Weltmodell und kann keine optimalen Routen, geschweige denn Langzeitstrategien planen. Dies ist hinderlich bei Einsatzgebieten, in denen nur eingeschränkte Kommunikation mit dem Roboter möglich ist.
Offensichtlich war man mit dem verhaltensbasierten Ansatz auf eine Methode gestoßen, die gerade in der Robotik Vorteile gegenüber dem konventionellen funktionalen Ansatz birgt und die zusätzlich ihr Vorbild in der Natur fand. Weitere Wissenschaftler gelangten mehr oder weniger unabhängig zu ähnlichen Erkenntnissen ([PV92, PS94, Ste94, Smi94, MB93, Bee90, Sac87]). Es folgten verschiedene Studien zu verhaltensbasierten, reaktiven mobilen Robotern ([Bra84, VKP92, Kub97, SP95, SB95, Ste97b, Ste97a, Mat97, FS95, GIM94]).
Es fiel jedoch auf, dass verhaltensbasierte Roboter zwar sehr reaktionsschnell und robust agierten, es mangelte ihnen jedoch an planerischen Fähigkeiten [BKSW95b, BK95b, BK95a]. Dadurch wurden die Prämissen von Brooks, kein Weltmodell zu benutzen und keinen internen Zustand zu speichern, in Frage gestellt. Wie auch Erann Gat in [Gat93] herausstellt, entstehen Probleme mit Weltmodellen und internen Zuständen immer dann, wenn implizit Folgerungen und Vorhersagen aus den gespeicherten Zuständen generiert werden, welche nicht zutreffen.
Deshalb sind viele Probleme zu beseitigen, indem darauf geachtet wird, dass das Weltmodell und der intern gespeicherte Zustand nur Informationen enthalten, die zutreffende Vorhersagen zulassen. Dies ist zumeist für abstraktere Informationen der Fall. Diese Informationen können zwar genutzt werden, um die Aktionen des Roboters grob zu leiten, sind jedoch nicht geeignet, um ihn zu steuern. Verhaltensbasierte Steuerungsarchitekturen müssen nun festlegen, wie dieses Leiten der Aktionen realisiert wird, ohne die reaktiven Fähigkeiten zu unterbinden.
6 Zusammenfassung
Roboter sind künstliche, von Menschen entworfene und gebaute technische Objekte. Autonome mobile Roboter bewegen sich in einer offenen Umgebung, deshalb sind die Definition und Pflege eines geschlossenen Weltmodells schwieriger als bei stationären Robotern. Für einen mobilen Roboter stellt die sichere Navigation ein grundlegendes Aufgabenfeld dar. Gleichzeitig ist die Navigation in dynamischen Umgebungen ein typischer Anwendungsfall für die Zusammenfassung von reaktiven Verfahren.
Die Navigation lässt sich in lokale und globale Navigation unterteilen. In der lokalen Umgebung muss der Roboter sensororientiert arbeiten und auf dynamische Objekte reagieren. Bei einigen Robotern müssen zusätzlich nicht-holonomische Eigenschaften berücksichtigt werden.
Es gibt noch die Informationen über Lokalisierung über autonome mobile Roboter, die ein sehr wichtiges Thema für autonome mobile Roboter ist. Es ist notwendig, dass man Lokalisierung für autonome mobile Roboter gut versteht.
In der Zukunft werden autonome mobile Roboter vielleicht die folgende Eigenschaften haben:
1. Miniaturisierung: Weil autonome mobile Roboter meistens in den Bereichen von Hausarbeiten und Dienstleistungen verwendet werden, werden die Körper der autonomen mobilen Roboter zur Miniaturisierung entwickeln.
2. Hochgeschwindigkeit: Die Hochgeschwindigkeit wird sehr hilfreich für autonome mobile Roboter, die meistens im Outdoorbereich verwendet werden, weil die Hochgeschwindigkeit kann die Leistungsfähigkeit erhöhen. Aber für die Hochgeschwindigkeit sind Positioniergenauigkeit und Kontrolle sehr wichtig.Deshalbe braucht es höhere Anforderungen.
3. Freundliche Mensch-Computer-Interaktion: In der Zukunft können autonome mobile Roboter mit der freundlichen Mensch-Computer-Interaktion bessere Dienstleistungen den Menschen anbieten.
4. Besse Sicherheit: Weil autonome mobile Roboter von den Menschen verwendet werden, müssen autonome mobile Roboter mindestens für Mensch unschädlich sein. Die Entwickelung der autonomen mobilen Roboter muss die Sicherheit berücksichtigen.
Deshalb werden autonome mobile Roboter vielleicht mehr wichtiger als jetzt sein.
Literatur
» Steuerungsarchitekturen für autonome mobileRoboter «
»Mobile Robotik«, Ulrich Nehmzow
Ein 3D−Laserscanner für autonome mobile Roboter, Andreas Nüchter, Kai Lingemann
Kartenerstellung und Navigation zur Positionsbestimmung autonomer Fahrzeuge
de.wikipedia.org