Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Inhaltsverzeichnis
1 Einleitung
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
2.2 Warum und wofür werden Sie gebraucht?
2.3 Geschichte der autonomen mobilen Robotik
2.4 Andere autonome mobile Roboter
3 Hauptteile und Schlüsseltechnologien
3.1 Sensoren und Aktoren
3.1.1 Abstandssensoren
3.1.1.1 Bumper
3.1.1.2 Ultraschall
3.1.1.3 Infrarot
3.1.1.4 Laser
3.1.1.4.1 2D-Laserscanner
3.1.1.4.2 3D-Laserscanner
3.1.2 Sensoren für Dead-Reckoning
3.1.3 Kamera
3.1.4 Berührungssensoren
3.1.5 Sensorsignale sind interpretationsbedürftig
3.1.6 Aktoren
3.1.6.1 Elektrisch, pneumatisch, hydraulisch
3.1.6.2 Nicht-holonomische und holonomische Bewegung
3.1.7 Datenfusion der Multisensoren
4 Navigation
4.1 Selbstlokalisierung
4.1.1 Globale Selbstlokalisierung
4.1.2 Lokale Selbstlokalisierung
4.2 Weltmodelle für Navigation
4.2.1 Geometrische Weltmodelle
4.2.2 Topologische Weltmodelle
4.2.3 Probabilistische Weltmodelle
5 Analyse von Steuerungsarchitekturen
5.1 Prozessdatenverarbeitung
5.2 Verhaltensbasierte Steuerungsarchitekturen
6 Zusammenfassung
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
Abstract:In dieser Arbeit werden viele Informationen über autonome mobile Roboter ausführlich vorgestellt, besonders über die Informationen über die Anforderungen an Roboter für den autonomen mobilen Einsatz. Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man ein umfassendes, völlig neues und deutliches Verständnis für die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. Das ist auch das Ziel dieser Arbeit. z,B Man kann die Sensoren und Aktoren, Hauptteile und Schlüsseltechnologien für autonome mobile Roboter kennen. Zudem werden viele Beispiele für autonome mobile Roboter vorgestellt. Man kann auch durch diese Arbeit die Geschichte über autonome mobile Roboter erkennen. Durch die Analyse der Haupteile über autonome mobile Roboter kann man die Anforderungen an autonome mobile Roboter klar verstehen. Mit vielen Beispielen bietet diese Arbeit viele nützliche Informationen über autonome mobile Roboter an. Diese Vorstellung mit den Beispielen ist die Methode dieser Analyse in dieser Arbeit.
Schlüsselwörter: autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Anforderungen, Sensoren
1 Einleitung
Diese Arbeit befasst sich mit den Anforderungen an Roboter für den autonomen mobilen Einsatz. Autonome mobile Roboter stellen eine Verbindung der Disziplinen aus Maschinenbau, Elektrotechnik und Informatik dar. Autonome mobile Roboter bewegen sich frei durch ihre Umwelt. Über die folgende Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten wir ein umfassendes, völlig neues und deutliches Verständnis für den mobilen Einsatz von Robotern.
Diese Arbeit wird in 6 Teilen unterteilt. Zuerst ist die Einleitung. Dann werden die Teile von Autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Navigation, Analyse von Steuerungsarchitekturen einzeln vorgestellt. Zum Schluss ist die Zusammenfassung.
Die Hauptteile dieser Arbeit sind die Teile von Hauptteile und Schlüsseltechnologien, Navigation, Analyse von Steuerungsarchitekturen. Diese drei Teile werden ausführlich in dieser Arbeit geschrieben.
Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man zuerst wissen, was ist ein autonomer mobiler Roboter? Dann kann man auch wissen, was ist die Haupteile von einem autonomen mobilen Roboter? Wie die Anforderungen an Roboter für den autonomen mobilen Einsatz sind? Wie ist die verhaltensbasierte Architektur? Wie ist die Navigation eines autonomen und mobilen Roboters? Für eine Reihe von Fragen über autonome mobile Roboter kann man in dieser Arbeit eine Antwort bekommen.
Diese Arbeit richtet sich an die Anforderungen an autonome mobile Roboter, die nicht nur für allgemeine Arbeit und auch für den Industriegebrauch sehr wichtig und hilfreich sind.
Durch diese Arbeit kann man einen umfassenden und deutlichen Blick auf die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. z,B. Mann kann die Steuerungsarchitekturen, die Sensoren und Aktoren und die Lokale und globale Selbst, lokalisierung eines autonomen und mobilen Roboters besserer als früher verstehen usw. Auch man kann die Information über die Weltmodelle für Navigation gut lernen. Dieser Folgende Teil ist Autonome mobile Roboter.
2 Autonome mobile Roboter
2.1 Was ist ein autonomer mobiler Roboter?
Immer bezeichnet man die Roboter als autonome mobile Roboter, die sich in ihrer Umgebung selbständig bewegen und agieren können. Aber für die Autonomie gibt es jetzt verschiedene Abstufungen. Das heißt, dass die Unabhängigkeit des Roboters nicht gleich ist. Roboter sind stationäre oder mobile Maschinen, die nach einem bestimmten Programm festgelegte Aufgaben erfüllen.
Die freie autonome Beweglichkeit eines autonomen mobilen Roboters hat sowohl Vorteile aber auch Nachteile. Es ist vorteilhaft, dass die Roboter für Aufgaben eingesetzt werden können, die Vorwärtsbewegung erfordern (wie z.B. Transport-,Überwachungs-, Inspektions- oder Reinigungsaufgaben), da sie sich für diese Aufgaben selbständig positionieren können. Autonome mobile Roboter eignen sich deshalb besonders gut für den Einsatz in weitläufigen Umgebungen, die für Menschen entweder unzugänglich oder gefährlich sind. Aber es gibt auch Nachteile. Es ist andererseits nachteilhaft, dass beim Einsatz insemi-strukturierten Umgebungen, die nicht speziell für den Betrieb mobiler Roboter angepasst wurden, unvorhergesehene Ereignisse, Veränderungen und Unsicherheiten vorkommen. Die Steuerung autonomer mobiler Roboter muss dies berücksichtigen und mit Rauschen, unvorhersagbaren Ereignissen und Veränderungen umgehen können.
Die Mobilität bedeutet im Bereich der autonomen mobilen Roboter, dass autonome mobile Roboter nicht fest an einer bestimmten Stelle montiert ist, sondern sich mehr oder weniger frei in einer bestimmten Umgebung bewegen kann. Die Art des Terrains bestimmt hierbei die notwendigen Aktoren zur Fortbewegung. Während sich beispielsweise Räder für eher ebenes Gelände eignen, sind für unebenes Gelände meist Ketten oder Beine (s. Laufroboter) von Vorteil. Das Wort von „Autonom“ hat seinen Ursprung in zwei griechischen Wörtern: „autos“ ist griechisch für selbst und „nomos“ für Gesetz. Es bedeutet also „eigengesetzlich machend“. Die Autonomie eines Roboters lässt sich in verschiedenen Graden realisieren. Beispielsweise sind Roboter, die zwar selbständig ihre Umgebung erkunden und die ihnen gestellten Aufgaben abarbeiten, aber immer wieder zu einer Ladestation zurückkehren müssen, nicht völlig autonom. Der notwendige Grad an Autonomie, der für einen bestimmten Roboter notwendig ist, lässt sich aus der Spezifikation der zu erledigenden Aufgaben bestimmen. Deshalb bedeutet das Wort von „Autonom“, dass der Roboter ohne externe Unterstützung seiner Umgebung funktionieren kann. „Autonom“ ist Synonym von Unabhängigkeit, Selbständigkeit, Entscheidungsfreiheit, usw.
Ähnlich wie die ,,Intelligenz“ kann auch das Verhalten eines Roboters nicht unabhängig von seiner Umgebung und der von ihm auszuführenden Aufgabe betrachtet werden. Roboter, Aufgabe und Umgebung sind voneinander abhängig und beeinflussen sich gegenseitig wie die Folgende:
Abbildung 1:
2.2 Warum und wofür werden Sie gebraucht?
Weil autonome mobile Roboter sich autonom in ihrer Umgebung umherbewegen können, sind autonome mobile Roboter die ideale Werkzeuge für die Aufgaben in den Bereichen Transport, Exploration, Überwachung, und Inspektion usw.
Für autonome mobile Roboter gibt es viele Einsatzbereiche. Vor allem sind die zwei Aspekte der Überwachung und der Inspektion sehr wichtige Verwendungszwecke für autonome mobile Roboter. In diesen zwei Verwendungszwecken sind besonders die guten sensorische Fähigkeiten der autonomen mobilen Roboter sehr wichtig und sehr gefragt. Für Rohrsysteme, Kanalsysteme, kontaminierte Gebiete und Anwendungen der Raumfahrt sind autonome mobile Roboter auch sehr hilfreich. Für den flexiblen Transport der Güter spielen autonome mobile Roboter auch eine wichtige Rolle. Es gibt noch viele potentielle Verwendungszwecke für autonome mobile Roboter hier mögliche Beispiele aufführen. , wo auch die drahtlose Verbindung eine wichtige Rolle spielt, diesen Teilbereich nennt man Telerobotik.
Für die Gebiete der künstlichen Intelligenz, der kognitiven Wissenschaften und der Psychologie können autonome mobile Roboter auch eine wichtige Rolle spielen. Autonome mobile Roboter können Hypothesen über intelligentes Verhalten, Wahrnehmung und Kognition überprüfen und verbessern.
Deshalb sind autonome mobile Roboter nicht nur für Industrie, Landwirtschaft, Medizinische Technik, Dienstleistung sehr wichtig, sondern auch für Staatssicherheit und Landesverteidigung Autonome mobile Roboter erhalten derzeit eine weltweite Aufmerksamkeit.
2.3 Geschichte der autonomen mobilen Robotik
Meistens verbinden die Menschen künstliche Intelligenz und autonome mobile Robotik eng miteinander. Schon vor der Dartmouth College Konferenz im Jahre 1956, als der Begriff ,,künstliche Intelligenz“ geprägt wurde, war man sich dessen bewußt, daß man mobile Roboter interessante Aufgaben ausführen und lernen lassen konnte.
In den frühen 1950er Jahren hat William Grey Walter zwei mobile Roboter entwickelt. Er erreichte Veränderung der Ladung eines Kondensators, der das Verhalten des Roboters steuerte.
Abbildung 2: Rekonstitution vom Tortoise von Grey Walter
Nils Nilsson entwickelte 1969 in Stanford den mobilen Roboter SHAKEY. Dieser Roboter verfügte über einen visuellen Entfernungsmesser, eine Kamera und binäre Berührungssensoren und war über Funk mit einem DEC PDP 10 Computer verbunden. SHAKEY konnte Aufgaben ausführen wie Hindernisausweichen und Objektmanipulation, allerdings in einer sehr strukturierten Umgebung.
Abbildung 3: Shakey
ln den 1970er Jahren wurde der JPL ROVER für Planetenexploration am Jet Propulsion Laboratory in Pasadena entwickelt. Der Roboter verwendete eine TV-Kamera, einen Laserentfernungsmesser und Berührungssensoren, um seine Umgebung in die Kategorien ,,navigierbar”, ,,nicht navigierbar” und ,,unbekannt” einzuteilen und benutzte einen Trägheitskompaß mit Koppelnavigation.
Ende der 1970er Jahre entwickelte Hans Moravec in Stanford den mobilen Roboter CART. CART nahm von einem bestimmten Ort aus neun Kamerabilder auf, erstellte daraus ein zweidimensionales Weltmodell, bewegte sich einen Meter weiter, wiederholte den Vorgang, und so weiter. Um die neun Bilder einer Position zu verarbeiten, brauchte er jeweils 15 Minuten: 5 Minuten für die Digitalisierung der 9 Photos; 5 Minuten für die Grobreduktion der Bilder, wobei Hindernisse als Kreise dargestellt wurden; und 5 Minuten zur ¨Uberarbeitung des Weltmodells und für die Routenplanung. CART war in der Lage, Hindernissen erfolgreich auszuweichen, wenn auch sehr langsam. Er hatte jedoch Schwierigkeiten, seine eigene Position korrekt zu bestimmen und kontrastarme Hindernisse zu identifizieren.
Abbildung 4: Stanford Cart
In den späten 1970er Jahren wurde HILARE als eines der ersten europäischen Projekte in der mobilen Robotik bei LAAS in Toulouse entwickelt.
2.4 Andere autonome mobile Roboter
Hier wird eine kurze Übersicht über einige andere autonome mobile Roboter gegeben. Dabei handelt es sich um Roboter, die für Umgebungen entwickelt wurden, die den hier vorgestellten dynamischen Industrie- und Büroumgebungen entsprechen oder zumindest ähnlich sind. Die Aufzählung ist nur eine kleine Auswahl, enthält aber wichtige und erfolgreiche Repräsentanten verschiedener Ansätze für Steuerungsarchitekturen und Navigation.
Rhino, Minerva, Carl, Flo und Pearl, Albert
Rhino ist wohl einer der bekanntesten autonomen mobilen Roboter in Deutschland. Er wurde in Zusammenarbeit der Carnegie Mellon Universität mit der Universität Bonn entwickelt. Bekannt wurde er vor allem durch den Betrieb als Tour-Guide im Deutschen Museum in Bonn, und das auch über Deutschland hinaus. Dort führte er Besucher durch das Museum. Rhino ist ein mobiler Roboter der Bauart B21 der Firma Real World Interface (RWI), ausgestattet mit Ultraschall-, Laser-, und Infrarotsensoren, sowie Bumpern und einer Stereokamera. Der B21 hat eine runde, zylindrische Form und kann sich auf der Stelle drehen. Die Kinematik ist somit holonomisch.
Der Navigationssoftware liegen drei wichtige Konzepte zugrunde. Erstens das TCX Kommunikationssystem, das die Kommunikation zwischen den einzelnen Steuerungssoftwaremodulen organisiert. Zweitens der„Dynamic Window Approach“, welcher die Kollisionsvermeidung und kinematische Randbedingungen mit zielorientiertem Fahren verbindet. Und drittens die Markov-Lokalisation, ein probabilistisches Verfahren zur geometrischen Positionsbestimmung des Roboters innerhalb einer teilweise bekannten Umgebung mittels Sensordaten.
Ein weiterer Roboter dieser Familie namens Carl ist am Lehrstuhl fr Informatik 5 in Betrieb. Dort wird untersucht, wie sich deliberative Ansätze wie Aktionsbeschreibungssprachen und plausibles Schließen sowie effizientes Schließen, auf bestehende Navigationssoftware aufsetzen lassen.
Minerva ist der Nachfolger von Rhino und unterscheidet sich einerseits durch das äußere Erscheinungsbild und andererseits durch Softwareverfeinerungen von Rhino. Der Roboter operierte bereits als Museumsführer im Smithsonian’s National Museum of American History. Minerva hat ein angedeutetes Gesicht, durch das die Interaktion mit Menschen intuitiver gestaltet werden soll. Außerdem wurde der Rechenaufwand für die Markov-Lokalisierung durch einen so genannten „Monte Carlo“-Ansatz verringert, und es wurde eine Strategie namens „Costal Navigation“ entwickelt, welche bei der Pfadauswahl die Qualität der Lokalisierung bercksichtigt, so dass Pfade gewählt werden, auf denen eine stabilere Lokalisierung möglich ist.
Abbildung 5: Der Roboter Minerva (Carnegie Mellon University).
Unter der Leitung von Wolfram Burgard wird an der Weiterentwicklung der Ansätze gearbeitet. Plattform ist hier neben anderen wiederum ein Roboter vom Typ B21 mit Namen Albert. Unter Anderem soll auch die Kooperation mehrerer Roboter untersucht werden.
An weiteren Nachfolgemodellen wird in letzter Zeit an der Carnegie Mellon University in Zusammenarbeit mit der University of Pittsburgh im Rahmen des Projektes „ Nursebot“ gearbeitet. Zu nennen sind die Roboter „Flo“ und „ Pearl“. Der Fokus liegt hier auf der Anwendung der Roboter als persönliche Service Roboter für hilfsbedürftige Menschen. Dabei spielt die einfache Interaktion der Menschen mit den Robotern eine Schlüsselrolle.
Xavier und Amelia Xavier wurde an der Carnegie Mellon University parallel zu Rhino und Minerva entwickelt. Im Gegensatz zu Rhino und Minerva beruht die Steuerung dieses Roboters nicht auf einem geometrischen, sondern auf einem topologischen Modell der Umwelt. Das Verfahren zur Kollisionsvermei dung, die Curvature-Velocity Method, ist dem Dynamic Window Approach jedoch ähnlich. Die Einsatzumgebung ist als Graph aus Korridoren, Kreuzungen und T¨uren modelliert. Zur Planung wird ein Partially Observable Markov Decision Process (POMDP) benutzt, wodurch Unsicherheiten bzgl. der aktuellen, topologischen Position des Roboters, der Aktionen des Roboters und der Zustände der T¨uren und Durchgänge berücksichtigt werden können. Einer der Vorteile dieser Methode ist, dass Pläne bevorzugt werden können, welche evtl. zwar nicht am schnellsten, dafür aber mit größerer Sicherheit zum Ziel führen. Das Gesamtverhalten des Roboters wird dadurch robuster. Nachfolger von Xavier ist Amelia, welcher schneller fährt als Xavier und eine verbesserte Odometrie besitzt.
Abbildung 6: Die Roboter Xavier und Amelia der Carnegie Mellon University.
Hermes
Der Serviceroboter Hermes ist eine Entwicklung der Bundeswehr Universität München. Die Plattform wurde mit der Intention gestaltet, einen menschen ähnlichen Roboter zu konstruieren, um so die Interaktion des Roboters mit Menschen und den Einsatz in Umgebungen, die für Menschen geschaffen sind, zu erleichtern. Hermes bewegt sich mittels eines so genannten Omnidrives, besitzt zwei Arme mit jeweils 6 Freiheitsgraden und einem Zwei-Finger-Greifer sowie einen abknickbaren Oberkörper. Am „ Kopf“ des Roboters befindet sich eine Stereokamera. Der Roboter bewegt sich in einer Umgebung aus Gängen und Räumen und navigiert mit Hilfe seiner Stereokamera. Die Navigation beruht unter Anderem darauf, dass im Kamerabild der Boden eindeutig von den Wänden und anderen Hindernissen unterschieden werden kann. Durch „visual servoing“ ist unter Anderem das Andocken an einen Tisch möglich. Ein weiterer Augenmerk der Forschung liegt in diesem Projekt auf der Interaktion mit Menschen, wie unter Anderem der natürlichsprachlichen Steuerung.
Abbildung 7: Die Roboter Hermes der Bundeswehr-Universität Müunchen und Flakey von SRI International.
Helpmate
Der Serviceroboter Helpmate ist vor allem deshalb interessant, weil er sich bereits in der praktischen Anwendung befindet. Inzwischen ist Helpmate über die Firma Pyxis in San Diego kommerziell erhältlich. Helpmate wird als Transportroboter im medizinischen Bereich zum Transport von Medikamenten, Proben und Mahlzeiten eingesetzt. Frühere Versionen von Helpmate lösten das Problem der Lokalisierung durch eine an die Decke gerichtete Kamera, wodurch die Deckenbeleuchtungen als natürliche Landmarken genutzt werden konnten. Inzwischen wurde Helpmate jedoch offensichtlich kommerziell weiterentwickelt. Die verwendeten Methoden sind jedoch nicht zugänglich, da neuere wissenschaftliche Dokumentationen fehlen.
Flakey
Der Roboter Flakey (siehe Abb. 7) und seine Software wurden bei SRI International von Konolige, Saffotty, Gutmann und einigen weiteren Wissenschaftlern entwickelt.
Die oben gewähnte Produkte sind eingie Beispiele für andere autonome mobile Roboter. In den letzten Jahren werden viele Produkte autonomer mobiler Roboter entwickelt. Es spielt eine wichtige Rolle in unserem Leben.
3 Hauptteile und Schlüsseltechnologien
Es gibt einige Hauptteile und Schlüsseltechnologien für autonome mobile Roboter. In diesem Teil werden diese Hauptteile und Schlüsseltechnologien ausführlich gezeigt. z,B. Sensor und Aktor usw.
3.1 Sensoren und Aktoren
Sensoren dienen zur Erfassung von Eigenschaften der Umgebung und des Roboters selbst. Mit den Sensoren können autonome mobile Roboter die physikalischen Eigenschaften der Umgebung wie Temperatur, Helligkeit, Berührungswiderstand, Gewicht, Größe usw. messen. Ein Sensor empfängt ein physikalisches Signal und reagiert darauf mit einem elektrischen Ausgangssignal.
Abbildung 8: Sensor
Die Sensoren eignen sich für die Messung der Eigenschaften der Umgebung und des autonomen mobilen Roboters selbst. Die Sensoren und Aktoren werden als „intern“ oder „extern“ klassifiziert. Interne Sensoren können die Steuerungssoftware mit Daten über den Zustand des Roboters versorgen. z,B. über den Ladezustand der Batterien. Externe Sensoren können Daten über die Umwelt messen. z,B Art und Entfernung von Hindernissen.
Um die Entfernung zu Objekten vor einer Kollision zu messen, benutzt man Sensoren zur Entfernungsmessung. Diese gibt es gemäß drei wesentlichen Messprinzipien: Laufzeitmessungen, Phasendifferenzmessung und Triangulation. Unter einer Laufzeitmessung versteht man die Zeitmessung zwischen ausgesendetem Signal und empfangenem Echo. Über Phasendifferenzmessungen können ebenfalls Entfernungen bestimmt werden. Sie sind eine spezielle Form der Laufzeitmessungen. Bei Entfernungsmessung durch Triangulation wird von einer Quelle ein Signal ausgesandt.
Aktoren dienen zur Manipulation des Roboters und der Umgebung. Interne Aktoren können den Zustand des Roboters verändern. Externe Aktoren dienen zur Fortbewegung oder zum Bewegen von Objekten.
Als interner Aktor wird meistens der Elektromotor in der mobilen Robotik verwendet. Im allgemeinen ist der Elektromotor ein Gleichstrommotor oder ein Schrittmotor. Der Gleichstrommotor ist am einfachsten zu steuern. Der Schrittmotor eignet sich für sehr präzise Bewegungen. Die Elektromotoren sind sauber und einfach zu bedienen, sie können ein richtiges Drehmoment produzieren und können sehr einfach und genau gesteuert werden.
In diesem Teil werden nun einige wichtige Sensoren und Aktoren gezeigt. Zunächst ist die Vorstellung von den Sensoren. Mobile Roboter interagieren mit ihrer Umgebung, die sie mit Sensoren wahrnehmen. Roboterprogrammierung erfordert folglich das Verarbeiten von Sensordaten. Der Aufbau und die Funk von Sensoren haben einen entscheidenden Einfluss auf die Konzeption der Programme. Daher skizziert dieser Teil die gebräuchlichsten Sensoren für mobile Roboter. Die folgende Abbildung 9 ist ein Beispiel für Sensoren auf einer Kurt-Plattform. In diesem Teil werden auch Kamera, Laserscanner, Ultraschallsensor und Infrotsensor und andere gebräuchlichste Sensoren vorgestellt.
Abbildung 9:
3.1.1 Abstandssensoren
Den Abstand Null zu einem soliden Objekt kann ein mobiler Roboter durch Kontaktsensoren oder Stoßleisten erkennen. Mit diesen Abstandssensoren kann man die Daten messen, die sich für die Kollisionsvermeidung und für die Extraktion der „Form“ der Umgebung eignen. Die Daten von Abstandssensoren sind auch sehr wichtig und hilfreich für die Lokalisierung des Roboters und seine Navigation. Mit diesen Abstandssensoren kann man die Form der Umgebung und den Abstand dazu exakt erfassen. Diese Sensoren messen die Signallaufzeit, das ist die Zeit, die ein Signal braucht, um sich bis zu einem Objekt in der Umgebung und zurück zu bewegen, woraus der Abstand zum Objekt bestimmt wird. Diese Sensoren sind die aktive Sensoren. Im Gegensatz zu passiven Sensoren, wie zum Beispiel einer Kamera, können diese Abstandssensoren aktiv Signale aussenden. Sie haben aber grundsätzlich auch den Nachteil, z,B. die Sensorik der anderen Roboter zu stören, wenn viele Roboter verwendet werden. Für die Signale gibt es hier nur Schall und elektromagnetische Wellen verschiedener Frequenzen. z,B. Licht (besonders Infrarotlicht und Laserlicht) und Radiowellen (Radar) sowie Schall mit hohen Frequenzen, also Ultraschall.
3.1.1.1 Bumper
Bumper sind nicht mittelbare Kollisionssensoren. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, werden diese Sensoren dann aktiviert. Die Sicherheit ist sehr wichtig für autonome mobile Roboter. In diesem Aspekt können Bumper eine sehr wichtige Rolle spielen. Mit Bumper können autonome mobile Roboter erkennen, was ist nicht sicher. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, wird ein Signal dann gesendet, um die Bewegung der autonomen mobilen Roboter zu verhindern.
3.1.1.2 Ultraschall
Wegen der niedrigen Kosten, der einfachen Durchführung und der entwickelten Technologie ist Ultraschallsensor jetzt ein häufig verwendeter Entfernungsmesser in den autonomen mobilen Roboter. Wenn sich die Geschwindigkeit des Ultraschalls in der Luft auf der Temperatur und der Feuchtigkeit bezieht, kommen deshalb die Temperatur und der Feuchtigkeit in der exakten Messung in Frage. In den meisten Fällen sind die Frequenzen der Ultraschallausbreitung in der Luft etwas niedriger, aber die Frequenzen der Ultraschallausbreitung in der Flüssigkeit oder in dem Festkörper sind etwas höher. Die Mindestreichweiten sind von 30 bis 40 cm. Wenn die Hindernisse näher liegen, kann Ultraschallsensor diese Hindernisse nicht sicher erkennen. Typische maximale Reichweiten liegen zwischen 4 und 10 Metern.
Ultraschall-Entfernungsmesser, kurz Ultraschallsensoren genannt, senden zyklisch einen kurzen, hochfrequenten Schallimpuls aus. Dieser verbreitet sich mit Schallgeschwindigkeit in der Luft. Trifft er auf ein Objekt, wird er dort reflektiert und gelangt als Echo zurück zum Ultraschallsensor. Die Zeitspanne zwischen dem Aussenden des Schallimpulses und dem Empfang des Echosignals entspricht der Entfernung zum Objekt, und der Sensor gibt diesen Wert geeignet codiert aus (z.B. als Spannungssignal analog oder digital). Da die Entfernung zum Objekt über eine Schall laufzeitmessung und nicht über eine Intensitätsmessung bestimmt wird, haben Ultraschallsensoren eine ausgezeichnete Hintergrundausblendung. Nahezu alle Materialien, die den Schall reflektieren, werden detektiert – unabhängig z.B. von ihrer Farbe. Selbst glasklare Materialien oder dünne Folien stellen kein Problem dar,auch nicht Staub und Nebel. Handelsübliche Ultraschallsensoren erlauben Entfernungsmessungen bis 10m und können den Messwert mit millimetergenauer Auflösung erfassen. Ultraschallsensoren haben einen Blindbereich,d.h.einen Bereich nahe amSensor, in dem nicht gemessen werden kann, und Messungen finden nur innerhalb eines Öffnungswinkels statt. Abbildung 10 zeigt den Messbereich eines Ultraschallsensors. Die dunkel grauen Bereiche werden mit einem dünnen Rundstab mit definiertem Durchmesser ausgemessen und zeigen den typischen Bereich des Sensors, in dem Abstände zuverlässig bestimmt werden. Um die hellgrauen Bereiche zu erhalten, wird eine Platte definierter Größe von außen in die Schallfelder geführt. Hierbei wird immer der optimale Winkel der Platte zum Sensor eingestellt. Dies ist somit der maximale Erfassungsbereichdes Sensors. Außerhalb der hellgrauen Schallkeulen ist eine Auswertung von UltraschallReflexionen nicht mehr möglich. Abbildung 10 veranschaulicht die Vorgehensweise. Dies zeigt, dass bei Ultraschallsensoren nicht nur die Entfernung zu Objekten, sondern auch der Auftreffwinkel des Schalls und somit die Form der Objekte relevant ist. Dies erschwert die Auswertung der Messwerte.
Abbildung 10: Messbereich eines Ultraschallsensors. Abbildung mit freundlicher Genehmigung der microsonic GmbH, Dortmund.
Aber wegen des größeren Abstrahlwinkels und der schlechten Richtcharakteristik gibt es auch einige Beschränktheiten für Ultraschallsensor. In diesem Fall werden mehrere Ultraschallsensoren oder andere Sensoren für Ausgleich verwendet. Die Größe der Öffnungswinkel der Ausbreitungskegel üblicher Ultraschallwandler (α = 35◦, Polaroid Sensor) sind einerseits geeignet für Kollisionsvermeidung, andererseits wird aber die genaue Erfassung der Form der Umgebung erschwert, weil die Winkelauflösung dementsprechend grob ist. Bessere Winkelauflösungen wären zwar mit entsprechend höheren Frequenzen im MHz Bereich zu erreichen, mit denen sich ein besser fokussiertes Signal realisieren ließe, Signale dieser hohen Frequenzen werden jedoch stark von der Luft absorbiert und führen deshalb zu deutlich kleineren Reichweiten.
Bei der Bewegung können autonome mobile Roboter zu jeder Zeit vielleicht auf ein Hindernis stoßen. In diesem Fall kann Ultraschallsensor eine wichtige Rolle spielen. Mit dem Ultraschallsensor können autonome mobile Roboter einige nützliche Informationen über Hindernis erkennen. Deshalb ist Ultraschallsensor ein sehr wichtiger Sensor für autonome mobile Roboter.
3.1.1.3 Infrarot
Als Sicherheitssensoren verwenden Roboter oft auch Infrarotsensoren, die ebenfalls ringförmig am angebracht sind. Die Sensoren emmitieren einen modulierten infraroten Lichtimpuls. Wegen der entwickelten Technologie sind Infrarotsensoren (IR) wohl die einfachsten der kontaktlosen Sensoren und werden in der autonomen mobilen Robotik vielfach in der Hinderniserkennung verwendet.
Infrarotsensoren können ein infrarotes Lichtsignal aussenden. Nach der Strahlung der Objekte dieses Lichtsignals kommt eine Reflexion.Wenn die Infrarotsensoren das Lichtsignal empfängt, werden die Daten der Zeitdifferenz von der Aussendung und dem Empfang mit den Bilder erledigt.
Infrarotsensoren haben gute Entstörung. Wegen des kleineren Abstrahlwinkels sind Infrarotsensoren wichtige Sensoren für die Hindernisvermeidung. Infrarotsensoren haben gute Empfindlichkeit, die für das Erkennen des Hindernises sehr hilfreich ist.
Die Entfernungsgenauigkeit dieser Infrarot-Sensoren liegt bei ca. 30 cm bei Reichweiten um 5 Meter. Im Vergleich zu den Ultraschallsensoren haben Infrarot-Sensoren eine bessere Winkelaudlösung. Es gibt auch einige Hauptgründe für Fehlmessungen, z,B. Absorption, Totalreflektion und Fremdsignale (wie z.B. direktes Sonnenlicht).
3.1.1.4 Laser
Laser-Sensoren sind die Sensoren, die mit der Lasertechnik messen. Im letzten Jahrzehnt haben sich Laserscanner in der mobilen Robotik durchgesetzt, trotz ihres relativ hohen Gewichts, Energiebedarfs und Preises. Laserscanner erlauben akkurate Entfernungsmessungen über größere Distanzen. Deshalb sind Laser-Sensoren neue Werkzeuge für die Messung.
Die Eigenschaften der Laser-Sensoren sind die schnelle Geschwindigkeit, die hohe Präzision usw. Mit diesen Laser-Sensoren können autonome mobile Roboter den Platz messen. Laserentfernungsmesser (auch Laserradar oder Lidar) werden heute häufig in der mobilen Robotik eingesetzt, um die Entfernung, Geschwindigkeit und Beschleunigungsrate von wahrgenommenen Objekten zu messen. Auf dem Roboter ARS sowie auf vielen anderen mobilen Robotern kommt als Laser-Entfernungssensor der PLS (Proximity Laser Scanner) der Firma SICK Optic Electronic Company zum Einsatz. Der Sensor wurde ursprünglich zur Überwachung von gefährlichen Regionen, etwa dem Arbeitsbereich eines Industrieroboters, entwickelt.
Der Scanner hat eine Reichweite von 20 m, eine Winkelauflösung von 0.5 Grad bei einem Scanbereich von 180 Grad in einer Ebene und eine Entfernungsgenauigkeit von 5 cm. Der Sensor kann nach Wahl 360, 180, 90, 45, 30, 15, 10 oder 9 Entfernungswerte pro Scan über die serielle RS 232 Schnittstelle senden.
Der Sensor arbeitet mit Laufzeitmessung des reflektierten Lichts. Eine hochauflösende Uhr misst die Zeit zwischen der Aussendung eines extrem kurzen Lichtimpulses und der Detektion eines Signals durch den Empfänger. Ein Spiegel leitet den Laserstrahl um und rotiert dabei mit einer Frequenz von 12 Hz. Das reflektierte Signal gelangt durch den halbdurchlässigen Spiegel zum Empfänger.
Abbildung 11: 1D Laserabstandsmesssystem Leica Disto.
Sie basieren jeweils auf einem Laserabstandsmesssystem,das einen Laserstrahl in einer Richtung aussendet und über Lichtlaufzeitmessung oder Phasendifferenzmessung die Entfernungbis zumnächsten Objekt in Laufrichtungmisst. Solch ein Basis-Messgerät ist gewissermaßen ein 1D-Laserabstandsmesssystem, weil es die Entfernung zu einem Raumpunkt misst. Sie sind aus dem Heimoder Handwerkerbereichbekannt, s. Abbildung 11.
Dort verwendet man Laserlicht im sichtbaren Spektralbereich, um den Raumpunkt sehen zu können, zu dem gerade die Entfernung gemessen wird. Solche 1D-Sensoren werden auf mobilen Robotern üblicherweise nicht eingesetzt, verdeutlichen aber das Messprinzip.
3.1.1.4.1 2D-Laserscanner
Mobile autonome Roboter müssen durch unbekannte Umgebungen navigieren können, um ihre Aufgaben wie Post austragen oder Staub saugen zu erledigen.
Für diese grundlegenden Navigationsaufgaben standen bisher nur 2D−Laserscanner zur Verfügung, mit denen lediglich eine horizontale Abtastung der Umgebung möglich war. Derartige Systeme sind insbesondere nicht in der Lage, Hindernisse wie Tische oder Objekte mit überstehenden Kanten außerhalb der Scan−Ebene zu erfassen.
2D-Laserscanner erweitern 1D-Laserentfernungssensoren. Zum Erzeugeneiner einzelnen Zeile wird ein Spiegel rotiert,andem der Laserstrahl reflektiert wird. Dadurch entstehen verschiedene Scanbereiche, üblicherweise 90◦, 180◦ oder 270◦. Diese Bereiche werden mit Winkelauflösungen von 1◦, 0.5◦ oder 0.25◦ abgetastet. Abbildung 12 zeigt mehrere 2D-Laserscanner-Modelleder Firma Sick, die häufig auf Robotern eingesetzt werden. Diese Scanner wurden als Sicherheitssensoren entwickelt.
Abbildung 12: Laserscanner der Firma Sick. Von links nach rechts: Lms 200, Lms 291, S3000 und S300.
3.1.1.4.2 3D-Laserscanner
3D ist ein aktueller Trend in der Robotik. Die Entwicklung von 3D-Sensorik schreitet
schnell voran. Der 3D−Laserscanner ist als Sensor für autonome mobile Roboter geeignet und basiert auf einem 2D−Scanner, wie sie heute schon üblicherweise auf autonomen Robotern eingesetzt werden.
3D-Laserscanner messen Entfernungen zu Objekten im dreidimensionalen Raum. Dabei wird einem 2D-Laserscanner entweder ein zweiter Drehspiegel hinzugefügt, oder ein kompletter 2D-Scanner wird gedreht.
Abbildung 13: Der 3D−Laserscanner
Abbildung 14: der autonome mobile Roboter ausgestattet mit dem 3D−Laserscanner
Weitere Anwendungsgebiete für den 3D−Laserscanner sind beispielsweise:
Für Facility Managenent Systeme. Diese benötigen aktuelle Informationen über Gebäude. Es wird versucht, ein digitales Gebäudemodell aktuell zu halten.
Für Objektklassifikationssysteme. Es wird versucht, aus den 3D Informationen (Tiefenbildern) Objekte zu klassifizieren.
Für 3D−Überwachungssysteme. Hierbei werden Einrichtungen und Anlagen überwacht, um zum Beispiel den Sicherheitsbereich von Maschinen zu kontrollieren.
3.1.2 Sensoren für Dead-Reckoning
Dead-Reckoning ist eine Methode zur relativen Positionsbestimmung. Mit allen Sensoren vom autonomen mobilen Roboter können diese Sensoren für Dead-Reckoning die Bewegungsinformationen vom autonomen mobilen Roboter erfassen. Durch Rekursionsformel können diese Sensoren für Dead-Reckoning die abgeschätzte Position vom autonomen mobilen Roboter bekommen.
Dead-Reckoning ist die laufende näherungsweise Ortsbestimmung eines bewegten Objekts aufgrund von Bewegungsrichtung (Kurs) und Geschwindigkeit (Fahrt). Mit diesen Sensoren für Dead-Reckoning werden kleine Positionsveränderungen des Roboters bestimmt. Dazu werden alle Positionsveränderungen über die Zeit aufsummiert. Diese Sensoren für die Dead-Reckoning sind meistens direkt im Antrieb des Roboters integriert. Geeignete Sensoren (wie Drehgeber) sind an den Antriebsachsen des Roboters platziert. Da auch die Kraftübertragung über die Antriebsachsen erfolgt, besteht hier die Gefahr, dass ein evtl. auftretender Schlupf die Messungen verfälscht. Breite Räder oder Kettenantriebe führen zu Schlupf und somit zu Ungenauigkeiten. Weiche Räder können je nach Belastung den Umfang verändern und deshalb ebenfalls die Odometrie verfälschen. Deshalb werden in manchen Fällen passiv mitlaufende Räder benutzt, um die Positionsveränderung zu messen.
Zudem eignen sich für Dead-Reckoning alle Sensoren, die die Geschwindigkeit des Roboters relativ zur Umwelt messen. Aber diese Sensoren für die Dead-Reckoning sind nicht geeignet für die präzise Messung, die lange Zeit braucht und eine Langstrecke hat.
Dead-Reckoning eignet sich für die inertiale Positionsbestimmung. Für die Erhaltung der Position müssen die Werte der Beschleunigungsmesser zweifach integriert werden. Diese Sensoren für die Dead-Reckoning macht die Positionsbestimmung einfach.
3.1.3 Kamera
Die Eigenschaften des Sensors Kamera sind breiter Detektionsbereich, reiche Informationen. Durch Kamera können die dreidimensionale Objekte zum zweidimensionalen Plane Image wechseln. Durch die Bildverarbeitung werden die Bilder der Objekte exportiert.
Der Sensor Kamera nimmt einzelne Bilder mit Pixelsensoren auf und stellt sie dem Roboter in digitaler Form zur Verfügung. Ein Pixel oder Bildpunkt bezeichnet das kleinste Element einer Rastergrafik. Der Anschluss von Kameras an den Steuerrechner erfolgt üblicherweise mit Hilfe von Usb oder Firewire. Durch die Algorithmen werden die Form, die Distanz und die Geschwindigkeit und andere nützliche Informationen bekommen. Mit der Bildsequenz eines Kameras werden die Distanz und die Geschwindigkeit der Objekte gemessen. Mit dem SSD Algorithmus wird die Relativverschiebung nach der Bewegungsbilder der Aufnahme gerechnet. Aber bei der Bildverarbeitung brauchen die Methoden wie Schärfen und Merkmalextraktion viel Zeit. Deshalb gibt es vielleich auch einige Einschränkung. Die Visionentfernungsmessung kann die transparente Hindernisse wie Glas usw. nicht erkennen.
Zudem haben die Lichtstärke und der Rauch einen offensichtlichen Einfluß auf Visionsensoren. Deshalb sind die Lichtbedingungen sehr wichtig und hilfreich für Visionsensor. Wenn es eine gute Lichtbedingung gibt, können viele schlechte Resultat vermieden werden.
3D-Kameras
Seit einigen Jahren werden 3D-Kamera entwickelt (vgl. Abbildung 15 und folgende). Diese Kameras verwenden zusätzliche Laserdioden, die die Szenemit moduliertem Licht beleuchten.
Abbildung 15: 3D-Kameras: Links und Mitte Swissranger von Csem. Rechts: Pmd-Kamera.
3.1.4 Berührungssensoren
Die Berührungssensoren sind die wichtige Technik für Autonome mobile Roboter. Die Berührungssensoren können physikalischen Kontakt mit einem Objekt feststellen. Genauer gesagt messen sie eine physikalische Veränderung, die normalerweise durch physikalischen Kontakt mit einem Objekt hervorgerufen wird. Die einfachsten Berührungssensoren sind Mikroschalter oder Fühlersensoren.
Wenn eine Stoßleiste mit einem Objekt in Berührung kommt, wird dadurch ein Mikroschalter geschlossen und schließt einen Stromkreis, was vom Rechner des Roboters erkannt wird.
Andere einfache Berührungssensoren beruhen zum Beispiel auf Dehnungsmeßstreifen oder piezoelektrischen Sensoren.
3.1.5 Sensorsignale sind interpretationsbedürftig
Aus der Beschreibung der verschiedenen Sensoren und Aktoren, die in der mobilen Robotik zur Verfügungstehen, wirddeutlich, daß die Sensoren ausschließlich bestimmte physikalische Eigenschaften wahrnehmen können,die in irgend einem, zunächst vagen, Zusammenhang mit der Information stehen, die der Roboter tatsächlich benötigt.
Es gibt keine ,,Hindernissensoren“, nur Mikroschalter, Sonarsensoren, Infrarotsensoren usw., deren Signal die An- oder Abwesenheit eines Objekts angibt. Es ist aber durchaus möglich, daß der Mikroschalter ein Signal auslöst, nur weil der Roboter über eine Bodenwelle fährt; oder ein Sonarsensor meldet ein Hindernis aufgrund von Übersprechen (crosstalk); oder ein Infrarotsensor entdeckt möglicherweise ein Objekt nicht, weil es schwarz ist und deshalb kein Infrarotsignal reektiert.
3.1.6 Aktoren
3.1.6.1 Elektrisch, pneumatisch, hydraulisch
Autonome mobile Roboter sind die Geräte, die die Arbeit automatische machen. Autonome mobile Roboter können nicht nur die menschliche Anweisung akzeptieren, sondern auch können nach der vorprogrammierten Programme selbst arbeiten.
Die Aufgabe vom autonomen mobilen Roboter ist, die Arbeiten der Menschen zu ersetzen, z,B. Bereiche vom Bau oder der Herstellung oder einigen gefährlichen Arbeitsbereichen. Der in der mobilen Robotik am häufigsten verwendete Aktorentyp ist der Elektromotor, normalerweise ein Gleichstrommotor oder ein Schrittmotor.
Im Allgemein versteht man Aktoren als die Teile eines Roboters, die physikalische Aktionen durchführen können. Das Antriebsgerät ist eine Vorrichtung, die die Aktoren für Bewegung antreibt. Die Aktoren kann die Bewegung oder die Arbeitssituation zu jeder Zeit erkennen. Diese Detektionsgerät sind sehr hilfreich dafür, dass die Bewegung vom autonomen mobilen Roboter den vorherbestimmten Anforderungen entsprechen. Es gibt eine spezielle Form von Aktoren Manipulatoren, die Veränderungen der Umwelt zulassen (Handhabungsaufgaben wie z.B. Objekte greifen und absetzen, bohren, schweißen). Einige Aktoren besitzen eine interne Regelung, die die gegebenen Soll-Werte bestmöglichst umzusetzen versucht. Dennoch kann man davon ausgehen, dass jeder Aktor fehlerbehaftet ist und dass einige Aktionen unter bestimmten Bedingungen nicht korrekt ausgeführt werden können.
Die Aktoren von einem autonomen mobilen Roboter dienen zur Veränderung seiner Position in der Umgebung. Dies können ein Fahrwerk mit Rädern, Ketten, Beine zum Laufen oder Springen oder andere Fortbewegungsmechanismen zum Schwimmen, Fliegen, Rollen sein. Es gibt sehr viele Fortbewegungsarten, welche alle ihre Vor- und Nachteile haben. Beine ermöglichen z.B. eine sehr fexible Fortbewegung und sind insbesondere in unwegsamem Gelände nützlich.
Aber die Ansteuerung ist sehr komplex. Außerdem lassen sich mit Rädern auf glattem Untergrund im Allgemeinen höhere Geschwindigkeiten erreichen. Viele Arbeiten eignen sich für spezielle Fortbewegungssystemen und deren Kontrolle. In dieser Arbeit soll jedoch darauf nicht weiter eingegangen werden, sondern es werden beispielhaft nur rollende Roboter, die vorwärts und rückwärts fahren und sich dabei drehen können, betrachtet. Dies schließt jedoch nicht aus, dass sich die hier vorgestellten Konzepte auf Roboter mit anderen Fortbewegungssystemen und sogar mit völlig anderen Aktoren übertragen lassen.
3.1.6.2 Nicht-holonomische und holonomische Bewegung
Die Bewegungsmöglichkeiten eines Roboters können durch die Grenzen, die dieser Bewegung gesetzt sind, charakterisiert werden. Nicht-holonomische Systeme unterliegen Beschränkungen, die mit Geschwindigkeiten zu tun haben, während holonomische Einschränkungen von Geschwindigkeiten unabhängig sind. Ein Beispiel für die nicht-holonomische Beschränkung ist die Bewegung eines Rades um seine Achse. Die Geschwindigkeit des Kontaktpunktes zwischen Rad und Boden ist in Achsenrichtung auf Null beschränkt, die Radbewegung unterliegt daher einer nicht-holonomischen Bewegungseinschränkung.
3.1.7 Datenfusion der Multisensoren
Wenn die Sorte und die Menge der Sensoren mehr verwendet werden, gibt es für jeden Sensor einige Verwendungsbedingungen und Wahrnehmungsbereiche. Zudem kann jeder Sensor einige Informationen über die Umgebung oder die Objekte anbieten. Um diese von jedem Sensor angebotene Informationen effktiv zu verwenden, sollen diese Informationen mit einer Form zusammen erledigt werden. Das Prozess bezeichnet man als Informationsfusion der Multisensoren. Weil Sensoren verschiedene Charakteristiken aufweisen und unterschiedliche Vor-und Nachteile haben,ist Datenfusion eine außer ordentlich schwierige Aufgabe.
Die Technik der Informationsfusion der Multisensoren ist eine der Schlüsseltechnologien für autonome mobile Roboter. In den 80er Jahren des 20. Jh begannen die Menschen diese Technik zu erforschen. Die Informationsfusion bedeutet, dass alle Informationen integriert verarbeitet werden, die von vielen Sensoren angeboten werden. Diese Technik der Informationsfusion der Multisensoren umfasst die Komplementarität, die Redundanz, die Rechtzeitigkeit und die niedrige Kosten der Informationen. Deshalb können autonome mobile Roboter mit der Technik der Informationsfusion der Multisensoren die Eigenschaften der Umgebung genauer und umfassender zeigen. Dann können autonome mobile Roboter die richtige Beurteilung machen. Diese Technik der Informationsfusion der Multisensoren kann die Schnelligkeit, die Genauigkeit und die Stabilität anbieten.
Nach der Informationsfusion der Multisensoren werden die Informationen zum Kontrollzentrum übertragen. Dann macht das Kontrollzentrum die Beurteilung. Dann wird die Beurteilung zum Aktor übertragen. Zum Schluss werden autonome mobile Roboter entsprechende Aktion machen.
4 Navigation
Die Navigationstechnik ist die Kerntechnologien für autonome mobile Roboter. Für einen mobilen Roboter ist Navigieren eine der wichtigsten Fähigkeitenüberhaupt.
An erster Stelle steht natürlich die Notwendigkeit, überhaupt betriebsfähig zu bleiben, also geführliche Situationen wie Zusammenstöße zu vermeiden und akzeptable Betriebsbedingungen aufrecht zu erhalten (Temperatur, Strahlung, Witterungsschutz usw.). Soll der Roboter jedoch Aufgaben ausführen, die sich auf bestimmte Orte in der Roboterumgebung beziehen, dann muß er navigieren können. Die Navigation mobiler Roboter ist eine Domäne, die seit vielen Jahren von vielen Forschungsgruppen untersucht wird. Es gibt bereits mehrere Robotersysteme, die hervorragend in ihrer Umgebung navigieren können.
Navigation kann als eine Kombination der folgenden drei Kompetenzen definiert werden: Selbstlokalisierung, Routenplanung, Kartenerstellung und Karteninterpretation. Der BegriffKarte steht in diesem Zusammenhang für jede direkte Zuordnung oder Abbildung von Einheiten in der wirklichen Welt auf Einheiten innerhalb einer internen Repräsentation. Diese Repräsentation gleicht nicht unbedingt einer gewöhnlichen Landkarte oder einem Stadtplan. Bei Robotern zum Beispiel besteht eine ,,Karte“ häufig aus den Erregungsmustern künstlicher neuronaler Netze. Lokalisierung steht für die Kompetenz des Agenten, seine eigene Position innerhalb eines Bezugssystems feststellen zu können.
Routenplanung ist im Prinzip eine Erweiterung der Lokalisierung, da der Agent seine gegenwärtige Position unddie angestrebte Ziel position innerhalb ein und desselben Bezugsystems bestimmen muss. Die Kompetenz des Kartenerstellens bezieht sich nicht nur auf Karten, wie wir sie normalerweise benutzen, d.h. metrische Karten der Umgebung, sondern auf jegliche Art der Beschreibung von Positionen innerhalb des Bezugsystems. Dazu gehört auch,Informationen über erkundetes Terrain festzuhalten. Schließlich benötigt man für den Umgang mit Karten auch die Fähigkeit, sie zu interpretieren.
Die Navigation eines autonomen mobilen Roboters läßt sich grob durch die drei Fragen „Wo bin ich?“, „Wohin gehe ich?“ und „Wie gelange ich dorthin?“ zusammenfassen. Es gibt viele Navigationsweise für Autonome mobile Roboter. z,B Visionbasierte Positionierung, Lichtreflexion Positionierung, das Global Positioning System (GPS), Ultraschallpositionierung, SLAM Technologien usw.
Jede Navigation hat eigene Eigenschaften und eignet sich für unterschiedliche Anwendungsbereiche. Die Navigation ist eine der wichtigsten Aufgaben eines mobilen Roboters.
4.1 Selbstlokalisierung
Dieser Teil diskutiert Methoden zur Selbstlokalisierung eines mobilen Roboters. Die Aufgabe hierbei ist, die Position des Roboters aufgrund einer apriori Umgebungskarte und Sensordaten des Roboters zu bestimmen.
Zur Bestimmung der Position in einem globalen Bezugssystem gibt es integriete Sensoren. Generell unterscheidet man zwischen zwei verschiedenen Selbstlokalisierungsproblemen: globale Selbstlokalisierung und lokale Selbstlokalisierung.
4.1.1 Globale Selbstlokalisierung
Bei der globalen Selbstlokalisierung wird der Roboter an einen beliebigen Ort gestellt und dem System wird die Gelegenheit gegeben, die Umwelt mit den Sensoren des Roboters zu beobachten.
Das System muss dann durch Auswerten der Sensorinformationen entscheiden, an welchen möglichen Positionen der Roboter sich benden kann. Der Prozeß, um diese Entscheidung zu treffen, ist im allgemeinen aufwendig und benötigt je nach Größe des Suchraums entsprechend viel Rechenzeit.
Abbildung 16: Links Navstar Satellit. Quelle: U.S. Air Force (public domain). Rechts: Gps-Empfänger Garmin-Usb mit SiRF-III Chipsatz wie er auf Kurt verwendet wird.
GPS
Ein weit verbreitetes Sensorsystem für mobile Roboter ist das globale Positionsbestimmungssystem (engl. global positioning system, Gps). Der Begriff Gps wird aber im Allgemeinen für das Navstar-Gps (engl. Navigational Satellite Timing and Ranging – Global Positioning System) des US Verteidigungsministeriums verwendet, das seit 1995 zur weltweiten Positionsbestimmung und Zeitmessung verwendet werden kann. Abbildung 16 zeigt einen Navstar-Satelliten und einen Gps-Empfänger.
Satellitensignale von mindestens vier Satelliten werden mit kleinen und mobilen Empfangsgeräten detektiert. Um die Laufzeiten der Signale gering zu halten, befinden sich die Satelliten im erdnahen Orbit, decken aber nur einen kleinen Teil der Erdoberfläche ab. Mindestens 24, besser 32 Satelliten werden benötigt, um eine vollständige Abdeckung zu erreichen.
Bei der Standortbestimmung misst man die Laufzeitzu mindestens vier Satelliten. Jede dieser Entfernungen definiert eine Kugeloberfläche um den zugehörigen Satelliten, auf der sich der Empfänger befindet.
Zwei Kugeln schneiden sich in einem Kreis,drei Kugeln ergeben maximal zwei Punkte als Schnittmenge, wenn man vom geometrischen Fall mit gleichem Radius und Mittelpunkt absieht, was in der Praxis nie erreicht werden kann. Verwendet man Hintergrundwissen und verwirft den weniger wahrscheinlichen Schnittpunkt, lässt sich die Position bestimmen.
4.1.2 Lokale Selbstlokalisierung
Bei der lokalen Selbstlokalisierung dagegen ist die ungefähre Position des Roboters
bereits bekannt und es soll „nur“ eine Positionskorrektur berechnet werden. Dies ist der Fall, wenn der Roboter an einer ungefähr bekannten Position aufgestellt wird und dann fortlaufend seine Position durch Abgleich der Sensordaten mit Umgebungskarte bestimmt.
Zunächst wird eine bekannte Selbstlokalisierungsmethode, die Koppelnavigation, vorgestellt, welche Sensordaten der Odometrie auswertet. Dieses Verfahren wird in den meisten Robotersystemen eingesetzt.
Bei der Koppelnavigation wird die Positionsänderung eines Fahrzeugs durch Messen des zurückgelegten Weges eines oder mehrere Räder bestimmt. Zu diesem Zweck sind an den Rädern Sensoren angebracht, welche die Drehbewegung des jeweiligen Rades messen. Zusätzlich kann ein Kreiselkompaß verwendet werden, um die Orientierung des Roboters zuverlässiger zu bestimmen.
Lokalisierungsmethoden lassen sich allgemein in die drei Kategorien verhaltensbasierte Ansätze, Landmarkenlokalisierung und dichte Sensordaten vergleichende Verfahren einteilen. Verhaltensbasierte Ansäze beruhen auf der Interaktion von Roboteraktionen mit der Umwelt, um zu navigieren.
Zum Beispiel folgte Connell's Roboter Herbert einer Faustregel, um durch eine Büroumgebung zu fahren und seinen Weg zurückzunden, indem die Prozedur der Hinfahrt rückwärts angewandt wurde [Connell, 1990]. Weiter verfeinerte Systeme lernen interne Strukturen, die „abgespielt“ werden können, um Aktionen zu wiederholen oder rückgängig zu machen [Arkin, 1990].Während verhaltensbasierte Systeme für bestimmte Aufgaben sehr nützlich sind, ist ihre Fähigkeit einen Roboter geometrisch zu lokalisieren begrenzt, da die Navigationsfähigkeit implizit in der Sensor- und Aktionshistorie liegt. Landmarkenlokalisierung beruht auf der Erkennung von Landmarken, um den Roboter geometrisch zu lokalisieren.
Die Landmarken können können a priori gegeben sein (z.B. die Satelliten im GPS-Navigationssystem oder in der Umgebung angebrachte Marken, die mit speziellen Mustern oder auffälligen Farben versehen sind), oder vom Robotersystem in einer Explorationsphase gelernt werden (z.B. Sonar-Landmarken [Leonard et al., 1990].) Während Landmarkenlokalisierung beeindruckende Ergebnisse in geometrischer Lokalisierung erreichen kann, muß entweder die Einsatzumgebung vorher eingerichtet werden oder natürliche Landmarken effizient und robust erkannt werden können.
Im Gegensatz hierzu, versuchen dichte Sensordaten vergleichende Verfahren die gesamte verfügbare Sensorinformation zu verwenden, um die Roboterposition zu bestimmen. Dies wird dadurch bewerkstelligt, dass dichte Sensorscans mit einer Oberflächenkarte der Umgebung verglichen werden ohne dabei Landmarken aus den Sensordaten zu extrahieren. Daher können dichte Sensordaten vergleichende Verfahren sich beliebige in den Sensordaten vorhandene Merkmale zum Vorteil machen, ohne dabei explizit diese Merkmale zu denieren.
4.2 Weltmodelle für Navigation
Weltmodelle für Navigation mobiler Roboter sind zumeist zwei-dimensionale, geometrische oder topologische Karten. Die dritte Dimension in die Karten mit aufzunehmen, macht das Modell für die Navigation meistens unnötig komplex.
Außer dieser Repräsentation der Umwelt gehören aber weitere Komponenten zu einem Weltmodell. So muss ein Verfahren existieren, mit dem der aktuelle Zustand des Weltmodells mittels der Sensordaten aktualisiert werden kann, und es müssen entsprechende Algorithmen zur Planung der globalen Navigation anwendbar sein.
4.2.1 Geometrische Weltmodelle
Unter geometrischen Weltmodellen werden hier positionsbezogene Modelle verstanden. Die Eigenschaften der Umwelt werden jeweils ‚an‘ einer bestimmten Position bzw. mit einer Positionsangabe gespeichert, so dass sie sich in einer zwei-dimensionalen geometrischen Karte mit euklidischen Koordinaten platzieren lassen. Bei gerasterten Karten wird die Umwelt in eine Menge von Bereichen eingeteilt - im einfachsten Fall in gleich große Quadranten (Raster) - und die Eigenschaften der Umwelt für jeden der Bereiche gespeichert. Ein typisches Beispiel hierfür sind Occupancy Grid-Maps. Vektorielle Karten dagegen speichern eine Menge von Objekten jeweils mit Positionsangabe, wobei die Positionsangabe hier nicht an ein Raster gebunden sein muss und die Objekte selbst neben anderen Eigenschaften typischerweise auch eine geometrische Beschreibung beinhalten.
4.2.1.1 Vektorielle Karten mit geometrischen Primitiven
Als geometrische Grundformen zur Beschreibung der Umwelt werden hier Liniensegmente, Kreise, Polygone oder andere geometrische Primitive benutzt.
Der Rand eines Polygons ist eine Liste von Liniensegmenten. Oft werden insbesondere konvexe Polygone zur Modellierung von Hindernissen verwendet. Polygone eignen sich besonders in manuell erstellten Weltmodellen kombiniert mit Off-Line-Planung. Der Nachteil dieser Methode besteht unter Anderem darin, dass die Sensoren eines mobilen Roboters immer nur eine Seite eines Polygons erfassen können und deshalb eine dynamische Erstellung und Pflege eines solchen Modells schwer fällt.
Um effektive Pfadplanung durchzuführen, werden diese geometrischen Karten typischerweise in planare Graphen transformiert, welche die Topologie der Umgebung wiedergeben.
4.2.1.2 Occupancy Grid-Maps
Occupancy Grid-Maps eignen sich nicht nur als Weltmodell, sondern sind auch als Methode zur Sensor-Fusion bekannt.
Für die lokale Navigation ist vor allem die freie, befahrbare Fläche in der Umgebung des Roboters interessant. Sind mehrere verschiedene Sensoren zum Messen der freien Fläche vorhanden, so stellt sich zwangsläufig die Frage nach einer geeigneten Sensor-Fusion. Die Messungen der verschiedenen Sensoren sind von unterschiedlichen Zeitpunkten und haben unterschiedliche Charakteristika, was die Genauigkeit, die Reichweite und sonstige Eigenschaften betrifft. Selbst wenn nur ein Abstandssensor benutzt wird, ist zumindest die Zusammenfassung mehrerer zeitlich aufeinander folgender Messungen von Interesse.
Für die Erstellung einer Occupancy Grid-Map wird die lokale Umgebung des Roboters eingeteilt in Regionen, im einfachsten Fall durch ein Raster (engl.: grid) in Quadranten.
4.2.2 Topologische Weltmodelle
Diese Weltmodelle geben hauptsächlich die Topologie1 der Umwelt wieder. Sie besitzen im Allgemeinen einen höheren Abstraktionsgrad als geometrische Karten und werden typischerweise als Graph mit Objekten und Beziehungen zwischen diesen Objekten dargestellt.
Im weitesten Sinne können manche topologische Karten auch als geometrische Karten interpretiert werden. Auch hier ist der Übergang fließend. Der höhere Abstraktionsgrad prägt sich darin aus, dass Bereiche in der Umgebung zu Objekten wie Kreuzungen, Abzweigen, Räumen. zusammen gefasst werden und teilweise semantische Beziehungen zu benachbarten Objekten erfasst sind. Planungsalgorithmen lassen sich dadurch auf topologischen Weltmodellen im Allgemeinen direkter implementieren.
4.2.3 Probabilistische Weltmodelle
Da die Sensorik, auf welche alle Verfahren zur Aktualisierung eines Weltmodells angewiesen sind, fehlerbehaftet ist, ist auch ein bestimmter Zustand immer fehlerbehaftet. Mittels eines Fehlermodells lässt sich dieser Fehler des Zustands zumindest annähernd quantitativ eingrenzen. Unabhängig von der Ungenauigkeit der Sensorik kommen jedoch weitere Fehlerquellen hinzu:
Erstens sind durch die ungenaue Modellierung der Umwelt Fehlinterpretationen der Sensordaten möglich. Dies kommt daher, dass sich in der Umwelt Objekte (z.B. Personen oder andere dynamische Objekte) befinden, welche im Weltmodell nicht oder nur unzureichend modelliert werden können.
Diese Objekte können bei der Auswertung der Sensordaten mit Objekten im Weltmodell verwechselt werden oder die Erkennung von Objekten im Weltmodell verhindern. Zweitens kann die Umwelt z.B. von verschiedenen Positionen aus die gleichen Sensoreindrücke vermitteln. Dadurch wird eine eindeutige Positionsbestimmung und somit auch die Zuordnung der Sensordaten zum globalen Modell nur aus den momentanen Sensordaten unmöglich. Da viele Aktualisierungsverfahren für Weltmodelle einen eindeutigen, zuvor bestimmten Zustand des Modells zur Bestimmung des neuen aktuellen Zustandes benutzen, wird in vielen nicht probabilistischen Verfahren nur der wahrscheinlichste alte Zustand als Grundlage für die Berechnung der neuen Zustände verwendet.
Probabilistische Weltmodelle können auf geometrischen oder topologischen Weltmodellen basieren. In probabilistischen Weltmodellen wird nicht ein bestimmter Zustand gespeichert, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen Zustände oder zumindest über einer Teilmenge der möglichen Zustände. Dadurch steigt der Aktualisierungsaufwand aber auch der Informationsgehalt. Die probabilistisch erfassten Zustandsvariablen im Weltmodell betreffen hier meistens nur wenige Objekte im Weltmodell. Typischerweise wird sogar nur die Position des Roboters mit einer probabilistischen Zustandsvariablen beschrieben.
Um die Wahrscheinlichkeitsverteilung der Zustandsvariablen aktualisieren zu können, benötigt man ein probabilistisches Sensor- und Aktormodell. Das Sensormodell beinhaltet Informationen, wie wahrscheinlich es ist, bei einem bestimmten realen Zustand eine bestimmte Sensormessung zu erhalten.
Das Aktormodell beschreibt andererseits wie wahrscheinlich es ist, einen bestimmten realen Folgezustand zu erreichen unter der Bedingung, dass versucht wurde eine bestimmte Aktion auszuführen.
Sensor- und Aktormodelle können teilweise durch statistische Versuche ermittelt werden. Um die Zahl der Experimente zu reduzieren, ist es wichtig zu bestimmen, von welchen Faktoren der Ausgang der Messungen bzw. der Aktion wesentlich abhängt. Die Wahrscheinlichkeitsverteilung der Entfernungen einer Entfernungsmessung hängt global gesehen beispielsweise mit der Position des Sensors und der momentanen Beschaffenheit der Umgebung zusammen.
Da reale, dynamische Umgebungen jedoch diese Bedingung nicht erfüllen, müssen zusätzliche Techniken angewendet werden, um ein gutes Lokalisierungsverfahren zu erhalten. Abgesehen davon wird die Aktualisierung schon unter diesen Annahmen sehr aufwendig, wenn die betrachteten Zustandsräume groß sind. Aus diesem Grund werden auch entsprechende Techniken zur Reduktion des Aktualisierungsaufwandes benötigt.
5 Analyse von Steuerungsarchitekturen
Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines Systems. Sie soll die Implementierung und Wartung von komplexen Anwendungen erleichtern und typische Fehler von vornherein vermeiden helfen. Dabei sollten Steuerungsarchitekturen für mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein. Hierzu gehören die Anforderungen, die durch ungenaue Sensorik und Aktorik entstehen, sowie Zeitanforderungen durch die Interaktion mit einer realen Umwelt.
Die Gesamtsteuerung wird in verschiedene Module evtl. verschiedener Klassen eingeteilt. Sie legt deren Interaktion, semantische Bedeutung und Beziehung zueinander fest. Dazu gehören z.B. die Kommunikation und Hierarchie zwischen den Modulen. Weiterhin wird evtl. festgelegt, wie der interne Zustand des Systems strukturiert ist, gespeichert wird und wie die Module darauf zugreifen können.
Die Steuerungsarchitektur ist also eine Art Rahmenwerk und stellt selbst keine lauffähige Anwendung dar, sondern wird erst durch die Implementierung mit Funktionalität gefüllt.
In diesem Teil wird zunächst der Einsatz von hybriden Steuerungsarchitekturen motiviert. Hybride Steuerungsarchitekturen zielen auf eine Symbiose von verhaltensbasierten (oder reaktiven) Ansätzen mit klassischen, funktionsbasierten Ansätzen ab. Es ist der Versuch, die Vorteile beider Ansätze in Einklang zu bringen. Im Rahmen einer Klassifikation werden typische hybride Steuerungsarchitekturen vorgestellt und analysiert. Die daraus gewonnenen Erkenntnisse fließen im folgenden Kapitel in die im Laufe dieser Arbeit entwickelte Steuerungsarchitektur ein.
5.1 Prozessdatenverarbeitung
Etwas abstrakter betrachtet handelt es sich bei einem Roboter um ein System, das Prozessdaten verarbeitet. Die Daten werden von Sensoren geliefert und Ergebnisse über Aktoren in physische Reaktionen umgesetzt.
x → Black-Box → y
Der aktuelle Ausgang y der Black-Box wird bestimmt von der Sequenz aller Wahrnehmungen x bis zum aktuellen Zeitpunkt, das bedeutet, dass die Box im Allgemeinen auch ein Erinnerungsvermögen hat. Die gewählte Steuerungsarchitektur beantwortet dann die Frage nach der Struktur der Black-Box.
Ein Großteil der Forschungsarbeiten der künstlichen Intelligenz beschäftigt sich mit der Lösung von Problemstellungen, bei denen zum Zeitpunkt, wenn der Lösungsprozess gestartet wird, alle nötigen Informationen vorliegen. Lsungsmethoden beruhen hier im Allgemeinen auf intelligenten Suchstrategien im Zustandsraum des Problems. Lösungen sind dabei vollständige Pfade (Folgen von Zuständen bzw. Folgen von Aktionen) vom Ausgangszustand zum Zielzustand, welche die Zielbedingungen des Problems erf¨ullen und evtl. zusätzlich eine Kostenfunktion minimieren. Hierbei werden im Normalfall einige Voraussetzungen angenommen, die diese Vorgehensweise rechtfertigen:
• Bestimmte Aktionen bewirken bestimmte, bekannte Zustandsänderungen und nur diese.
• Während des Lösungsprozesses ändert sich der Zustand des Weltmodells nicht.
5.1.1 Zeitbedingungen
Im Gegensatz zur Verarbeitung von Daten aus einer Datenbank können die Daten vom System nicht bei Bedarf abgeholt werden, sondern müssen ausgelesen werden, wenn sie vom Sensor gemessen werden.
Insbesondere fallen natürlich kontinuierlich weitere Daten an, und auch die Verarbeitung muss kontinuierlich erfolgen. Dabei werden im Allgemeinen auch Daten und Ergebnisse aus den vorhergehenden Zeitschritten benöigt. Sensordaten fallen in teilweise sehr unterschiedlichen Zeitintervallen an. Natürlich können die Daten gespeichert bzw. gepuffert werden. Handelt es sich jedoch um wichtige Daten, die z.B. für die Kollisionsvermeidung relevant sind, müssen sie innerhalb einer engen Zeitspanne bearbeitet und ausgewertet werden. Andererseits fallen auch andere Daten an, die zwar ebenfalls wichtig sind, auf die jedoch nicht besonders schnell reagiert werden muss.
Auch die Verarbeitungszeit der Daten ist je nach Ziel der Verarbeitung unterschiedlich. So ist die Prüfung, ob ein Messwert eine Schwelle überschreitet, in wenigen Prozessortakten erledigt, jedoch kann die Erkennung eines Objektes sehr aufwendig werden und die Akkumulation vieler Daten erfordern. Weiterhin können auch verschiedene Verarbeitungsergebnisse bestimmter Datenquellen verschiedene Dringlichkeiten besitzen. Auch auf der Ausgangsseite sind zeitliche Bedingungen zu beachten. So müssen manche Steuerkommandos nicht unmittelbar, sondern erst zu einem bestimmten Zeitpunkt oder auch nach einer bestimmten Verzögerungszeit, ausgeführt werden.
Die oben genannten gemischten Echtzeitanforderungen an die Datenverarbeitung sind ein wesentlicher Grund für den Entwurf von neuen Architekturen zur Verarbeitung der Daten eines mobilen Roboters.
5.2 Verhaltensbasierte Steuerungsarchitekturen
Verhaltensbasierte Ansätze erfuhren einen großen Aufschwung als Brooks 1986 seinen Artikel „A robust layered control system for a mobile robot“ [Bro86] veröffentlichte und gleichzeitig demonstrierte, dass dieser Ansatz überzeugende Ergebnisse auf dem Gebiet der robusten Steuerung von sechsbeinigen Robotern zeigte [Bro89]. Außerdem lieferte Brooks theoretische Hintergründe des Erfolgs [Bro89, Bro91b, Bro91a]. Parallel hierzu fanden Wissenschaftler aus dem Gebiet der Kybernetik und Biologie anhand von Studien an Insekten (u.a. Stabheuschrecken) heraus, dass das Geheimnis hinter der so komplex anmutenden Fortbewegung auf sechs Beinen durch unebenes Gelände wahrscheinlich das Zusammenwirken von mehreren recht einfachen Regelmechanismen in Wechselwirkung mit der Umwelt ist [CBB+95, CDK+99]. Dies war deshalb erstaunlich, weil vorhergehende Ansätze zur Steuerung sechsbeiniger Roboter, die versuchten die Bewegung aller sechs Beine zentral zu steuern, auf erhebliche Probleme gestoßen waren. Problematisch waren vor allem die große Anzahl der Freiheitsgrade einer solchen Laufmaschine, die Ungenauigkeit der Sensorik und die harten Echtzeitbedingungen.
Offensichtlich war man mit dem verhaltensbasierten Ansatz auf eine Methode gestoßen, die gerade in der Robotik Vorteile gegenüber dem konventionellen funktionalen Ansatz birgt und die zusätzlich ihr Vorbild in der Natur fand. Weitere Wissenschaftler gelangten mehr oder weniger unabhängig zu ähnlichen Erkenntnissen ([PV92, PS94, Ste94, Smi94, MB93, Bee90, Sac87]). Es folgten verschiedene Studien zu verhaltensbasierten, reaktiven mobilen Robotern ([Bra84, VKP92, Kub97, SP95, SB95, Ste97b, Ste97a, Mat97, FS95, GIM94]).
Es fiel jedoch auf, dass verhaltensbasierte Roboter zwar sehr reaktionsschnell und robust agierten, es mangelte ihnen jedoch an planerischen Fähigkeiten [BKSW95b, BK95b, BK95a]. Dadurch wurden die Prämissen von Brooks, kein Weltmodell zu benutzen und keinen internen Zustand zu speichern, in Frage gestellt. Wie auch Erann Gat in [Gat93] herausstellt, entstehen Probleme mit Weltmodellen und internen Zuständen immer dann, wenn implizit Folgerungen und Vorhersagen aus den gespeicherten Zuständen generiert werden, welche nicht zutreffen.
Deshalb sind viele Probleme zu beseitigen, indem darauf geachtet wird, dass das Weltmodell und der intern gespeicherte Zustand nur Informationen enthalten, die zutreffende Vorhersagen zulassen. Dies ist zumeist für abstraktere Informationen der Fall. Diese Informationen können zwar genutzt werden, um die Aktionen des Roboters grob zu leiten, sind jedoch nicht geeignet, um ihn zu steuern. Verhaltensbasierte Steuerungsarchitekturen müssen nun festlegen, wie dieses Leiten der Aktionen realisiert wird, ohne die reaktiven Fähigkeiten der Verhalten zu unterbinden. Um diesen Problemen zu begegnen, wurden eine Vielzahl von hybriden Steuerungsarchitekturen entwickelt, von denen einige wichtige im nächsten Abschnitt vorgestellt werden. Einige Begriffe in der verhaltensbasierten Robotik werden nicht einheitlich verwendet, insbesondere wird der Begriff ‚Verhalten‘ unterschiedlich aufgefasst. Um Missverständnissen vorzubeugen, wird hier zunächst die Bedeutung einiger Begriffe für diese Arbeit umrissen.
Ein einfaches Modul, welches gelesene Eingangsdaten bzw. Sensordaten mit Algorithmen und Funktionen auf Ausgangsdaten bzw. Aktionen abbildet, nennen wir ’Verhalten’. Dabei ist von einem ‚Reflex‘ die Rede, wenn das Modul mit bestimmten Ausgabemustern direkt und sehr schnell auf wenige, bestimmte Ereignisse oder Muster von Eingangsdaten reagiert, völlig unabhängig vom internen Zustand. Ein Reflex ist also ein besonders einfaches und schnelles Verhalten und reagiert nur in bestimmten Situationen (Stimulus - Response).
Dagegen bezeichnen wir Verhalten, die kontinuierlich alle Eingangsdaten auswerten und auf einen kontinuierlichen Strom von Ausgangsdaten abbilden, als ‚Kontrollverhalten‘. Der Begriff ‚Verhalten‘ stimmt somit in dieser Arbeit mit dem Begriff ‚behavior‘ überein, wie er in den meisten Arbeiten verwendet wird. Andererseits benutzt beispielsweise L. Steels den Begriff ‚behavior‘ in [Ste94] mit einer anderen Bedeutung. Dort ist ein Verhalten (behavior) eine Abfolge von beobachteten und interpretierten Aktionen eines Roboters in seiner Umgebung. Ein Verhalten ist dort demnach kein spezielles Modul oder ein Algorithmus, sondern es erwächst aus dem Zusammenspiel von einem oder mehreren reaktiven Modulen untereinander sowie mit der Umwelt.
Obwohl dieser Begriff von Verhalten näher an der biologischen Definition liegt und vielleicht sogar treffender ist, werden wir hier den Begriff ‚Verhalten‘ so verwenden wie oben beschrieben, denn er wird auch in der Mehrzahl der Arbeiten zu verhaltensbasierten Steuerungsarchitekturen so benutzt.
In diesem Teil wird Steuerungsarchitekturen für autonome mobile Roboter ausführlich analysiert. Dabei gibt es auch einen Überblick über Prozessdatenverarbeitung und Verhaltensbasierte Steuerungsarchitekturen. Durch diese Analyse kann man die nützliche Informationen darüber erhalten, besonders über die Informationen für Zeitbedingungen und Verhaltensbasierte Steuerungsarchitekturen. Verhaltensbasierte Steuerungsarchitekturen sind die beliebte Thema für autonome mobile Roboter.
6 Zusammenfassung
Roboter sind künstliche, von Menschen entworfene und gebaute technische Objekte. In dieser Arbeit kann man autonome mobile Roboter gut verstehen. Auch die Beschaffenheit der Einsatzumgebung wurde in dieser Arbeit vorgestellt.
Es wurden typische Sensoren und Aktoren für autonome mobile Roboter beschrieben. Eine kurze Übersicht über andere autonome mobile Roboter wurde in dieser Arbeit beschrieben. Danach kann man auch die Geschichte über autonome mobile Roboter besser kennen.
Zudem wurden auch bekannte lokale und globale Navigationsverfahren vorgestellt. Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines Systems. Dabei sollten Steuerungsarchitekturen für autonome mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein.
Autonome mobile Roboter bewegen sich in einer offenen Umgebung, deshalb sind die Definition und Pflege eines geschlossenen Weltmodells schwieriger als bei stationären Robotern. Für einen mobilen Roboter stellt die sichere Navigation ein grundlegendes Aufgabenfeld dar. Gleichzeitig ist die Navigation in dynamischen Umgebungen ein typischer Anwendungsfall für die Zusammenfassung von reaktiven und deliberativen Verfahren.
Die Navigation lässt sich in lokale und globale Navigation unterteilen. In der lokalen Umgebung muss der Roboter sensororientiert arbeiten und auf dynamische Objekte reagieren. Bei einigen Robotern müssen zusätzlich nicht-holonomische Eigenschaften berücksichtigt werden.
Es gibt noch die Informationen über Lokalisierung über autonome mobile Roboter, die ein sehr wichtiges Thema für autonome mobile Roboter ist. Es ist notwendig, dass man Lokalisierung über autonome mobile Roboter gut versteht.
Durch diese Arbeit kann man wissen, dass wie die Verwendung von Sensordaten aus der Umgebung für mobile Roboter eine zentral wichtige Rolle spielt. Ein Grundverständnis der technischen Sensoren ist daher auch dann erforderlich. In dieser Arbeit kann man die Antwort bekommen.
Kurz gesagt, man kann durch die Arbeit neue Erkenntnisse über autonome mobile Roboter erfassen. In der Zukunft werden autonome mobile Roboter wichtiger als jetzt sein.
Literatur
Bilder aus dem Buch » Mobile Robots - State of the Art in Land, Sea, Air, and Collaborative Missions «, XiaoQi Chen, Y.Q. Chen and J.G. Chase.
Bilder aus dem Buch »Mobile Robotik«, Ulrich Nehmzow
https://de.wikipedia.org/wiki/Autonomer_mobiler_Roboter
https://publikationen.uni-tuebingen.de/xmlui/handle/10900/48655