Ich habe versucht, die "SLAM-Funktion" zu verwenden, eine neue Funktion, die in NAOqi OS 2.5.5 installiert ist und am 4. April 2017 veröffentlicht werden soll. Daher werde ich sie zusammenfassen.
Ich war im Februar 2017 für einen Monat im Silicon Valley. Wenn man von Robotern in den USA spricht, sind bewegungsbedingte Roboter wie Amazon-Lagerroboter und Sicherheitsroboter in Einkaufszentren an der Tagesordnung. Man kann sagen, dass Roboter, die Sensibilität ansprechen, eine in Japan einzigartige Kultur sind, aber ich dachte, dass das Bewegen von Pepper die Szenen, die verwendet werden können, erheblich erweitern würde, deshalb habe ich die SLAM-Funktion ausprobiert.
Warehouse Robot youtube Sicherheitsroboter youtube
SLAM (Simultane Lokalisierung und Zuordnung) bedeutet, dass __Selbststandortschätzung __ und Umgebungszuordnung gleichzeitig durchgeführt werden. Grob gesagt sucht Pepper nach Orten, an denen Sie sich bewegen können, und erstellt eine Karte davon. Es bewegt sich auch in die angegebene Richtung innerhalb des angegebenen beweglichen Bereichs. Auf diese Weise kann Pepper einen bestimmten Bereich durchstreifen und sich bewegen und dynamischere Aufgaben wie das Erklären von Exponaten ausführen. Man kann sagen, dass dies eine Funktion ist, die das Potenzial von Pfeffer erheblich ausschöpfen kann.
Eigentlich habe ich versucht zu überprüfen, welchen Sensor Pepper verwendet, um eine Karte bei der Suche nach SLAM zu erstellen.
An Pepper sind verschiedene Sensoren angebracht. Dieses Mal habe ich mich auf die Sensoren konzentriert, die beim Erstellen der folgenden Karten verwendet werden, und sie einzeln ausgeblendet.
Teil | Sensorname | Nummer |
---|---|---|
Stirn / Mund | RGB-Kamera | 2 |
Auge | 3D-Sensor | 1 |
Bein | Lasersensor | 6 |
Bein | Sonarsensor | 2 |
Bein | Infrarotsensor | 2 |
Was Pepper verwendet hat, um SLAM abzubilden, war Es war ___ Sonarsensor ___ und __ Lasersensor __. Übrigens, wenn Sie Pepper mit diesen beiden versteckten Sensoren starten (Wake up), werden Sie aufgefordert, neu zu starten, indem Sie etwas sagen wie "Oh, meine Beine funktionieren nicht gut und ich kann mich nicht bewegen." Die Überprüfung begann mit dem Ausblenden des Sensors, nachdem dieser erfolgreich gestartet wurde. Von der Pfefferseite aus erkannte ich natürlich, dass die Umgebung voller Hindernisse war. Danach bewegte ich keinen Schritt mehr und erstellte eine Karte nur mit __ "Lasersensor" __.
Weitere Informationen zu Slams. Es wird unten in SOFTBANK ROBOTICS DOCUMENTATION beschrieben. NAO qi APIs ALNavigation¶
Im nächsten Artikel werde ich über die tatsächliche Implementierung schreiben. Pepper NAOqi OS 2.5.5 SLAM-Funktion ausprobieren - Teil 2-
Recommended Posts