[PYTHON] Ich habe die Pepper NAOqi OS 2.5.5 SLAM-Funktion ausprobiert

Einführung

Ich habe versucht, die "SLAM-Funktion" zu verwenden, eine neue Funktion, die in NAOqi OS 2.5.5 installiert ist und am 4. April 2017 veröffentlicht werden soll. Daher werde ich sie zusammenfassen.

Warum SLAM?

Ich war im Februar 2017 für einen Monat im Silicon Valley. Wenn man von Robotern in den USA spricht, sind bewegungsbedingte Roboter wie Amazon-Lagerroboter und Sicherheitsroboter in Einkaufszentren an der Tagesordnung. Man kann sagen, dass Roboter, die Sensibilität ansprechen, eine in Japan einzigartige Kultur sind, aber ich dachte, dass das Bewegen von Pepper die Szenen, die verwendet werden können, erheblich erweitern würde, deshalb habe ich die SLAM-Funktion ausprobiert.

Warehouse Robot youtube Sicherheitsroboter youtube

Was ist die SLAM-Funktion?

SLAM (Simultane Lokalisierung und Zuordnung) bedeutet, dass __Selbststandortschätzung __ und Umgebungszuordnung gleichzeitig durchgeführt werden. Grob gesagt sucht Pepper nach Orten, an denen Sie sich bewegen können, und erstellt eine Karte davon. Es bewegt sich auch in die angegebene Richtung innerhalb des angegebenen beweglichen Bereichs. Auf diese Weise kann Pepper einen bestimmten Bereich durchstreifen und sich bewegen und dynamischere Aufgaben wie das Erklären von Exponaten ausführen. Man kann sagen, dass dies eine Funktion ist, die das Potenzial von Pfeffer erheblich ausschöpfen kann.

__Sensor zu verwenden __

image Eigentlich habe ich versucht zu überprüfen, welchen Sensor Pepper verwendet, um eine Karte bei der Suche nach SLAM zu erstellen.

An Pepper sind verschiedene Sensoren angebracht. Dieses Mal habe ich mich auf die Sensoren konzentriert, die beim Erstellen der folgenden Karten verwendet werden, und sie einzeln ausgeblendet.

Teil Sensorname Nummer
Stirn / Mund RGB-Kamera 2
Auge 3D-Sensor 1
Bein Lasersensor 6
Bein Sonarsensor 2
Bein Infrarotsensor 2

Ergebnis

Was Pepper verwendet hat, um SLAM abzubilden, war Es war ___ Sonarsensor ___ und __ Lasersensor __. Übrigens, wenn Sie Pepper mit diesen beiden versteckten Sensoren starten (Wake up), werden Sie aufgefordert, neu zu starten, indem Sie etwas sagen wie "Oh, meine Beine funktionieren nicht gut und ich kann mich nicht bewegen." Die Überprüfung begann mit dem Ausblenden des Sensors, nachdem dieser erfolgreich gestartet wurde. Von der Pfefferseite aus erkannte ich natürlich, dass die Umgebung voller Hindernisse war. Danach bewegte ich keinen Schritt mehr und erstellte eine Karte nur mit __ "Lasersensor" __.

FullSizeRender 2.jpg

Weitere Informationen zu Slams. Es wird unten in SOFTBANK ROBOTICS DOCUMENTATION beschrieben. NAO qi APIs ALNavigation¶

Im nächsten Artikel werde ich über die tatsächliche Implementierung schreiben. Pepper NAOqi OS 2.5.5 SLAM-Funktion ausprobieren - Teil 2-

Recommended Posts

Ich habe die Pepper NAOqi OS 2.5.5 SLAM-Funktion ausprobiert
Probieren Sie die Pepper NAOqi OS 2.5.5 SLAM-Funktion ~ Teil 2 aus
Ich habe die Changefinder-Bibliothek ausprobiert!
Ich habe die Naro-Roman-API 2 ausprobiert
Ich habe das 2. TensorFlow-Tutorial ausprobiert
Ich habe die neuartige API von Naruro ausprobiert
Ich habe versucht, den Ball zu bewegen
Ich habe versucht, die checkio-API zu verwenden
Ich habe versucht, den Abschnitt zu schätzen.
TensorFlow Tutorial Ich habe MNIST 3rd ausprobiert
Verwenden wir die NAOqi OS VM. Ich möchte Abhängigkeiten mit pip auch in der Pepper-Entwicklung auflösen
Ich habe den asynchronen Server von Django 3.0 ausprobiert
Ich habe versucht, den Befehl umask zusammenzufassen
Ich habe zum ersten Mal Tensorflow ausprobiert
Ich versuchte das Weckwort zu erkennen
Ich habe versucht, die grafische Modellierung zusammenzufassen.
Ich habe versucht, das Umfangsverhältnis π probabilistisch abzuschätzen
Ich habe versucht, die COTOHA-API zu berühren
Python: Ich habe das Problem des Handlungsreisenden ausprobiert
Ich habe versucht, mit Pillow mit dem Bild zu spielen
Pythons "Ich kann den juckenden Ort nicht erreichen ..."
Ich habe das Python Tornado Testing Framework ausprobiert
Ich habe versucht, die BigQuery-Speicher-API zu verwenden
Ich habe Hello World mit 64-Bit-OS + C-Sprache ohne Verwendung einer Bibliothek ausprobiert
Ich habe Web Scraping versucht, um die Texte zu analysieren.
Ich habe die Pivot-Table-Funktion von Pandas ausprobiert
[Python] Ich habe versucht, den Funktionsnamen durch den Funktionsnamen zu ersetzen
Ich habe versucht, die Wetterkarte einer Clusteranalyse zu unterziehen
Ich habe versucht, die Qiita-API von Anfang an zu aktivieren
vprof - Ich habe versucht, den Profiler für Python zu verwenden
Ich habe versucht, das Bild mit Python + OpenCV zu "differenzieren"
Ich habe die Methode der kleinsten Quadrate in Python ausprobiert
Ich habe versucht, PyCaret mit der schnellsten Geschwindigkeit zu verwenden
Ich habe zuerst die SARS-Analyse vor dem Corona-Virus versucht
Ich habe versucht, die Google Cloud Vision-API zu verwenden
Ich habe zum ersten Mal versucht, Python zu programmieren.
Ich habe versucht, die Trapezform des Bildes zu korrigieren
Ich habe versucht, das Bild mit Python + OpenCV zu "binarisieren"
Ich habe versucht, das Datetime-Modul von Python zu verwenden
Ich habe Mind Meld zum ersten Mal ausprobiert
Qiita Job Ich habe versucht, den Job zu analysieren
Ich habe versucht, den Bildfilter von OpenCV zu verwenden
LeetCode Ich habe versucht, die einfachen zusammenzufassen
Ich habe versucht, die funktionale Programmierbibliothek toolz zu verwenden
Ich habe versucht, mit tkinter mit dem Taschenrechner zu spielen
Ich habe versucht, das Problem des Handlungsreisenden umzusetzen
Ich habe versucht, die Texte von Hinatazaka 46 zu vektorisieren!
Ich habe versucht zu kratzen
Ich habe PyQ ausprobiert
Ich habe AutoKeras ausprobiert
Ich habe es mit Papiermühle versucht
Ich habe versucht, Django-Slack
Ich habe es mit Django versucht
Ich habe es mit Spleeter versucht
Ich habe es mit cgo versucht
Ich habe versucht, die Sündenfunktion mit Chainer zu trainieren
Ich habe versucht, die in Python installierten Pakete grafisch darzustellen
Ich habe Python zum ersten Mal auf dem Mac ausprobiert.