Arucomover: Unterschied zwischen den Versionen

Aus Hackerspace Ffm
Wechseln zu: Navigation, Suche
 
(Eine dazwischenliegende Version desselben Benutzers wird nicht angezeigt)
Zeile 1: Zeile 1:
 
== Ziel ==
 
== Ziel ==
 +
 +
[[Datei:Arucomover.jpg |x300px]]
  
 
Ein kleiner Roboter auf Basis eines Raspberry Pi soll selbstständig Arucocodes finden und anfahren können.
 
Ein kleiner Roboter auf Basis eines Raspberry Pi soll selbstständig Arucocodes finden und anfahren können.
Zeile 21: Zeile 23:
  
 
Mit dem Dashboard UI aus Node Red heraus ist es möglich, dass der Benutzer steuern kann.
 
Mit dem Dashboard UI aus Node Red heraus ist es möglich, dass der Benutzer steuern kann.
 +
 +
Die erkannten Aruco IDs werden angezeigt. Ist eine ID erkannt worden, kann User Automatic wählen.
 +
 +
Automatic heißt,der Flow steuert den Robot auf den Aruco Code und stoppt den Robot kurz davor
 +
 +
Der Zustand des Bots (Load, Temperaturen, Calibration) wird auch angezeigt.
  
 
[[Datei:Arucomoverui.png |x300px]]
 
[[Datei:Arucomoverui.png |x300px]]

Aktuelle Version vom 10. Juli 2021, 12:53 Uhr

Ziel

Arucomover.jpg

Ein kleiner Roboter auf Basis eines Raspberry Pi soll selbstständig Arucocodes finden und anfahren können.

Konzept

Ein Python Script benutzt die OpenCV Library um Arucos im Bild mit Positionen und Entfernung zu erkennen. Der Videostream und die Position mit Entfernung werden von dem Script zur Verfügung gestellt.

Ein Node-Red Flow nimmt die Position auf und gibt Steuerbefehle an einen ItsyBitsy M3, der damit ein MotorShield steuert.

Angeschlossen aber nicht benutzt ist ein BNO055, der Sensordaten liefert um z.B. die Positionsbestimmung zu verbessern.

Hier eine Übersicht

Arucomover konzept.jpg

Hier ein Schaltplan dazu.

Arucomover diagram.jpg

Mit dem Dashboard UI aus Node Red heraus ist es möglich, dass der Benutzer steuern kann.

Die erkannten Aruco IDs werden angezeigt. Ist eine ID erkannt worden, kann User Automatic wählen.

Automatic heißt,der Flow steuert den Robot auf den Aruco Code und stoppt den Robot kurz davor

Der Zustand des Bots (Load, Temperaturen, Calibration) wird auch angezeigt.

Arucomoverui.png


Setup

Der Code und auch ein Setup können aus https://github.com/hackffm/arucomover geladen werden. Das Ganze läuft auf einem Debian basiertem Linux. Also Ubuntu oder Raspian. Im Setup Folder gibt es Skripte, die das Allermeiste vorbereiten sollten.
Das Skript arucodetection.py verwendet Shared Memory !
Erst ab Python 3.8 ist Shared Memory verfügbar. Auf einem RaspberryPi3 ist 3.7 default. Daher gibt es im Setup Folder das Hilfskript setup_python3_9.sh für den Pi 3.

Vor der Ausführung der Setups muss das Swapfile auf eine Raspberry vergrößert werden.

sudo nano /etc/dphys-swapfile -> CONF_SWAPSIZE=1024

sudo /etc/init.d/dphys-swapfile restart

Ein gutes Netzteil vorrausgesetzt, läuft das dann einige Zeit. Die übrigen Setup Skripte können, mit der richtigen Python Version dann ausgeführt werden. Der Schritt 2_setup_folders.sh installiert auch alle Python Requierements. Das kann auf einem PI 3 mehrere Stunden dauern, da diverse Kompilierungen im Hintergrund laufen !

Arucodetetcion

ist ein Pythoncode, der von dieser Seite OpenCV_mit_Python inspiriert ist und in zwei Prozessen läuft: Web und Arucodetecion. Damit der Webprozess die Arcuoposition über einen Websocket liefern kann, sind beide über eine Managed Queue verbunden. Der Videostream wird in ein Shared Memory geschrieben und vom Webprozess geholt. Dies ist erst ab Python 3.8 möglich ! Default für den Kameraanschluss ist "Camera Device 0". Sollte eine Kalibrierung für eine bessere Erkennung notwendig sein, kann ein entsprechendes Config File camera.json mit create_camera_config.py erstellt werden. Dies muss dann in den vom Setup erstellten /USERHOME/arucodetection Folder kopiert werden. Dort liegt auch eine config.json mit der sich die Kamera, Auflösung, Debug usw. einstellen läßt. Das Log landet in ~/arucdetection/log. Default ist DICT_6X6_50 für den Arucocode! Dies kann zur Zeit nur in der camera.py umgestellt werden.

Um zu testen ob alles funktioniert, stellt arucodetection.py eine entsprechende Webseite zur Verfügung, die Websocket und Videostream abfragt.

Die Webseite ist auf 127.0.0.1:9080 zu finden

Arucodetection.jpg

itsyBitsyM4

Die verwendeten libraries müssen im lib Folder vorhanden sein und eventuell nachinstalliert werden. Z.B. adafruit_bno055. Diese müssen zur CircuitPython Version des M4 passen.

code.py ist der ausgeführte Code. Der I2C Test ist in diesen eingebaut. Alle verfügbaren Kommandos können mit ? abgefragt werden. Will man nur I2C testen, kann man auch code.py umbenennen. Dann wird automatisch main.py aufgerufen, dass in einer Endlosschleife die angeschlossenen I2C Devices abfragt.

Node-Red

Entweder durch die Setup Skripte oder so sollte ein Node.js 14x vorhanden sein. Wenn das Skript 2_setup_folders.sh nicht ausgeführt wurde muss selbst dafür gesorgt werden, dass das Package.json File in ~/nodered/ abgelegt wurde und alle Package Depencies darin installiert wurden.

node_red_start.sh führt Folgendes aus:

node red --settings ~/git/arucomover/code/nodered/arucomover.js --flowFile ~/git/arucomover/code/nodered/flows_arucomover.json

Das Settings File startet NodeRed auf Port 9010
Editor => http:;//127.0.0.1:9010 und
UI => http:;//127.0.0.1:9010/ui

Der Flow ist in zwei Tabs aufgeteilt.
Ein Tab für die Daten von ItsyBitsy M4 und arucomover.py
Ein Tab für die Steuerbefehle an den ItsyBitsy M4
Beide Tabs habe UI Elemente und sind miteinander verbunden um ein einheitliches Handling zu ermöglichen.

Start

Es müssen zwei Prozesse gestartet werden also entweder nacheinander mit & in den Hintergrund oder z.B. mit screen oder tmux.

1.Start der arucodetection
source ~/arucodetection/venv/bin/activate

...../arucomover/code/arucodetection/arucodetection.py

2.Start der Node-Red Flows
...../arucodetection/cosde/bash/node_red_start.sh

Hardware Evolution

BOM

Raspberry Pi 3
BNO055
MotorAeshield V2