Das ist die Entwicklungsumgebung eclipse. Unten Links der Rpi Zero für die Hand. Darüber der RPi 4 mit der zentralen Spracherkennung
inmoov roboter technik
Software ist jetzt auf github
DerKlappmechanismus Entwurf funktional fertig
Der Klappmechanismus Teil 2 neuer Versuch
Der Klappmechanismus der linken Hand
Back to Ky
Hier wird alles entwickelt
Die eclipse IDE: links der Remote explorer mit dem Zugriff auf den Respeaker Core v2.
In der Mitte die Python Datei zum Testen. Rechts die Weboberfläche für Rhasspy.
Unten der ssh Zugriff auf den Respeaker Core v2 mit einem Debian OS und der Ausgabe von Top.
Auf dem Respeaker läuft ein Docker Image mit Rhasspy 2.5.7 .
Alles beobachtet jeden
Alles zu sehen
Die Augenkameras zeigen die Lampe die vom Server bei Dunkelheit angeschaltet werden kann
Blick von der BodyCam auf den Kopf
Im oberen Bild sieht man rechts oben die Werkstattkamera links oben der Blick auf den Kopf von der BodyCam.
Unten rechts ist die rechte Augenkamera unten links die linke Augenkamera
Der Stromverbrauch des Kopfes
Das ganze mit einem USB-Stick Multimeter gemessen und zeigt den Stromverbrauch des Kopfes
Der Kopf und die Augen
Im inneren des Kopfes werkeln 2 Raspberry Pi zero + USB to Ethernet adapter + 5-Fach Switch. Auf den RpI’s läuft motion um die Augenkameras als Stream zur Verfügung zu stellen.
Nun wieder der Kopf
Ich habe einen USB zu Ethernet Adapter aufgesägt und die Platine auf den Raspberry Pi zero geklebt. Die USB Anschlüsse habe ich direkt auf die Platine gelötet, da die Stecker an der Seite zuviel Platz wegnehmen.
Auf dem Raspberry pi zero läuft Buster mit motion für die Camera
Die Hand und die Finger
Die Hand Motorhalter neu erstellt Hier nochmal mit Beschriftung
Ich widme mich wieder der Kopf-Hardware
der Kopf von vorn und ein Blick hinein Die Hebel habe ich heute neu gedruckt
Der Kopf montiert aber noch nicht geschlossen
Auf dem rechten Bild sieht man die Flachbandkabel der Raspberry Pi Cam’s herausschauen
Mit Augen Ein Blick in den Kopf
Das Gesicht bekommt Farbe
Das Kabel für die Pi Cam ist da
Das Auge mit der Pi Cam und dem neuen langen Kabel Der Pi Zero mit ETH/USB hat
Hier die Augen Videos
Es geht wieder weiter
… das soll da hin
So siehts von hinten aus, denn …
Der Mund und die Bewegung
Nun geht es mit dem Kopf der Entwicklungsumgebung weiter
Extra einen Halter für den Gaumen gebaut Der Gaumen rot lackiert und Zähne drinnen Der obere Gaumen mit Zähnen ist auch fertig
Meine Entwicklungsumgebung
Beispiel für die Fortsetzung
Hier die Fortsetzung
alternativ ins Knie eingebaut
sie ist für Drucker gedacht und jetzt mit der Drehbank angepasst.
Was ist das ? Fortsetzung folgt …
Ja demnächst nach dem die Teile in der Drehbank angepasst sind mehr
Auch das ist neu
Beim neuen Hals läuft die Mechanik ohne größere Reibung
Neu gegen alt
Die neue Version ist optimiert und ich musste keine größeren manuellen Arbeiten daran vornehmen. Leichter ist sie auch
Da wollte ich nur die Bewegung des Kopfes testen und schon muss man ein Teil optimieren
Bei dem alten Teil unten Links war die Achse nicht zu 100% in der Mitte, das
hatte zur Folge das die Servos ständig surren da immer eine sehr
hohe Kraft aufgewendet werden muss.
So sieht es denn aus wenn man vom Motioneye beobachtet wird
Die Spracherkennung funktioniert
Das ist die Spracherkennungsplatine
Nun steht Ky in einem anderen Zimmer
Das Ohr des Ky 2 video
Nur der Wetterbericht wird online geholt
Unterschenkel Motor und Getriebe
Hier die Teile für die Achse des Oberschenkels
Der Oberschenkel bewegt sich
Noch ein bischen wackelig aber ansonsten ok