- Versions main droite et main gauche disponibles ; ceci est la version main droite
- Alimenté par Raspberry Pi 5 et prend en charge la programmation Python
- Travaillez avec OpenCV pour réaliser la reconnaissance et le suivi de la vision AI
- Le code open-source et des tutoriels détaillés sont fournis
Alimenté par Raspberry Pi, uHandPi est une main robotique intelligente à vision AI. Chargée avec une caméra HD, elle peut réaliser la reconnaissance des couleurs, la détection des visages et d'autres fonctions grâce à OpenCV. En plus du traitement d'image, uHandPi peut effectuer l'apprentissage automatique et entraîner divers modèles avec l'aide de Tensorflow+Keras. Pour une meilleure expérience utilisateur, uHandPi est équipé d'une application mobile !
1) Tri des couleurs
uHandPi utilise OpenCV pour effectuer la conversion d'espace colorimétrique, la segmentation de seuil, etc. Et extraire la couleur à reconnaître, puis effectuer le tri des couleurs.
2) Suivi des couleurs
uHandPi collabore avec OpenCV pour convertir l'espace colorimétrique, segmenter le seuil, etc., afin d'obtenir la coordonnée de la couleur cible. Ensuite, utiliser PID pour le suivi mobile.
3) Détection de visage
uHandPi est basé sur l'histogramme des gradients d'orientation pour réaliser la détection de visage. De plus, il adopte également l'interpolation bilinéaire, la classification SVM et d'autres stratégies.
4) Image de la caméra en temps réel
Sur l'application mobile et le bureau distant VNC, vous pouvez voir l'image en temps réel transmise par la caméra de uHandPi synchronisant vos yeux avec l'œil de uHandPi.
5) Pierre ! Feuille ! Ciseaux !
uHandPi implémente la classification des gestes basée sur l'apprentissage profond. La classification des gestes peut être réalisée grâce à l'acquisition d'images, l'étiquetage et l'entraînement.
6) Diverses méthodes de contrôle
uHandPi prend en charge le logiciel PC, le bureau de contrôle à distance VNC et le contrôle par application mobile, et vous pouvez expérimenter uHandPi de différentes manières !
7) Code Python open-source
uHandPi implémente la classification des gestes basée sur l'apprentissage profond. La classification des gestes peut être réalisée grâce à l'acquisition d'images, l'étiquetage et l'entraînement.
8) Servo anti-blocage
Avec un algorithme de protection contre le blocage intégré, le servo ne brûlera pas en raison de blocage et de collision, ce qui prolonge considérablement sa durée de vie.