- Construit sur un châssis Ackermann, idéal pour apprendre et valider les robots basés sur la direction
- Alimenté par NVIDIA Jetson Nano, JetAcker prend en charge ROS, le deep learning, MediaPipe, YOLO et TensorRT pour des tâches avancées de vision 3D
- Équipé d'une caméra de profondeur 3D et de Lidar, JetAcker permet le contrôle à distance, la cartographie 2D, la planification de trajectoire TEB et l'évitement dynamique des obstacles
- Les caractéristiques incluent un cadre en alliage d'aluminium, une direction CNC, des roues de 100 mm, des moteurs à encodeur Hall et une batterie de 6000mAh
- Contrôlez JetAcker via l'application WonderAi (iOS/Android), poignée sans fil, ROS ou clavier
Description du produit:
JetAcker est alimenté par NVIDIA Jetson Nano et prend en charge le système d'exploitation pour robots (ROS). Il exploite les cadres de deep learning grand public, intègre le développement MediaPipe, permet l'entraînement du modèle YOLO et utilise l'accélération TensorRT. Cette combinaison offre une gamme diversifiée d'applications de vision machine 3D, y compris la conduite autonome, l'interaction somatosensorielle et le suivi de cible KCF. De plus, avec JetAcker, vous pouvez apprendre et valider divers algorithmes SLAM robotiques.
1) Structure de direction Ackerman Suspension Pendulaire
Les roues arrière du châssis sont toujours en état parallèle. Lors du virage, l'angle de rotation de la roue intérieure est supérieur à celui de la roue extérieure. La direction par la différence d'angle de rotation des roues intérieures et extérieures est appelée direction Ackermann.
2) Équipé de Lidar & Prend en charge la navigation cartographique SLAM
JetAcker est équipé de lidar, qui peut réaliser la cartographie et la navigation SLAM, et prend en charge la planification de trajectoire, la navigation à point fixe et l'évitement dynamique des obstacles.
3) Système de direction CNC
Des pièces CNC tout en métal de haute précision combinées à un servo intelligent à forte capacité de charge offrent une force de rotation exceptionnelle.
4) Roue Solide Haute Densité
Capacité de charge, résistance à la déformation, coefficient de frottement réduit et usure mécanique minimisée, ce qui se traduit par une durée de vie prolongée.
5) Structure de Suspension Pendulaire
La structure de suspension pendulaire de haute précision équilibre la force, permettant une bonne adaptabilité aux surfaces inégales tout en évitant tout impact sur le moteur.
6) Pan-tilt Haute Performance 240°
Il est entraîné par un servo de bus série qui offre une protection contre la surchauffe. Sa plage de rotation allant jusqu'à 240° étend les plages d'exploration de JetAcker.
1. Conception à Double Contrôleur pour une Collaboration Efficace
1) Contrôleur Hôte
- Contrôleur ROS (JETSON, Raspberry Pi, etc.)
- Localisation et Cartographie Simultanées (SLAM)
- Interaction Voix Homme-Machine
- Algorithmes Al Avancés
- Réseaux Neuronaux Profonds
- Traitement d'Image Visuelle AI
2) Sous-Contrôleur
- Contrôleur Robot STM32
- Contrôle PID Haute Fréquence
- Contrôle en Boucle Fermée du Moteur
- Contrôle et Retour d'Information du Servo
- Acquisition de Données IMU
- Surveillance de l'État de l'Alimentation
2. Fournir une Image Système ROS1 & ROS2
ROS2, la version améliorée de ROS1, conserve toutes ses fonctions tout en prenant en charge plus de systèmes d'exploitation et d'environnements de compilation. Il offre un contrôle en temps réel, un développement modulaire amélioré et des tests, offrant des fonctionnalités plus puissantes et des applications plus larges que ROS1.
3. Navigation Cartographique Lidar
JetAcker est équipé de lidar, qui prend en charge la planification de trajectoire, la navigation à point fixe, la navigation et l'évitement des obstacles, la cartographie de plusieurs algorithmes, et réalise les fonctions de garde radar et de suivi radar.
1) Positionnement Lidar
En combinant un encodeur haute précision auto-développé Lidar et des données de capteur accéléromètre IMU, JetAuto peut réaliser une cartographie et une navigation précises.
2) Diverses Méthodes de Cartographie Lidar 2D
JetAcker utilise divers algorithmes de cartographie tels que Gmapping, HectorKarto et Cartographer. De plus, il prend en charge la planification de trajectoire, la navigation à point fixe et l'évitement des obstacles pendant la navigation.
3) Navigation Multi-point, Planification de Trajectoire TEB
JetAcker utilise le Lidar pour détecter les environs et prend en charge la navigation à point fixe, la navigation continue multi-point et d'autres applications robotiques.
4) Cartographie d'Exploration Autonome RRT
En adoptant l'algorithme RRT, JetAcker peut compléter la cartographie d'exploration, enregistrer la carte et revenir au point de départ de manière autonome, il n'est donc pas nécessaire de contrôler manuellement.
5) Évitement Dynamique des Obstacles
JetAcker peut détecter les obstacles en temps réel pendant la navigation et re-planifier le chemin pour éviter les obstacles.
6) Suivi Lidar
En scannant l'objet en mouvement à l'avant, le Lidar rend le robot capable de suivre la cible.
4. Interaction Al Vision 3D Améliorée
JetAcker est équipé d'une caméra de profondeur 3D, prend en charge la cartographie et la navigation en vision 3D, et peut obtenir des images de nuages de points 3D. Grâce à l'apprentissage profond, il peut réaliser un gameplay interactif de vision AI plus avancé.
1) Caméra de Profondeur 3D
Équipé d'une caméra de profondeur Astra Pro Plus, JetAcker peut percevoir efficacement les changements environnementaux, permettant une interaction Al intelligente avec les humains.
2) Cartographie et Navigation en Vision 3D RTAB-VSLAM
En utilisant l'algorithme RTAB SLAM, JetAcker crée une carte colorée 3D, permettant la navigation et l'évitement des obstacles dans un environnement 3D. De plus, il prend en charge la localisation globale au sein de la carte.
3) ORBSLAM2+ORBSLAM3
ORB-SLAM est un cadre SLAM open-source pour caméras monoculaires, binoculaires et RGB-D, capable de calculer la trajectoire de la caméra en temps réel et de reconstruire les environs 3D. Et en mode RGB-D, la dimension réelle de l'objet peut être acquise.
4) Données de Carte de Profondeur, Nuage de Points
Grâce à l'API correspondante, JetAcker peut obtenir la carte de profondeur, l'image couleur et le nuage de points de la caméra.
5. Apprentissage Profond, Conduite Autonome
Grâce à l'apprentissage profond, JetAcker peut implémenter des fonctions de conduite autonome, ce qui est une plateforme parfaite pour apprendre les fonctionnalités de base de la conduite autonome.
1) Détection de Panneaux Routiers
En entraînant la bibliothèque de modèles d'apprentissage profond, JetAcker peut réaliser la conduite autonome avec la vision Al.
2) Maintien de Voie
JetAcker est capable de reconnaître les voies de chaque côté pour maintenir une distance de sécurité entre lui et les voies.
3) Stationnement Automatique
Combiné avec l'algorithme d'apprentissage profond, JetAcker peut reconnaître le panneau de stationnement, puis se diriger automatiquement dans l'emplacement.
4) Prise de Décision de Virage
Selon les voies, les panneaux routiers et les feux de circulation, JetAcker utilisera et les feux de circulation, JetAuto estimera le trafic et décidera s'il faut tourner.
6. Développement MediaPipe, Interaction AI Améliorée
JetAcker utilise le cadre de développement MediaPipe pour accomplir diverses fonctions, telles que la reconnaissance du corps humain, la reconnaissance des bouts de doigts, la détection de visage et la détection 3D.
1) Reconnaissance de Trajectoire des Bouts de Doigts
2) Reconnaissance du Corps Humain
3) Détection 3D
4) Détection de Visage 3D
7. Interaction Vision AI
En incorporant l'intelligence artificielle, JetAcker peut implémenter le suivi de cible KCF, le suivi de ligne, la reconnaissance et le suivi de couleur/étiquette, la reconnaissance d'objet YOLO et plus encore.
1) Suivi de Cible KCF:
En s'appuyant sur l'algorithme de filtrage KCF, le robot peut suivre la cible sélectionnée.
2) Suivi de Ligne Visuelle:
JetAcker prend en charge la sélection de couleur personnalisée, et le robot peut identifier les lignes de couleur et les suivre.
3) Reconnaissance et Suivi de Couleur/Étiquette
JetAcker est capable de reconnaître et de suivre la couleur désignée, et peut reconnaître plusieurs April Tags et leurs coordonnées en même temps.
4) Reconnaissance d'Objet YOLO
Utilisez l'algorithme de réseau YOLO et la bibliothèque de modèles d'apprentissage profond pour reconnaître les objets.
8. Matrice de Microphones 6CH à Champ Lointain
Cette matrice de microphones 6CH à champ lointain est habile à la localisation de source sonore à champ lointain, à la reconnaissance vocale et à l'interaction vocale. En comparaison avec le module de microphone ordinaire, il peut implémenter des fonctions plus avancées.
1) Localisation de Source Sonore:
Grâce à la matrice de 6 microphones, un positionnement haute précision des sources de réduction de bruit est réalisé. Avec la reconnaissance de distance radar, Hiwonder peut être convoqué à n'importe quel endroit.
2) Diffusion Vocale TTS
Le contenu textuel publié par ROS peut être directement converti en diffusion vocale pour faciliter la conception interactive.
3) Interaction Vocale
La reconnaissance vocale et la diffusion vocale TTS sont combinées pour réaliser l'interaction vocale et prendre en charge l'expansion de la fonction de conversation vocale en ligne d'iFlytek.
4) Navigation Vocale
Utilisez des commandes vocales pour contrôler Hiwonder afin d'atteindre n'importe quel emplacement désigné sur la carte, similaire au scénario de contrôle vocal d'un robot de livraison de nourriture.
9. Formation Interconnectée
Grâce à la communication multi-aéronefs et à la technologie de navigation, JetAcker peut réaliser des performances de formation multi-aéronefs et des jeux d'intelligence artificielle.
1) Navigation Multi-véhicules
En fonction de la communication multi-machines, JetAcker peut réaliser la navigation multi-véhicules, la planification de trajectoire et l'évitement intelligent des obstacles.
2) Formation Intelligente
Un lot de JetAcker peut maintenir la formation, y compris la ligne horizontale, la ligne verticale et le triangle pendant le déplacement.
3) Contrôle de Groupe
Un groupe de JetAcker peut être contrôlé par une seule poignée sans fil pour effectuer des actions de manière uniforme et simultanée
8. Système d'Exploitation pour Robots ROS
ROS est un méta-système d'exploitation open-source pour robots. Il fournit certains services de base, tels que l'abstraction matérielle, le contrôle de périphérique de bas niveau, l'implémentation de fonctionnalités couramment utilisées, la transmission de messages entre processus et la gestion de paquets. Et il offre également les outils et fonctions de bibliothèque nécessaires pour obtenir, compiler, écrire et exécuter du code sur plusieurs ordinateurs. Il vise à fournir un support de réutilisation de code pour la recherche et le développement en robotique.
10. Simulation Gazebo
JetAcker est construit sur le système d'exploitation pour robots (ROS) et s'intègre à la simulation Gazebo. Cela permet un contrôle sans effort du robot dans un environnement simulé, facilitant la prévalidation des algorithmes pour éviter les erreurs potentielles. Gazebo fournit des données visuelles, vous permettant d'observer les trajectoires de mouvement de chaque point final et centre. Ce retour visuel facilite l'amélioration des algorithmes.
1) Contrôle de Simulation
Grâce au contrôle de simulation de robot, la vérification des algorithmes de navigation cartographique peut être effectuée pour améliorer la vitesse d'itération de l'algorithme et réduire le coût des essais et erreurs.
2) Modèle URDF
Fournir un modèle URDF précis, et observer l'effet de navigation cartographique à travers l'outil de visualisation Rviz pour faciliter le débogage et l'amélioration des algorithmes.
11. Diverses Méthodes de Contrôle
1) Programmation Python
2) Application WonderAi
3) Application Map Nav (Android uniquement)
4) Poignée sans fil