- Prend en charge à la fois ROS1 et ROS2, avec des options de contrôle principal incluant Raspberry Pi 5, Jetson Nano et Jetson Orin Nano
- Propulsé par NVIDIA Jetson Orin Nano, JetRover prend en charge les cadres d'apprentissage profond, le développement MediaPipe et l'entraînement du modèle YOLO pour un apprentissage avancé de ROS
- Équipé d'une caméra de profondeur 3D et de Lidar, JetRover gère la navigation multi-point, la planification de trajectoire TEB et l'évitement dynamique des obstacles en utilisant des algorithmes avan
- Doté d'un bras 6DOF avec un servo de couple de 35KG et une caméra HD, JetRover excelle dans les tâches de manipulation précise d'objets
- Le kit ultime comprend une matrice de microphones circulaire pour la cartographie, la navigation et l'opération du bras robotique contrôlés par la voix
Description du produit
JetRover est un robot composite ROS développé par Hiwonder pour les scénarios d'éducation ROS. Il prend en charge trois châssis de mouvement : roue Mecanum, direction Ackerman et chenille. Il est équipé de NVIDIA Jetson Nano, moteur d'encodage magnétique haute performance et bras robotique à six degrés de liberté. Des configurations matérielles haute performance telles que lidar, caméra de profondeur 3D, écran LCD de 7 pouces et matrice de microphones à champ lointain peuvent réaliser le contrôle du mouvement du robot, la navigation cartographique, la planification de trajectoire, le suivi et l'évitement d'obstacles, la conduite autonome, la saisie 3D, la navigation et la manipulation, l'interaction somatosensorielle, l'interaction vocale à champ lointain, le contrôle de formation de groupe et d'autres applications.
1) Bras robotique 6DOF, Servo intelligent de bus
JetRover est équipé d'un bras robotique 6DOF et d'un servo haute tension à couple élevé, ce qui prolonge considérablement l'endurance du robot.
2) Navigation cartographique LiDAR SLAM
JetRover est équipé de lidar, qui peut réaliser la cartographie et la navigation SLAM, et prend en charge la planification de trajectoire, la navigation à point fixe et l'évitement dynamique des obstacles.
3) Vision en profondeur en vue à la première personne
JetRover est équipé d'un bras robotique à six degrés de liberté, équipé d'une caméra de profondeur 3D haute performance à l'extrémité, qui peut réaliser la reconnaissance, le suivi et la saisie de cibles.
4) Matrice de microphones à champ lointain 6CH
La matrice de microphones à champ lointain 6CH et les haut-parleurs prennent en charge la localisation de la source sonore, le contrôle de la reconnaissance vocale, la navigation vocale et d'autres fonctions.
1. Prend en charge plusieurs extensions de châssis
Le robot composite JetRover s'adapte aux caractéristiques de mouvement d'une variété de châssis, prenant en charge la roue Mecanum, la direction Ackerman et le châssis de réservoir pour être commutés à volonté. Les utilisateurs peuvent s'adapter en fonction de leurs propres besoins.
2. Une variété de châssis pour votre choix
JetRover prend en charge trois structures de châssis sportifs : roue Mecanum, direction Ackerman et chenille. Chaque châssis a ses propres caractéristiques sportives uniques, et les utilisateurs peuvent choisir en fonction de leurs propres besoins.
1) Châssis de roue Mecanum, mouvement omnidirectionnel à 360°
La roue Mecanum est une roue omnidirectionnelle classique. En coopérant simplement avec la vitesse de rotation et la direction de chaque roue, elle peut synthétiser le couple dans n'importe quelle direction et réaliser un mouvement tout autour du châssis dans un plan.
2) Châssis Ackermann, direction des roues avant
La direction Ackermann est une direction basée sur l'angle de braquage différentiel des roues intérieures et extérieures. La voiture robot JetRover adopte un châssis avec un taux Ackerman de 100%. Lors du braquage, l'angle de rotation de la roue intérieure est supérieur à celui de la roue extérieure.
3) Opération de vitesse différentielle du châssis de réservoir
Le châssis de réservoir est facile à contrôler et a une bonne capacité de passage au sol, et est largement utilisé dans le domaine du transport. Le châssis de réservoir de JetRover est composé de chenilles en nylon, de moteurs encodés, de roues motrices, de roues de route, de galets et de poulies de support. La direction de déplacement et l'angle de braquage du châssis peuvent être librement contrôlés.
3. Navigation cartographique Lidar
JetRover est équipé de lidar, qui prend en charge la planification de trajectoire, la navigation à point fixe, la navigation et l'évitement d'obstacles, la cartographie de plusieurs algorithmes, et réalise les fonctions de garde lidar et de suivi lidar.
1) Diverses méthodes de cartographie Lidar 2D
JetRover utilise divers algorithmes de cartographie, tels que Gmapping, Hector, Karto et Cartographer. De plus, il prend en charge la planification de trajectoire, la navigation à point fixe et l'évitement d'obstacles pendant la navigation.
2) Navigation à point fixe Navigation multi-point
Le robot détecte l'environnement environnant grâce au lidar et prend en charge les scénarios de navigation courants pour les robots commerciaux tels que la navigation à point fixe, la navigation continue multi-point et la navigation circulaire multi-point.
3) Planification de trajectoire TEB, Évitement dynamique des obstacles
Prend en charge la planification de trajectoire globale A*, les algorithmes de planification de trajectoire locale multiples TEB/DWA, détecte les obstacles en temps réel pendant la navigation, et re-planifie la trajectoire pour éviter les obstacles.
4) Cartographie d'exploration autonome RRT
Sans intervention humaine, JetRover utilise l'algorithme RRT pour explorer indépendamment et compléter la cartographie, enregistrer la carte et revenir au point de départ.
5) Garde Lidar
Protégez les environs et sonnez l'alarme en cas de détection d'intrus.
6) Suivi Lidar
En scannant l'objet en mouvement à l'avant, le Lidar rend le robot capable de suivi de cible.
4. Navigation et transport autonomes Al
JetRover-M1 peut utiliser le LiDAR pour la navigation cartographique SLAM dans l'environnement fermé construit, identifier les objets grâce à la première vision 3D, utiliser l'algorithme de cinématique inverse du bras robotique pour réaliser la saisie d'objets, puis utiliser la planification de trajectoire TEB pour identifier de manière autonome l'emplacement cible et compléter la navigation et le transport autonomes.
1) Navigation cartographique
2) Saisie de cible
3) Planification de trajectoire
4) Transport autonome
5. Interaction Al Vision 3D améliorée
Équipé d'une caméra de profondeur DaBai, JetRover peut percevoir efficacement les changements environnementaux, permettant une interaction Al intelligente avec les humains.
1) Cartographie et navigation 3D Vision RTAB-VSLAM
JetRover utilise l'algorithme RTAB SLAM pour générer une carte 3D détaillée en couleur permettant une navigation efficace et un évitement d'obstacles dans des environnements 3D complexes. De plus, JetRover offre un support robuste pour la localisation globale au sein de la carte créée.
2) ORBSLAM2+ORBSLAM3
ORB-SLAM est un cadre SLAM open-source pour caméras monoculaires, binoculaires et RGB-D qui est capable de calculer la trajectoire de la caméra en temps réel et de reconstruire les environs en 3D. Et sous le mode RGB-D, la dimension réelle de l'objet peut être acquise
3) Données de carte de profondeur, Nuage de points
Grâce à l'API correspondante, JetRover peut obtenir une image couleur de carte de profondeur et un nuage de points de la caméra.
4) Détection de bord
La vision en profondeur vous permet d'obtenir des données de profondeur de table vous permettant de détecter le bord de la table.
5) Traverser le pont à planche unique
Grâce à la caméra de profondeur 3D sur le bras robotique, la route à venir peut être détectée, et la vitesse de conduite du corps peut être ajustée pour réaliser la conduite sur le pont.
6. Conduite autonome Al d'apprentissage profond
Dans le système ROS, JetRover a déployé le cadre d'apprentissage profond PyTorch, la bibliothèque de traitement d'image open source OpenCV, l'algorithme de détection de cible YOLOv5 et le moteur d'accélération d'inférence haute performance TensorRT pour aider les utilisateurs qui souhaitent explorer le domaine de la technologie de conduite autonome à profiter facilement de la conduite autonome Al.
1) Détection de panneaux routiers
Grâce à l'entraînement de la bibliothèque de modèles d'apprentissage profond, JetRover peut réaliser la fonction de conduite autonome avec la vision Al.
2) Maintien de voie
JetRover est capable de reconnaître les voies des deux côtés pour maintenir une distance de sécurité entre lui et les voies.
3) Stationnement autonome
En combinant avec des algorithmes d'apprentissage profond pour simuler des scénarios réels, le stationnement latéral et l'entreposage peuvent être réalisés grâce à la direction Ackerman.
4) Décision de virage
Selon les panneaux routiers et les feux de circulation, JetRover estimera le trafic et décidera s'il faut tourner.
7. Interaction de vision AI
En incorporant l'intelligence artificielle, JetRover peut implémenter le suivi de cible KCF. Apprentissage profond Al, reconnaissance et suivi de couleur/cible, réalité augmentée AR, etc.
1) Suivi de cible KCF
En s'appuyant sur l'algorithme de filtrage KCF, le robot peut suivre la cible sélectionnée.
2) Suivi de ligne de vision
JetRover prend en charge la sélection de couleur personnalisée et la voiture robotique identifie les lignes de couleur et les suit.
3) Reconnaissance et suivi de couleur
JetRover est capable de reconnaître et de suivre la couleur désignée et peut reconnaître plusieurs balises April et leurs coordonnées en même temps.
4) Réalité augmentée AR
Sélectionnez les graphiques correspondants via l'application, et laissez les graphiques être présentés sur le code de balise April grâce à la technologie d'amélioration AR.
5) Développement MediaPipe, Interaction Al améliorée
JetRover est capable de reconnaître et de suivre la couleur désignée, et peut reconnaître plusieurs balises April et leurs coordonnées en même temps.
6) Cadre d'apprentissage profond AI
Utilisez l'algorithme de réseau YOLO et la bibliothèque de modèles d'apprentissage profond pour reconnaître les objets.
8. Fonctions de la matrice de microphones à champ lointain 6CH
1) Localisation de la source sonore
Grâce à la matrice de 6 microphones, une localisation de haute précision des sources de réduction de bruit est réalisée. Avec la reconnaissance de distance lidar. Hiwonder peut être convoqué à n'importe quel endroit.
2) Diffusion vocale TTS
Le contenu textuel publié par ROS peut être directement converti en diffusion vocale pour faciliter la conception interactive.
3) Interaction vocale
La reconnaissance vocale et la diffusion vocale TTS sont combinées pour réaliser l'interaction vocale et prendre en charge l'expansion de la fonction de conversation vocale en ligne d'iFlytek.
4) Navigation vocale
Utilisez des commandes vocales pour contrôler Hiwonder pour atteindre n'importe quel emplacement désigné sur la carte, similaire au scénario de contrôle vocal d'un robot de livraison de nourriture.
9. Formation interconnectée
Grâce à la communication multi-aéronefs et à la technologie de navigation.
JetRover peut réaliser des performances de formation multi-aéronefs et des jeux d'intelligence artificielle.
1) Navigation multi-véhicules
En fonction de la communication multi-machines, JetRover peut réaliser la planification de trajectoire de navigation multi-véhicules et l'obstacle intelligent.
2) Formation intelligente
Un lot de JetRover peut maintenir la formation, y compris la ligne horizontale, la ligne verticale et le triangle pendant le mouvement.
3) Contrôle de groupe
Un groupe de JetRover peut être contrôlé par une seule poignée sans fil pour effectuer des actions de manière uniforme et simultanée