exemple adhérence

Posted by: @@ewpadmin | Posted on: December 14th, 2018 | 0 Comments

Avec Grip, vous choisissez des opérations de vision pour créer un pipeline graphique qui représente la séquence d`opérations qui sont exécutées pour terminer l`algorithme de vision. RoboticsProjects/GRIP) ou vous pouvez cloner le référentiel source et le construire vous-même. L`opération «redimensionner» est activée dans la palette des opérations pour l`ajouter à la fin du pipeline. Bien qu`il s`agit d`un exemple très simple, il illustre les principes de base de l`utilisation de GRIP et l`extraction de fonctionnalités en général. Pour ce faire, une opération de seuil HSV est choisie pour définir les limites supérieure et inférieure des valeurs HSV pour indiquer quels pixels doivent être inclus dans l`image binaire résultante. Les directions sur la construction GRIP sont sur la page du projet. Vous pouvez soit télécharger une version pré-construite du code à partir de la page GitHub “releases” section (https://github. Vous pouvez voir qu`un cercle est dessiné autour de la partie détectée de l`image. La première étape consiste à acquérir une image.

Comme vous pouvez le voir dans cet exemple, il est très facile et rapide d`être en mesure de faire la reconnaissance d`objet simple à l`aide de GRIP. Notez que la zone cible est blanche alors que tout ce qui n`était pas dans les valeurs de seuil sont affichés en noir. Les opérations qui sont disponibles dans le GRIP sont presque 1 à 1 match avec les opérations disponibles si vous avez été la main de codage du même algorithme avec un langage de programmation basé sur le texte. OpenCV, l`une des bibliothèques de logiciels de vision informatique les plus populaires utilisées pour la recherche, la robotique et les implémentations d`algorithmes de vision. L`érosion supprimera de petits groupes de pixels qui ne font pas partie de la zone d`intérêt. Cela semble assez bon jusqu`à présent, mais parfois il ya du bruit d`autres choses qui ne pouvaient pas tout à fait être filtré. Dans cette application, nous allons essayer de trouver le carré jaune dans l`image et d`afficher sa position. Actuellement, il prend en charge les caméras (caméra Ethernet AXIS et les caméras Web) et les entrées d`image. L`étape suivante consiste à supprimer tout de l`image qui ne correspond pas à la couleur jaune de la pièce de plastique qui est l`objet détecté.

La caméra Web est sélectionnée dans ce cas pour saisir l`image derrière l`ordinateur comme indiqué dans la configuration. Pour illustrer une technique possible pour réduire ces pixels occasionnels qui ont été détectés, une opération d`érosion est choisie. Ici, une nouvelle image est générée en prenant l`image originale et le masquage (et l`opération) avec les résultats de l`érosion. Dans la version Release de GRIP (regarder pour plus de mises à jour entre maintenant et Kickoff), vous serez en mesure d`envoyer des paramètres sur l`objet BLOB détecté à votre programme robot à l`aide de tables de réseau. Dans ce cas, les seuls pixels non-noirs sont de la carte jaune après le filtrage est fait. Pour localiser l`opération redimensionner, tapez «redimensionner» dans la zone de recherche en haut de la palette. Cette opération recherche un regroupement de pixels qui ont une zone minimale. Dans ce cas, la caméra USB Logitech qui apparaissait comme webcam 0 et la caméra de moniteur de l`ordinateur était webcam 1. La dernière étape consiste en fait à détecter la carte jaune à l`aide d`un détecteur d`objets BLOB. Ensuite, sélectionnez le bouton Aperçu de l`image et l`affichage en temps réel du flux de la caméra sera affiché dans la zone d`aperçu.

Pour utiliser la source, cliquez sur le bouton “ajouter une webcam” et sélectionnez le numéro de la caméra. Dans ce cas, la résolution de la caméra est trop élevée pour nos besoins, et en fait l`image entière ne peut même pas être visualisée dans la fenêtre d`aperçu. Et il est facile de visualiser exactement ce qui a été trouvé à travers la série de filtres. Après avoir développé votre algorithme, vous pouvez exécuter Grip en mode sans tête sur votre roborio, sur un ordinateur portable de la station de conducteur, ou sur un coprocesseur connecté à votre réseau de robots. La configuration est assez simple, juste une caméra Web USB connectée à l`ordinateur regardant vers le bas à certains objets colorés. Au cours des prochaines semaines, l`équipe du projet sera l`affichage des mises à jour de GRIP que plus de fonctionnalités sont ajoutées. Le carré en plastique jaune est la chose que nous sommes intéressés à localiser dans l`image.

Comments are closed.