La d’empêcher les articles de qualité inférieure de

La technologie de vision industrielle est plus que jamais un catalyseur
de progrès dans le domaine du contrôle-qualité automatisé

Les
systèmes de vision industrielle peuvent introduire l’automatisation dans
le processus de production à différents niveaux, allant simplement du processus
d’inspection à une partie intégrante d’un système de contrôle de processus
statistique capable d’identifier le moment où un processus de fabrication est
hors spécification. Des mesures peuvent être prises avant la fabrication de
tout produit défectueux.

Les systèmes d’inspection en ligne acquièrent
des images de produits et les inspectent en temps réel avant de décider de la
qualité du produit. Cela peut être utile pour identifier les problèmes et
permettre l’amélioration des processus afin d’empêcher les articles de qualité
inférieure de passer à l’étape suivante de la production. Il existe
essentiellement trois principaux types de systèmes de vision : 

Les caméras
intelligentes ; systèmes de
vision compacts et les systèmes
basés sur PC .

Les caméras
intelligentes combinent le capteur, le
processeur et les entrées sorties  d’un
système de vision dans un boîtier compact, souvent plus petit qu’une caméra
industrielle standard, de sorte que tout le traitement de l’image est effectué
à bord. En combinant tous ces éléments dans un seul paquet, les coûts sont
minimisés. Ces systèmes sont idéaux lorsqu’une seule vue d’inspection est
requise ou qu’aucun affichage local ou contrôle d’utilisateur n’est nécessaire. 

Les
systèmes de vision compacts
ont le processeur dans un petit boîtier compact avec des E / S industrielles
plutôt que dans l’appareil photo lui-même. Cela permet à plusieurs caméras
d’être connectées au contrôleur sur de longues longueurs de câble pour partager
le processeur et les E / S, ce qui les rend très rentables pour les solutions
multi-caméras.

Les systèmes basés
sur PC exploitent la puissance
croissante de l’informatique grand public pour des systèmes de vision haute
performance. Ces systèmes peuvent prendre en charge les capacités de
traitement d’image les plus complexes avec une polyvalence qui va de la
configuration d’un PC unique à une caméra unique en passant par des
configurations multi-caméras et multi-caméras.

Le
système embarqué

Un
système embarqué est une combinaison de matériel informatique et de logiciel ,
soit fixe, soit programmable, conçu pour une fonction spécifique ou pour des
fonctions spécifiques au sein d’un système plus important. Les machines
industrielles, les appareils agricoles et industriels, les automobiles, les
équipements médicaux, les appareils photo, les appareils électroménagers, les
avions, les distributeurs automatiques et les jouets ainsi que les appareils
mobiles sont tous des emplacements possibles pour un système embarqué.

******************************************************

L’appariement des modèles a diverses applications et est
utilisé dans des domaines tels que la reconnaissance faciale (voir le système de
reconnaissance faciale ) et le traitement de l’image médicale. Des
systèmes ont été développés et utilisés dans le passé pour compter le nombre de
visages qui traversent une partie d’un pont dans un certain laps de temps. D’autres
systèmes incluent la
détection automatisée des nodules calcifiés au sein des radiographies
numériques du thorax.  Récemment, cette méthode a été implémentée
dans la simulation géostatistique qui pourrait fournir un algorithme
rapide. 

Aujourd’hui, les objets connectés ne sont plus une
promesse. Chaque semaine les industriels mettent sur le marché un nombre
croissant de petits objets connectés et intelligents. Les dernières prévisions
indiquent que le nombre de capteurs de vision embarqués suivra une augmentation
de 56% par année sur les 10 prochaines années. Cette augmentation est due aux
avancées technologiques du marché du semi-conducteur, au développement de
méthodes et d’outils de conception de systèmes embarqués, et à l’utilisation
d’algorithmes de vision de plus en plus efficaces. L’extraction et le
traitement de l’information en temps-réel 
reste un objectif à atteindre pour différents systèmes :
industriel, médical, etc.

Dans ce contexte se situent ce travail, visant à
étudier et implémenter un système d’analyse et d’extraction de l’information à
partir d’une séquence vidéo. Compte tenu des exigences des applications en
termes de performance, du temps de traitement, de la consommation d’énergie et
de la facilité du déploiement des systèmes de vision, ainsi que l’utilisation
primordiale des architectures embarquées.

Dans la partie état de l’art, nous exposons  quelque important  travaux antérieurs traitant le sujet  de la vision par ordinateur pour  la détection d’objets, qui consiste à trouver
automatiquement des objets dans des images, c’est-à-dire donner leurs
positions  et ces distinctifs. Les
applications les plus courantes sont des systèmes de sécurité ou de sûreté
(détection de piétons, identification de comportement), ainsi que des systèmes
de contrôle (Détection de caractéristiques ou de défauts de surfaces). Dans la
partie reconnaissance le problème consiste à savoir à quelle catégorie d’objets
appartient le contenu d’une image ou d’une portion d’image. La problématique de
cette thèse est plus spécifique, car elle se pose dans des cas plus restreint,
et se focalise sur plusieurs niveau de détection  d’objet 
mouvant macro  et microscopique.

Dans la partie développement,  nous avons développé un  système pour le suivi d’objets dans des
champs de vision recouvrant. La chaîne algorithmique est composée d’un étage de
détection basé sur la corrélation 
normalisé,  ou  la fonction de corrélation,  est un opérateur qui agit sur deux fonctions
(f(x,y) , g(x,y)), correspondant chacune à une image. Cet opérateur a la
propriété de valoir 1 lorsque les deux fonctions sont identiques et de tendre
vers -1 quand les fonctions sont différentes. Pour mesurer en 2D, le
déplacement relatif de deux images selon les axes x et y de l’image,
l’algorithme de corrélation utilise cet opérateur, en prenant comme fonctions f
et g des portions respectivement des images de référence et déformée.
L’algorithme recherche les valeurs des déplacements dx et de dy telles que
g(x+dx,y+dy) maximise l’opérateur de corrélation avec f. Ces valeurs sont
retenues comme les meilleures estimations des déplacements de l’image g par
rapport à l’image f.

Le deuxième étage développé, traite le  suivi robuste avec un algorithme à base de
méthode de différence carré normalisé boosté avec Template dynamique  DCNTD.

La méthode proposée combine le résultat fournie
par la méthode de segmentation de couleurs nuancé  SCN 
pour extraire  l’information du
gradient de l’image d’entrée dans le but d’assurer une bonne détection avec une
faible complexité. Le résultat de détection 
est traité par un algorithme d’analyse des composantes connectées afin
d’extraire les caractéristiques des objets détectés. Les caractéristiques
constituent les observations des nuances la quantification et les difformités
par rapport à une référence prédéfinis. En effet, la méthode originale DCNTD
traite les occultations se produisant entre les objets. Quand l’occultation est
détectée, une transcription vers un nouveau Template faisant retourner la
détection vers une zone frétillante. L’approche proposée assure un suivi et un
contrôle temps réel dégageant  toute
transformation détecté.

 

Dans la deuxième partie de la thèse, on a conçu un
système de renforcement de la détection des champs multi-région. Le système
prend en considération que la caméra exécute DCNTD. Le système est basé sur
cette approche consolidée par un filtrage mean-shift de prétraitement qui
favorise la mise en évidence et la quantification selon des paramètres
prédéfinis.

L’approche a été testée pour des applications en
domaine histologique pour  la
Quantification de la prolifération des cellules cancéreuse (Q C C)  dans le 
traitement des pseudo-couleurs par indice Ki67.  Les résultats
obtenus sont prometteurs pour le fonctionnement de l’approche dans plusieurs autre
domaines.

BACK TO TOP