Deep learning vs vision machine à base de règles : comment choisir la bonne approche pour votre inspection

Sony FCB-EW9500H — 4K camera block, 30x optical zoom, STARVIS

L’une des questions les plus fréquentes posées par les ingénieurs de production qui évaluent une nouvelle cellule d’inspection visuelle est : avons-nous besoin de deep learning, ou la vision à base de règles suffit-elle ? La réponse honnête est que la plupart des lignes de production réelles bénéficient d’un mélange. Savoir où tracer la frontière permet de tenir le budget et d’éviter le sur-ingénierie.

Ce que la vision à base de règles fait bien

Les outils à base de règles — pattern matching, mesure géométrique, analyse de blob, détection de contours, OCR à seuils fixes — bénéficient de décennies de raffinement. Ce sont les bons choix lorsque :

  • Le défaut ou la mesure est déterministe. Position, présence/absence, contrôles dimensionnels sur des pièces à apparence consistante.
  • L’inspection ne dispose d’aucun budget pour les données d’entraînement. Les outils à base de règles fonctionnent à partir d’une seule image de référence plus l’intention de l’ingénieur.
  • Le temps de cycle est sous la milliseconde. Les pipelines de règles en C/C++ pur battent l’inférence deep learning sur les tâches les plus simples.
  • L’auditabilité compte. Le comportement d’une règle est entièrement spécifié ; celui d’un modèle ne l’est pas.

Là où le deep learning est la seule réponse

  • Les défauts varient en apparence. Rayures de longueurs, profondeurs et orientations différentes. Anomalies de surface sur métal brillant où les reflets se déplacent avec chaque pièce. Fissures sur le verre dont la signature optique dépend de l’épaisseur du substrat.
  • Le catalogue de défauts est ouvert. Un modèle entraîné sur les seules « pièces bonnes » peut signaler de nouvelles anomalies qu’aucun système à base de règles n’aurait été configuré pour détecter.
  • La pièce présente une variabilité cosmétique élevée que les opérateurs tolèrent. Cadrans de montre à léger drift de gradient, poignées en plastique injecté à variation de brillance stochastique, aluminium anodisé dont la couleur dérive d’un lot à l’autre.
  • L’OCR se fait sur des surfaces courbes, brillantes ou laser-gravées. Le taux de lecture sur bouteilles PET, canettes en aluminium et inox marqué laser passe d’environ 95 % en base de règles à environ 99,99 % avec un OCR deep learning comme notre Retina-Olive.

L’hybride est généralement la bonne réponse

En pratique, les cellules les plus stables en production combinent les deux. Un contrôle dimensionnel à base de règles vérifie que la pièce est bien positionnée, puis le deep learning gère les étapes cosmétiques et d’anomalies. L’étage à base de règles est rapide et auditable ; l’étage deep learning couvre ce que les règles ne savent pas spécifier.

Ce qu’il faut budgéter

Le deep learning nécessite trois choses que la vision à base de règles n’exige pas : des données d’entraînement annotées, de la puissance GPU au moment de l’inférence et un workflow de ré-entraînement pour quand la production évolue. Aucun n’est un obstacle — 3HLE gère le pipeline d’annotation, livre la classe d’IPC dimensionnée à votre modèle et forme votre équipe sur l’interface de ré-entraînement no-code — mais ils doivent être planifiés.

Comment 3HLE cadre le choix

En phase de faisabilité, nous faisons passer un échantillon de vos pièces dans les deux pipelines. Pipeline à base de règles dans OpenCV / VisionPro, pipeline deep learning dans Retina A.I. Les chiffres comparatifs de précision et de temps de cycle nous indiquent quelle approche (ou quel équilibre hybride) mérite l’investissement d’ingénierie de production. Une faisabilité typique dure 2 à 4 semaines et produit une recommandation documentée — pas un pitch commercial.

← Retour à l'accueil