2026/01/14
Accelerated quantification of reinforcement degradation in additively manufactured Ni-WC metal matrix composites via SEM and vision transformers
Safdar, M.; Kazimi, B.; Ruzaeva, K.; Wood, G.; Zimmermann, M.; Wanjara, P.; Sandfeld, S.; Zhao, Y.F. (2025). Accelerated quantification of reinforcement degradation in additively manufactured Ni-WC metal matrix composites via SEM and vision transformers. Materials Characterization, vol. 229, Part B, 2025, 115645.
Les applications d’apprentissage automatique (machine learning, ML) ont montré un potentiel pour l’analyse de motifs complexes dans les structures fabriquées par fabrication additive (AM). Les composites à matrice métallique (CMM) offrent la possibilité d’améliorer les pièces fonctionnelles grâce à une matrice métallique et à des particules de renfort. Cependant, leur mise en œuvre peut induire plusieurs anomalies coexistantes dans la microstructure, difficiles à analyser par métallographie optique. La microscopie électronique à balayage (MEB) permet de mieux mettre en évidence la dégradation des particules de renfort, mais l’analyse peut être fastidieuse, chronophage et fortement dépendante de l’expertise de l’analyste. La segmentation sémantique basée sur l’apprentissage profond présente le potentiel d’accélérer l’analyse des images MEB et, par conséquent, de soutenir leur caractérisation en milieu industriel. Cette capacité est particulièrement recherchée pour une quantification rapide et précise des caractéristiques de défauts à partir des images MEB. Dans cette étude, plusieurs méthodes de segmentation sémantique de pointe, basées sur des transformeurs de vision (Vision Transformers, ViT) avec mécanismes d’auto-attention, sont étudiées pour leurs performances de segmentation sur des images MEB, avec un accent particulier sur la segmentation des pixels correspondant aux défauts. Plus précisément, les modèles SegFormer, MaskFormer, Mask2Former, UPerNet, DPT, Segmenter et SETR ont été évalués. Un modèle de référence entièrement convolutionnel, DeepLabV3+, largement utilisé pour les tâches de segmentation sémantique, est également inclus dans la comparaison. Un jeu de données MEB représentatif de CMM fabriqués par fabrication additive a été généré à partir d’une expérimentation approfondie et est mis à disposition dans ce travail. La comparaison montre que plusieurs modèles basés sur des transformeurs surpassent le modèle CNN de référence, avec UPerNet (94,33 % de précision pour la dilution des carbures) et SegFormer (93,46 % de précision pour la dilution des carbures) qui surpassent de manière constante les autres modèles pour la segmentation des dommages aux particules de carbure dans les images MEB. Les résultats obtenus sur les ensembles de validation et de test mettent en évidence que les erreurs de classification les plus fréquentes se situent aux frontières entre les pixels défectueux et non défectueux. Les modèles ont également été évalués sur la base de la confiance de leurs prédictions, en tant que critère pratique pour soutenir la prise de décision et la sélection des modèles. En conséquence, le modèle UPerNet avec une architecture Swin est recommandé pour la segmentation d’images MEB de CMM fabriqués par fabrication additive dans les scénarios où la précision et la robustesse sont prioritaires, tandis que le modèle SegFormer est recommandé pour sa conception plus légère et ses performances compétitives. À l’avenir, l’analyse pourra être étendue en incluant des modèles de plus grande capacité ainsi que des modèles plus compacts dans la comparaison. De même, des variations de certains hyperparamètres spécifiques pourront être étudiées afin de renforcer la justification du choix d’une configuration particulière.