Introduction

Introduction

Philippe Thomas Hind Bril El Haouzi

CRAN, Université de Lorraine

Page: 
123-126
|
DOI: 
https://doi.org/10.3166/JESA.49.123-126
Received: 
N/A
|
Accepted: 
N/A
|
Published: 
30 April 2016
| Citation

OPEN ACCESS

Abstract: 

 Le Journal européen des systèmes automatisés accueille un numéro portant sur la gestion et l’impact de la qualité sur la production. Ce numéro spécial regroupe les versions étendues de papiers sélectionnés parmi ceux présentés lors de deux conférences qui se sont tenues à Nancy (France).

La première est la 10th International Conference on Modeling, Optimization and SIMulation MOSIM’14 qui s’est déroulé du 5 au 7 novembre 2014. Cette conférence a été organisée par le laboratoire CRAN, UMR 7039, Université de Lorraine et supporté par le GDR modélisation analyse et conduite des systèmes dynamiques (MACS), le GDR recherche opérationnel (RO), la société française de recherche opérationnelle et d’aide à la décision (ROADEF), The association of European Operational Research Societies (EURO), the international institute for innovation industrial engineering and entrepreneurship (I4e2), the IEEE systems man and cybernetics society (SMC), the federation of european simulaiton societies (EUROSIM), l’association internationale de recherche logistique et supply chain management (AIRL), the International Federation for Information Processing (IFIP).

La deuxième est le 11e Congrès International Pluridisciplinaire en Qualité, Sûreté de Fonctionnement et Développement Durable QUALITA’15 qui s’est déroulé du 17 au 19 mars 2015. Cette conférence a été organisée par l’Université de Lorraine et le réseau universitaire francophone d’enseignement et de recherche en qualité et sûreté de fonctionnement (RUFEREQ) et supporté par le GDR modélisation analyse et conduite des systèmes dynamiques (MACS), l’institut pour la maîtrise des risques et la sûreté de fonctionnement (IMdR-SdF).

Ce numéro a pour objectif de donner une image de la recherche européenne dans le domaine de la gestion de la qualité en production, en se focalisant sur les outils concepts et méthodes exploitables en industrie dans un environnement très normatif.

État de l’art concernant la gestion de la qualité

Maîtriser la qualité est un enjeu crucial pour les entreprises, car non seulement le niveau de qualité se trouve au coeur de la relation client, mais de plus, la qualité produit va avoir un impact conséquent sur la gestion de production. Dès les années 1950, cet aspect a été abordé avec la méthode cost of quality (COQ) et le concept d’usine fantôme qui avait pour but de réparer les défauts de l’usine officielle (Feigenbaum, 1951). La notion de qualité a donné lieu à la production de nombreuses normes, la première en France étant la norme X 50-126 ayant pour but d’évaluer les coûts de non-qualité et datant de 1986 (Abouzahir et al., 2003). Garvin (1984) a mis en évidence cinq approches différentes pour définir la qualité : l’approche transcendantale (philosophique), l’approche fondée sur les produits que l’on retrouve en économie, l’approche utilisateurs que l’on retrouve en économie, marketing, gestion opérationnelle, l’approche production et l’approche axée sur la valeur. Chacune de ces approches offre un point de vue différent et complémentaire de la notion de qualité. Notre propos se focalise cependant sur l’approche production. Dans cette approche, la qualité est généralement définie comme étant une conformité aux exigences (Crosby 1979). Dans cette optique, toute déviation par rapport aux spécifications implique une réduction de qualité qu’il va falloir détecter et traiter.

La gestion de la qualité a été normalisée par l’organisation internationale de normalisation (ISO) par la famille de normes ISO 9000 dont les principales sont (ISO 2015) :

– ISO 9000:2015 – couvre les notions fondamentales et la terminologie ;

– ISO 9001:2015 – Systèmes de Management de la Qualité – Exigences ;

– ISO 9004:2009 – Systèmes de Management de la Qualité - Lignes directrices pour l’amélioration des performances.

Outre ces normes, divers concepts ont été développés à commencer par la notion de qualité totale (TQM : Total Quality Mangement) (Talib et Rahman 2012). La TQM est une philosophie de management intégré associée à un jeu de pratiques ayant pour but, entre autres, l’amélioration continue, la satisfaction client, la diminution des taux de reprise… L’APICS définit la TQM comme étant une approche de management pour la réussite à long terme basée sur la satisfaction client. Cette définition est assez proche de celle que donne également l’APICS concernant le Juste à Temps (JàT) : philosophie de production basée sur l’élimination de tous les gaspillages et sur l’amélioration continue de la production Ces philosophies peuvent également être rapprochées du Lean Management dont l’objectif principal et la recherche de la performance, en particulier en termes de qualité, que l’on va chercher à atteindre par l’amélioration continue et l’élimination des gaspillages (Vollmann et al., 1984). Cette philosophie, principalement appliquée dans le monde industriel, commence à être étendue au domaine des services et en particulier au domaine hospitalier (Fortineau et al., 2016).

Toutes ces philosophies s’appuient sur un ensemble d’outils statistiques et méthodologiques tels que la maîtrise statistique des processus (SPC) qui regroupe les sept outils de base de la qualité (la feuille de relevé, le diagramme de concentration de défauts, l’histogramme, le diagramme d’Ishikawa, le diagramme de corrélation, le diagramme de Pareto, la carte de contrôle) (Montgomery 1991), les plans d’expériences (Taguchi 1989), l’analyse des modes de défaillance, de leurs effets et de leurs criticité (AMDEC).

Bien que les débuts de la maîtrise statistique des processus datent du début du XXe siècle aux États-Unis, la recherche sur l’amélioration de ces outils est toujours aussi active. Ainsi Pairel (2016) s’appuie sur des cartes de contrôle pour régler les procédés susceptibles de créer une dérive des caractéristiques suivies. De leur côté, Pillet et al. (2016) proposent une carte de contrôle progressif aux mesures permettant de limiter la taille de l’échantillon de contrôle. Parfois cependant, ces outils statistiques peuvent s’avérer insuffisants. C’est notamment le cas pour la fabrication de wafer où de micro-défauts process non détectés par les cartes de contrôle qui peuvent conduire à des problèmes de qualité. Dans ce cadre, Doumani et al. (2016) proposent d’exploiter les techniques classiques de modélisation de l’automatique pour prédire l’évolution du paramètre suivi et utiliser des tests d’hypothèses pour détecter une éventuelle rupture de modèle.

Les contributions

Dans ce numéro, cinq papiers ont été sélectionnés à l’issue d’un processus rigoureux d’examen par trois relecteurs faisant lui-même suite à une première sélection parmi les présentations faites lors de MOSIM 2014 et QUALITA 2015.

Pairel s’intéresse au réglage des procédés de fabrication susceptibles de créer de la dispersion et/ou une dérive des caractéristiques des produits. Il propose une approche de réglage basée sur l’utilisation d’un modèle variationnel direct qui fusionne le contrôle statistique des processus avec la régulation des procédés discrets. Il définit des cibles et des limites de contrôle pour les différentes caractéristiques, l’idée étant de chercher un réglage permettant de remettre les caractéristiques dans les limites de contrôle, mais pas forcément sur la cible. L’approche proposée est implémentée dans un logiciel téléchargeable. Ce logiciel est testé sur un modèle de simulation d’usinage de pièces faisant apparaitre une dérive du fait de l’usure des outils.

Pillet et al. s’intéressent au contrôle de réception dans le cadre de relations clients/fournisseurs. Ce contrôle s’effectue selon diverses normes en effectuant des prélèvements coûteux. Si le contrôle progressif aux mesures permet de limiter ces coûts, il nécessite la connaissance de l’écart type de la variable considérée. Ce papier propose une approche visuelle du contrôle réception progressive aux mesures en méthode S. Cette approche a été testée sur une application industrielle réelle. Outre son aspect très facile d’appréhension pour un opérateur, les résultats montrent que l’approche proposée permet de réduire fortement la taille du prélèvement dans le lot pour assurer la prise de décision d’acceptation ou de refus de ce même lot.

Doumani et al. étudient le contrôle qualité dans l’industrie des semi-conducteurs, et se focalisent sur le problème de la détection de processus furtifs qui, bien que se produisant à l’intérieur des limites de surveillance d’une carte de contrôle, peuvent conduire à l’apparition de défauts qualité. La détection proposée est effectuée en deux étapes. La première, empruntée de manière originale à l’automatique, consiste à construire un modèle ARMA pour prédire l’état du processus, afin de comparer l’état actuel du processus et celui prédit. La deuxième étape, basée sur des tests d’hypothèses statistiques, permet de vérifier que la différence entre les états prédit et actuel reste dans l’intervalle de confiance quand il n’y a pas rupture. Cette approche est testée sur différents exemples réels collectés en production. Les résultats ont montré que cette approche permet de prévenir lors de l’apparition de dysfonctionnement, combien même les limites de surveillance de la carte de contrôle ne seraient pas atteintes.

Noyer et al. traitent d’une problématique très courante dans le monde industriel liée à la maîtrise de la qualité dans un contexte ou les entreprises travaillent à la limite technologique de leurs outils de production avec une exigence qualité produit très élevé. Les auteurs proposent une approche en deux étapes permettant, dans un premier temps, de réduire le taux de reprises en se basant sur deux outils : les réseaux de neurones pour la construction d’un modèle de comportement et le plan d’expériences pour en déduire un réglage optimal de l’outil de production. Dans un deuxième temps, l’approche proposée s’appuie sur une combinaison d’indicateurs pour identifier des zones de comportement auxquelles des règles de pilotage et des décisions peuvent être associées.

Fortineau et al. proposent une démarche de l’excellence opérationnelle dans le domine hospitalier en s’appuyant sur les concepts du LEAN. Les auteurs présentent une synthèse des caractéristiques d’un système hospitalier, les problèmes que pose la mise en place d’une telle démarche dans le milieu hospitalier et une méthodologie de mise en place de la démarche de l’excellence hospitalière pour faire en sorte que l’application du Lean ne se limite pas à des chantiers ponctuels mais devienne une culture ou une philosophie des systèmes hospitaliers. Pour cette raison, les auteurs proposent le système PeRF (pilotage, réalisation et facilitation) pour permettre la conduite de changement et la structuration d’un management intégré de la performance. Les définitions, méthodes et propositions des auteurs sont illustrées sur des cas de projets réalisés auprès de trois groupes hospitaliers.

  References

Abouzahir O., Gautier R., Gidel T. (2003). Pilotage de l’amélioration des processus par les coûts de non-qualité. 10e séminaire CONFERE, p. 3-4.

Crosby P.B. (1979). Quality is Free, Mc Graw-Hill, New-York.

Feigenbaum A. (1951). Quality Control, Mc Graw-Hill, New-York.

Garvin D. (1984). What does product quality really mean. Sloan management review vol. 26, n° 1

ISO (2015). ISO 9000 Management de la qualité. http://www.iso.org/iso/fr/home/standards/management-standards/iso_9000.htm

Montgomery D.C. (1991). Introduction to Statistical Process Control - second edition, ASQC Quality Press.

Taguchi G. (1989). Quality Engineering in Production Systems, Mc Graw-Hill, New-York.

Talib F., Rahman Z. (2012). Total quality management practices in manufacturing and service industries: a comparative study. Int. J. Advanced Operations Management vol. 4, n° 3, p. 155-176.

Vollmann T., Berry W., & Whybark C. (1984). Manufacturing Planning and Control Systems, Dow Jones-Irwing, New-York.