품질 업무를 하다 보면 정말 아이러니한 상황에 부딪힐 때가 있습니다. 공정 능력을 높이기 위해 열심히 노력해서 공정 산포, 즉 편차를 줄여놨더니, 뜬금없이 측정 시스템이 부적합하다는 평가를 받게 되는 경우죠. 저 역시 과거 자동차 부품 품질을 담당할 때 이런 문제로 골머리를 앓았던 기억이 생생합니다. 분명 우리 회사 계측기는 최상급인데, 왜 자꾸 Gage R&R의 ndc(number of distinct categories) 값이 낮게 나와서 측정 시스템을 개선하라는 압박을 받을까요? 오늘은 이 답답한 문제의 원인을 파악하고, AIAG(Automotive Industry Action Group) MSA(Measurement Systems Analysis) 매뉴얼에 근거한 실질적인 해결책을 알아보겠습니다. 😊
왜 안정된 공정에서 Gage R&R이 실패할까? 🤔
이 문제의 핵심을 이해하려면 Gage R&R 평가의 주요 지표인 %GRR과 ndc의 관계를 알아야 합니다. %GRR은 전체 변동에서 측정 시스템 변동이 차지하는 비율을, ndc는 해당 측정 시스템으로 제품의 변동을 몇 개의 그룹으로 구분할 수 있는지를 나타내는 지표입니다.
핵심은 바로 '전체 변동'에 있습니다. 전체 변동($TV$)은 부품 변동($PV$)과 측정 시스템 변동($GRR$)의 합으로 구성됩니다. ($TV^2 = PV^2 + GRR^2$) 그리고 ndc를 계산하는 공식은 다음과 같습니다.
ndc (number of distinct categories) 계산 공식 📝
$ndc = 1.41 \times \frac{PV}{GRR}$
여기서 PV는 Part Variation, 즉 부품 간의 실제 변동을 의미하고, GRR은 Gage Repeatability & Reproducibility, 즉 측정 시스템의 변동(반복성과 재현성)을 의미합니다.
공식이 말해주는 것은 명확합니다. 만약 우리가 공정을 너무나도 잘 관리해서 부품 간의 변동(PV)이 거의 0에 가까워진다면 어떻게 될까요? 분자 값이 극도로 작아지기 때문에, 아무리 성능 좋은 계측기(작은 GRR 값)를 사용하더라도 ndc 값은 낮게 나올 수밖에 없습니다. MSA 매뉴얼에서는 일반적으로 ndc 값이 5 이상이어야 측정 시스템이 유용하다고 판단하는데, 안정된 공정에서는 이 기준을 충족시키기 어려운 것이죠.
이것은 계측기가 나쁘다는 의미가 아닙니다. 오히려 공정이 너무 안정적이어서, 현재 생산되는 제품들만으로는 '이 계측기가 얼마나 정밀한지'를 제대로 평가할 수 없다는 신호입니다. 마치 1g 단위로 측정할 수 있는 정밀 저울에 1kg짜리 추 10개만 올려놓고 저울의 변별력을 평가하려는 것과 같습니다.
문제 해결의 열쇠: 올바른 샘플 채취 방법 🔑
그렇다면 어떻게 해야 할까요? 해답은 MSA 4판 매뉴얼에 명확히 제시되어 있습니다. Gage R&R 연구의 목적을 다시 생각해보는 것입니다. 우리의 목적은 '현재 생산되는 거의 동일한 부품들을 구별하는 것'이 아니라, '이 측정 시스템이 공차 범위 내의 다양한 제품을 유의미하게 구별할 수 있는 능력이 있는가'를 입증하는 것입니다.
따라서, 샘플을 채취할 때 현재 공정에서 무작위로 10개를 뽑는 것이 아니라, 의도적으로 제품 규격의 상한(USL), 하한(LSL)에 근접하는 샘플들을 포함하여 전체 공차 범위를 대표하는 샘플들을 선정해야 합니다.
구분 | 잘못된 샘플링 (Bad Practice) ❌ | 올바른 샘플링 (Good Practice) ✔️ |
---|---|---|
샘플 출처 | 특정 시점의 양산 라인에서 연속으로 채취 | 개발 단계 샘플, 설정(Setup) 샘플, 과거 불량 등 공차 전반에 분포된 샘플 |
샘플 특징 | 크기가 거의 동일하여 변동(PV)이 매우 작음 | 크기가 공차 범위 내에 넓게 분포하여 변동(PV)이 큼 |
평가 결과 | PV가 작아 ndc 값 낮게 나옴 (부적합 가능성 높음) | PV가 커져 ndc 값 높게 나옴 (적합 판정 가능성 높음) |
이 방법은 평가 결과를 좋게 만들기 위한 '조작'이 아닙니다. 측정 시스템의 진짜 성능(변별력)을 올바르게 평가하기 위한 MSA 매뉴얼의 공식적인 가이드입니다. 측정 시스템의 목적과 평가 방법의 논리적 타당성을 이해하는 것이 중요합니다.
ndc 분석 시뮬레이션: 차이를 직접 확인해보세요! 📊
이해를 돕기 위해 간단한 시뮬레이션을 해보겠습니다. 특정 부품의 규격이 $10.00 \pm 0.05mm$이고, 우리 회사의 측정 시스템($GRR$)의 변동 표준편차는 $0.003mm$로 매우 우수하다고 가정해봅시다.
시나리오 1: 안정된 공정에서 샘플링한 경우 📉
공정이 너무 안정되어 생산품의 99% 이상이 $10.00 \pm 0.005mm$ 내에 들어옵니다. 여기서 10개의 샘플을 뽑았더니 부품 변동(PV)의 표준편차가 $0.002mm$로 계산되었습니다.
- 부품 변동 (PV): $0.002mm$
- 측정 시스템 변동 (GRR): $0.003mm$
$ndc = 1.41 \times \frac{0.002}{0.003} \approx 0.94$
결과: ndc 값이 1로, 판정 기준인 5에 한참 미치지 못하여 '부적합'입니다. 이 계측기로는 현재 공정의 미세한 차이를 구분할 수 없다는 의미입니다.
시나리오 2: 공차 범위를 고려하여 샘플링한 경우 📈
이번에는 의도적으로 $9.95mm$ 근처 샘플, $10.00mm$ 근처 샘플, $10.05mm$ 근처 샘플들을 골고루 10개 모았습니다. 이 샘플들의 부품 변동(PV) 표준편차는 $0.015mm$로 계산되었습니다.
- 부품 변동 (PV): $0.015mm$
- 측정 시스템 변동 (GRR): $0.003mm$ (계측기는 그대로이므로 GRR은 변하지 않음)
$ndc = 1.41 \times \frac{0.015}{0.003} \approx 7.05$
결과: ndc 값이 7로, 판정 기준인 5를 넘어 '적합'입니다. 이 계측기는 공차 범위 내의 부품들을 충분히 구별할 수 있다는 의미입니다.
글의 핵심 요약 📝
안정된 공정에서의 Gage R&R 평가, 더 이상 혼란스러워하지 마세요. 핵심은 다음과 같습니다.
- 문제의 원인 파악: 공정 편차(PV)가 측정 시스템 편차(GRR)보다 너무 작으면 ndc 값은 자연스럽게 낮아집니다. 이는 계측기가 아닌, 평가 방법의 문제입니다.
- 해결책은 샘플링: 현재 생산품에서 무작위 샘플링하는 대신, 의도적으로 공차 범위를 대표하는 샘플을 수집하여 부품 변동(PV)을 확보해야 합니다.
- 올바른 해석: 이 방법을 통해 얻은 '적합' 결과는 측정 시스템이 공차 내 제품들을 충분히 변별할 능력이 있음을 증명하는 것이며, 이는 MSA 매뉴얼의 취지와도 부합합니다.
안정된 공정 Gage R&R 핵심 솔루션
자주 묻는 질문 ❓
이제 안정된 공정에서의 Gage R&R 평가, 자신감이 좀 생기셨나요? 오늘 내용이 현장에서 겪는 어려움을 해결하는 데 실질적인 도움이 되었으면 합니다. 여러분의 품질 경쟁력을 응원합니다. 😊