MSA中分辨力与有效解析度

MSA 手册中分辨力与有效解析度的区别

在MSA 手册中有两个概念,有的学员不理解。一个是分辨力(Discrimination ),另一个是有效解析度(Effective resolution)。其实简单地说分辨力是指测量设备可分辨读数的最小单位,也成为最小可读单位、测量解析度。而有效解析度则是指测量系统的分辨力。测量系统的分辨力必须考虑测量系统的重复性和再现性。

问题:一个测量系统中所用的测量设备是最小可读单位为0.02mm 的卡尺,用这个测量系统能否分辨10.00mm 和10.02mm 这两个尺寸?

答案是否定的。这个测量系统中的测量设备(卡尺)的最小可读单位为0.02mm ,也就是说卡尺的分辨力为0.02mm 。但这个卡尺所构成的测量系统的有效解析度,即这个测量系统的分辨力是否能达到0.02mm 还需要考虑该测量系统的重复性和再现性。由于测量系统存在重复性和再现性误差,因此,一般情况下,测量系统的分辨力(也就是有效解析度)都小于测量设备的分辨力,所以尽管测量设备(卡尺)的分辨力可为0.02mm ,由该卡尺组成的测量系统是不能分辨出10.00mm 和10.02mm 这两个尺寸的。

现在让我们了解测量系统的分辨力(也就是有效解析度)是如何确定的。

假设已经知道一个测量系统的偏倚为B ,重复性和再现性标准差为sigma m ,则采用这个测量系统对一个零件的特性进行多次测量,其测量值X 服从均值为X T +B,方差为Sigma m 2的正态分布,其中X T 是这个零件的特性的基准值,见下图:

X X T (基准值) X (测量值) 0

如果用这个测量系统对两个零件的同一特性进行测量,其中一个零件的基准值为X T1,另一个为X T2,假定X T1>XT2,X T1测量值的分布为X 1 ~ N(XT1+B, σm 2) ,X T2测量值的分布为X 2 ~ N(XT2+B, σm 2) ,它们的分布如下图所示。可以看出,由于存在重复性和再现性误差,X T2的测量值X 2可能大于X T1的测量值X 1,这样就发生了错误分类,即基准值小的其测量值反而大于基准值大的其测量值。

12X T2(基准值) X (测量值) 0

X T1(基准值)

为分析发生这种错误分类的概率,现在构建一个新的随机变量X N , XN =X1-X 2

显然X N 也服从正态分布,其均值μN = XT1+B –(XT2+B)= XT1- XT2, 方差σN 2=σm 2+σm 2=2σm 2

X N 0 μN

当X N

μN =X T 1−X T 2=3σN =3m 时,

把X T1和X T2相互错误分类的概率P=0.135%。

一般把 |X T 1−X T 2|=32m 定义为测量系统的分辨力Δ,即: Δ=32m

测量系统分辨力的意义:当不同零件的被测特性之间的差别 >=32m 时,测量系统对它们错误分类的概率

假定一个被测零件特性的基准值服从正态分布,方差为σp ,采用一个测量系统对这个特性进行测量。只有当这个测量系统能够可靠地把在零件间的变差(6σp )范围内的零件特性值分成5个或更多个数据组时,才能满足为进行统计过程控制而进行测量的要求。这就是测量系统分析中所谓“区别分类数ndc (number of distinct categories)”的概念。

2

ndc =

6σp Δ

=

6σp 32m

=2

σp

σm

(σp 为零件特性标准差,σm 为测量系统重复性和再现性标准差)

新版(第三版)MSA 手册要求区别分类数ndc 应四舍五入到整数,且要能大于或等于5。

请问大家, 算kappa时,为什么通常不能低于30个样本,会取在30~50呢?

科恩(Cohen )的Kappa 技术

Kappa 系数

交叉表假设试验分析法

Kappa 分析中期望计数是何意?

有学员对MSA 手册中计数型测量系统研究的交叉表(cross-tabulations )假设试验分析法中计算科恩(Cohen )Kappa 时出现的期望计数不明白是何意,现做解释。

我们仍用MSA 手册中的例子来做说明。两评价人A 和B 分别对随机抽取的50个零件进行测量,对每个零件的测量随机地重复了3次。设定1表示可接受的决定(即评为1类),0表示不可接受的决定(即评为0类)。测量结果用以下交叉表列出。

A

1

总计

计数 期望计数 计数 期望计数 计数 期望计数

总计

3 31.3

B

科恩(Cohen )给出的Kappa 计算公式为:

kappa =

P 0−P e

1−P e

MSA 手册中定义P 0为对角栏框中(观测)计数占总计数的比例,P e 为对角栏框中期望计数占总计数的比例。(第三版中文MSA 手册中翻译有误,这里是按英文版翻译过来的) 观测计数容易理解,如对角栏框中的44表示A 和B 都评为0类的测量次数,97表示A 和B 都评为1类的测量次数,而6则表示A 评为0类但B 评为1类的测量次数,3则表示A 评为1类但B 评为0类的测量次数。

因此,P 0=

44+97

=0. 94,P 0也就是评价人A 和B 在测量中实际一致性的比率。 150

那期望计数是指什么呢?假如这两位评价人都是随机地(猜测地)将50 个零件判定为可接受或不可接受,其结果也会达到一定程度的一致,不过这里的一致是偶然达到的,这种偶然达到的一致性比率称为偶然一致性比率,也就是Kappa计算中的Pe 。当评价人A 与B 随机地作评价时,此两人行动一定是独立的,互不影响,从而两人同评为0 类的概率为P 0+×P +0,两人同评为1 类的概率为P 1+×P +1。(这里P0+表示A评价人评为0类的测量次数占总测量次数的比率,P 1+表示A评价人评为1类的测量次数占总测量次数的比率;同理P +0、P +1分别表示B评价人评为0类的测量次数占总测量次数的比率,和B评价人评为1类的测量次数占总测量次数的比率。这时偶然一致性比率Pe 为其和,即Pe = P0+×P +0+ P1+×P +1。

因此,P e =

[1**********]0×47100×10315. 7+68. 7×+×=(+) /150==0. 56 [***********]150

这里15.7和68.7分别就是两评价人同时评为0类和1类的期望计数,分别为对应单元格行总计数乘以列总计数除以总计数所得。同样31.3和34.3这两个期望计数也是按同样方式得出的。 可以看出,期望计数就是指两评价人因偶然性而使其判定可能达到一致的期望值或预期值。在计算kappa 时,分子分母同时减去偶然一致比率P e 目的就是为了消除因偶然性造成的评价的一致性,使kappa 测量一致性的程度更有效用。

计数型测量系统研究的假设试验分析法

假设试验分析法是评估计量型测量系统风险的分析方法之一。该方法对测量系统的评价包括两个方面:一方面运用Kappa 对评价人之间的一致性和评价人与标准之间的一致性进行衡量,另一方面就是对测量系统的有效性进行评价。所以说,Kappa 分析仅仅是计数型测量系统分析的一部分工作,要判定计数型测量系统是否合适还要对测量系统的有效性进行评价。

MSA 手册中通过例子的形式已经说明了如何进行计数型测量系统有效性分析,但对于有效性的置信区间如何计算以及漏发警报率和误发警报率如何计算没有明示的说明。

我们仍然分析MSA 手册中的例子(见MSA 中文第三版P127表12)。通过表12记录的研究数据,我们知道参考值显示合格的零件有34件,不合格的有16件。其中,39件是A 、B 、C 三

个评价者三次测量都判定与参考值一致的;评价者A 有8个零件的判定结果与参考值不一致,其中5次将合格零件判定为不合格,3次将不合格零件判定为合格;评价者B 有5个零件的判定结果与参考值不一致,其中2次将合格零件判定为不合格,3次将不合格零件判定为合格;评价者C 则有10个零件的判定结果与参考值不一致,其中9次将合格零件判定为不合格,6次将不合格零件判定为合格。(这里要注意到判定结果与参考值不一致的零件数不一定等于将合格零件判定为不合格以及将不合格零件判定为合格的总次数,因为每个评价者分别对50个零件各测试了3次,在判定结果不一致的零件中,有1次的结果不一致的,也有2次的结果不一致的)。

根据上述原始统计信息,我们可以分别计算出A 、B 、C 三个评价者测量的有效性和整个测量系统的有效性。

评价者测量有效性=

测量系统有效性=

评价者多次测量同一零件的判定结果与参考值一致的次数

测量分析的零件总数

所有评价者多次测量同一零件的判定结果与参考值一致的次数

测量分析的零件总数

那么我们可以算出在这个例子中:

50−8

=84% 5050−5

评价者B 测量有效性==90%

5050−10

评价者C 测量有效性==80%

5039

测量系统有效性==78%

50评价者A 测量有效性=

实际上根据随机抽样检验所计算出的有效性是存在置信区间的,按95%的置信度来估计,评价者测量的有效性和测量系统的有效性置信区间的上下限值可依据Beta 分布的分位数来确定。

置信上限的计算公式为:Betainv(1-α/2, B+1, A-B) 置信下限的计算公式为:1-Betainv(1-α/2, A-B+1, B)

在置信度为95%时,显著水平α=5%,因此1-α/2=0.975,上述公式中A 为总零件数,B 为判定结果与参考值一致的零件数。

我们通过Microsoft Excel可以计算出评价者A 、B 、C 测量有效性以及测量系统有效性的置信上限和下限。

评价者A 的95%UCL=Betainv(0.975, 42+1, 50-42)=93% 评价者A 的95%LCL=1-Betainv(0.975, 50-42+1, 42)=71% 评价者B 的95%UCL=Betainv(0.975, 45+1, 50-45)=97% 评价者B 的95%LCL=1-Betainv(0.975, 50-45+1, 45)=78% 评价者C 的95%UCL=Betainv(0.975, 40+1, 50-40)=90% 评价者C 的95%LCL=1-Betainv(0.975, 50-40+1, 40)=66%

评价者B 的95%UCL=Betainv(0.975, 39+1, 50-39)=89% 评价者B 的95%LCL=1-Betainv(0.975, 50-39+1, 39)=64%

评定测量有效性还有另外两个指标,一个是漏发警报率(β风险,第II 类风险,顾客风险),另一个是误发警报率(α风险,第I 类风险,生产者风险)。中文第三版MSA 手册中把漏发警报率(Miss Rate)翻译成错误率,把误发警报率(False Alarm Rate)翻译成错误报警率,这种翻译不妥当,不太容易让人理解。

那么这两个指标是如何计算的呢?其计算公式如下:

漏发警报率=

误判为合格的机会数

不合格机会总数

误发警报率=

误判为不合格的机会数

合格机会总数

这里要注意理解机会数,在本案例中,由于每人对每个零件测量了3次,所以不合格机会总数和合格机会总数应分别为不合格零件数和合格零件数的3倍,而误判合格的机会数就是对所有零件进行3次重复测量的过程中误判合格的总次数,同理误判不合格的机会数就是对所有零件进行3次重复测量的过程中误判不合格的总次数。如:整个测量中,不合格机会总数=不合格零件数×3=16×3=48;合格机会总数=合格零件数×3=34×3=102;评价者A 误判为合格的机会数为3,误判为不合格的机会数为5;评价者B 误判为合格的机会数为3,误判为不合格的机会数为2;评价者C 误判为合格的机会数为6,误判为不合格的机会数为9。 计算结果如下:

评价者A 的漏发警报率=3/48=6.3%,误发警报率=5/102=4.9% 评价者B 的漏发警报率=3/48=6.3%,误发警报率=2/102=2.0% 评价者C 的漏发警报率=6/48=12.5%,误发警报率=9/102=8.8%


© 2024 实用范文网 | 联系我们: webmaster# 6400.net.cn