Cumulative sum charts - Guidance on quality control and data analysis using CUSUM techniques

Gives the principles of cusum charting and includes guidance on the preparation and interpretation of cusum charts using basic decision rules.

Cartes des sommes cumulées — Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM

General Information

Status
Withdrawn
Publication Date
26-Feb-1997
Withdrawal Date
26-Feb-1997
Current Stage
9599 - Withdrawal of International Standard
Start Date
29-Jun-2011
Completion Date
13-Dec-2025
Ref Project

Relations

Technical report
ISO/TR 7871:1997 - Cumulative sum charts -- Guidance on quality control and data analysis using CUSUM techniques
English language
40 pages
sale 15% off
Preview
sale 15% off
Preview
Technical report
ISO/TR 7871:1997 - Cartes des sommes cumulées -- Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM
French language
60 pages
sale 15% off
Preview
sale 15% off
Preview
Technical report
ISO/TR 7871:1997 - Cartes des sommes cumulées -- Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM
French language
60 pages
sale 15% off
Preview
sale 15% off
Preview

Frequently Asked Questions

ISO/TR 7871:1997 is a technical report published by the International Organization for Standardization (ISO). Its full title is "Cumulative sum charts - Guidance on quality control and data analysis using CUSUM techniques". This standard covers: Gives the principles of cusum charting and includes guidance on the preparation and interpretation of cusum charts using basic decision rules.

Gives the principles of cusum charting and includes guidance on the preparation and interpretation of cusum charts using basic decision rules.

ISO/TR 7871:1997 is classified under the following ICS (International Classification for Standards) categories: 03.120.30 - Application of statistical methods. The ICS classification helps identify the subject area and facilitates finding related standards.

ISO/TR 7871:1997 has the following relationships with other standards: It is inter standard links to ISO 7870-4:2011. Understanding these relationships helps ensure you are using the most current and applicable version of the standard.

You can purchase ISO/TR 7871:1997 directly from iTeh Standards. The document is available in PDF format and is delivered instantly after payment. Add the standard to your cart and complete the secure checkout process. iTeh Standards is an authorized distributor of ISO standards.

Standards Content (Sample)


ISO/TR
TECHNICAL
REPORT
First edition
1997-02- 15
Cumulative sum charts - Guidance on
quality control and data analysis using
CUSUM techniques
Carfes des sommes cumulties - Lignes directrices pour le contr6le de la
qua/it6 et I’analyse des don&es utilisant /es prockdures CUSUM
Reference number
ISOTTR 7871 :1997(E)
Contents
iv
0 Introduction
..............................................................................................................
1 Scope and general principles .
2 . . . . . . . . . . . . . . . . . . . . .*.*.o.o.omm.
Preparations for cusum charting
3 Presentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .m.m.m.m.m.m.m.m.m.m.mm.m.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Decision rules for monitoring and control
5 Decision rules for retrospective analysis mmmmmmmmm*mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .*. 25
6 Computational CUSUM techniques
7 Examples of applications mmmmmmmmm~mmmmm~mm~~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm*mmmmmmmm 30
Appendix A Measures of variation mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmammmmmmmmmmmmo
mmmmmmmmmm~mmmmmmmmmmmmm*mmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmom8mmOmmm 42
Appendix 6 Scaling the chart
Appendix C Calculation of local averages mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm*mmmmmmmmmm~mmmmmmwommmmmm 45
Appendix D Replotting the CUSUM chart mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm 47
Appendix E The full V-mask ~mmmmmmmmm~~~mmmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
~~mmmmmmmmmmmmmmmmmmmm~m~~mmmmmmmmmmmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm 51
Appendix F Local decision lines
mmmmmmmmmmmmmmmmmmmmmmmmmmm~mmmmmm~mm~m~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmamm 53
Appendix G Distribution-free CUSUM tests
mmmmmmm~mmmmmmmmmmmmmmmmmmm~~mmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
Appendix H Alternative standard schemes 56
0 IS0 1997
All rights reserved. Unless otherwise specified, no part of this publication may be reproduced
or utilized in any form or by any means, electronic or mechanical, including photocopying and
microfilm, without permission in writing from the publisher.
International Organization for Standardization
Case postale 56 l CH-1211 Geneve 20 l Switzerland
Internet central @ isoch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Printed in Switzerland
ii
@ IS0 ISOnR 7871: 1997(E)
Foreword
IS0 (the International Organisation for Standardization) is a worldwide federation of national
standards bodies (IS0 member bodies). The work of preparing International Standards is normally
carried out through IS0 technical committees. Each member body interested in a subject for which
a technical committee has been established has the right to be represented on that committee. .
International organizations, governmental or non-governmental, in liaison with ISO, also take part
in the work. IS0 collaborates closely with the International Electrotechnical Commission (IEC) on
all matters of electrotechnical standardization.
The main task of technical committees is to prepare International Standards, In exceptional
circumstances a technical committee may propose the publication of a Technical Report of one of
the following types:
- type 1, when the required support cannot be obtained for the publication of an International
Standard, despite repeated efforts;
- type 2, when the subject is still under technical development or where for any other reason
there is the future but not immediate possibility of an agreement on an International Standard;
- type 3, when a technical committee has collected data of a different kind from that which is
normally published as an International Standard (“state of the art”, for example).
Technical Reports of types 1 and 2 are subject to review within three years of publication, to
decide whether they can be transformed into International Standards. Technical Reports of type 3
do not necessarily have to be reviewed until the data they provide are considered to be no longer
valid or useful.
ISO/TR 7871, which is a Technical Report of type 3, was prepared by Technical Committee
ISO/TC 69, Applications of statistical methods, Subcommittee SC 4, Statistical process control.
. . .
III
ISO/TR 7871 :1997(E)
0 Introduction
0.1 Basis of cusum chart
The cumulative sum chart (hereafter referred to by the generally accepted contraction “cusum
chart“) is a highly informative graphical presentation of data which are ordered in a logical
sequence. Frequently this sequence corresponds to the order of observation on a time scale.
A reference value, T, is subtracted from each observation. This reference value is generally a
constant but may be a prediction from a forecasting model or a target which may vary. The
cumulative sums of the deviations from T are formed, and these cusums (C) are plotted against
the serial numbers of the observations.
In a cusum chart intended to check a process for departure from a mean value equal to the
reference value, that value is also known as the target value or aim. Wthout more advanced
cusum procedures the two concepts, target value or aim and reference value must be
distinguished. The former refers to the actual or intended process average, the latter to the
reference values used in the cusum procedure. The intuitive appeal of the term target value is
strong, however, and for most of this standard, clauses 0 - 6, the common value of target value
and reference value is referred to as target value when this does not create ambiguity. In clause 6
upper and lower reference values are created and these must be distinguished from target values
or aims.
The cusum method of plotting results is the representation of average by the local slope of the
chart. When the local average corresponds to the target value, the path of the cusum lies roughly
parallel to the sequence axis. When the local average of the series is greater than the target value,
the cusum slopes upwards ; conversely, when the local average is less than the target value, the
cusum slopes downwards. The greater the discrepancy between the local average and the target
value, the steeper the slope of the cusum path.
The result of plotting the cusum is that changes in average level over different subdivisions of the
total sequence of observations are clearly indicated by changes in slope of the chart. The local
averages in such subdivisions can be readily estimated, either from the numerical values of the
cusum from which the chart is plotted or directly, from the chart itself.
A second effect of using cumulative sum procedures is that there is an inherent serial dependence
between the successive cumulative sums. Decisions regarding acceptable departures from the
sequence axis require the use of the method of stochastic processes.
0.2 Simple example of cusum chart
The above principles are best appreciated from a simple example. The calculations and plotting
procedure will, at this point, be developed without mathematical symbolism.
IV
ISO/TR 7871 :1997(E)
@ IS0
It is supposed that the following individual observations have been obtained, over a time sequence
in order shown, and that a reference value of 15 is appropriate.
Table 1 : Data for cusum plotting
Obsen/ed Deviation Deviation from from Cumulative sum of
value reference reference value value deviations
(= (= 15) 15)
12 -3 * 3
17 +2 - I
- 1
14 - 2
14 - 1 - 3
+2
17 - I
16 +1 0
14 - 1 - 1
-4
11 - 5
13 -2 - 7
14 - 1 - 8
15 0 - 8
11 -4 - 12
14 - 1 - 13
16 +1 - 12
13 -2 - 14
14 - 1 - 15
11 -4 - 19
12 - 3 - 22
- 2 - 24
19 13
+l - 23
20 16
21 12 - 3 - 26
18 +3 - 23
+3 - 20
23 18
24 17 +2 - 18
20 +5 - 13
- 13
26 15 0
14 - 1 - 14
+3 - 11
28 18
+5 - 6
29 20
- 5
16 +I
18 +3 - 2
- 1 - 3
32 14
- 2
16 +l
For a conventional control chart, as in figure 1, the observed values are plotted against their
corresponding observation numbers. There is some indication that the last dozen values appear to
be clustered around a different mean level from the first 20 or so.
Plotting in the cusum mode give a much clearer display than the conventional chart. The cusum
(column 4 of table 1) is plotted against the observation number using the y (“vertical”) axis for the
cusum and the x (“horizontal”) axis for the observation number, figure 2.
V
@ IS0
ISOmR 7871:1997(E)
.
:
:
:
: :
:
+-
-i-
: .
:
i
.
+
-f-
:
:
:
o-&m-
+
I
:
I
.
i
-r
i
:
:
A-
t
:
r
Obsenration mmiber
Figure 1 : Conventional chart of data from table 1
0 2 4 6 8
IO 12 14 16 18 20 22 24 2628=32=
Figure 2 : Cusum chart of data from table 1
Vi
@ IS0 ISO/TR 7871 :1997(E)
The cusum chart clearly separates into three segments. From observations numbered 1 to 7
(inclusive) the cusum path is generally parallel to the obsen/ation number axis, i.e. the path is
roughly horizontal. From observations 8 to 21 inclusive the path is downward (despite local
irregularities such as at observations 14, 20). From obsen/ations 22 to 33, the path is upward
(again with local irregularities).
Thus it could tentatively be inferred that :
a) obsen/ations 1 to 7 constitute a sample from a “population“ whose mean is at or near the
target value (15) ;
b) observations 8 to 21 appear to have been sampled from a population whose mean is
below 15 ;
c) observations 22 onward appear to come from a population whose mean is greater than 15.
There are now a number of questions that might be asked :
1) in the light of the underlying variability (as indicated, for example, by the irregularities in the
cusum path) can it be concluded that the changes in slope represent real shifts in average
rather than merely lucky or unlucky runs of samples from a stable population ?
2) if the changes are real, how should the data be used to estimate local averages ?
3) to what extent might the inferences or estimates be affected by the choice of the reference
value or the cusum scale factor ? Thus figures 3 and 4 show the same series plotted first with
the same cusum scale but with a target of 12 ; and second with a target of 15 but a
compressed cusum scale.
In figures 3 and 4, the change in slope around observation number 8 is less apparent. The change
around number 21 is still visible, but it is less easy to “pinpoint” in figure 4. Thus the choice of
reference value and scale factor need careful attention, to avoid either the suppression of useful
information or, conversely, the exaggeration of spurious effects. It is also clear from figure 3 that
use of a an inappropriate target value may result in the chart running off the-upper of lower edge
of the graph paper, although this problem may also be minimized by replotting from a new zero at
any point in the sequence.
@ IS0
T=l2
R K I s K P a s
I I. 1 I I ttttt I I f 1
18 20 22 24 26 = 30 32 34
2 4 6 0 10 12 14 16
obm!n?ation lmmbe!r
Figure 3 : Cusum chart of data from table 1, with reference value 12
T=l5
36 iB W
24 28 28
$6 16 a Zz
0 16 32 14
0 2 4 6
obdmmbmnpmber .
Figure 4 : Cusum chart of data from table 1, w.ith reference value
15 but compressed cusum scale
. . .
VIII
TECHNICAL REPORT @ OS0 ISO/TR 7871:1997(E)
Guide to quality control and data
Cumulative sum charts -
analysis using CUSUM techniques
Scope and general principles
1 .I General
This standard introduces the principles of cusum charting and includes guidance on the
preparation and interpretation of cusum charts using basic decision rules.
1.2 Fundamental requirements
The fundamental requirements from cusum charting are as follows :
a) the observations should be at least on an interval scale of measurement ;
b) there should be logical grounds for the sequence for plotting. This arises naturally in process
control.
These requirements are taken in order. The interval property requires any given numerical
difference between two observations to have the same interpretation throughout the range of the
variable. Thus a difference of 0,l mm between the lengths of two objects has the same meaning
whether the objects are woodscrews of length IO,1 mm and IO,0 mm or steel girders of length
10 000,l mm and 10 000,O mm although the latter difference may be unimportant. Many arbitrary
scales do not have this property : ratings are an example, where perhaps a serious nonconformity
scores 10 points, a moderate nonconformity 5 and minor nonconformity 1. We cannot then
interpret this to mean that the following items are necessarily equally undesirable, although their
score differences are zero :
- item A one serious nonconformity Score = 10 ;
Score = 10 ;
- item B two moderate nonconformities
- item C one moderate, five minor nonconformities Score = 10 ;
- item D ten minor nonconformities Score = 10.
Interpretation of “average” score could be misleading if the balance of serious, moderate and
minor nonconformities, rather than merely their overall frequency, changes.
The logical sequence property may arise in numerous ways. The observations may occur in a time
or length sequence, thus forming a natural progression. Monitoring for quality or process control
provides many cases of this kind.

lSO/TR 7871:1997(E)
@ IS0
Observations may be ordered according to the value of some auxiliary variable measured on the
items. The cusum then provides a means of presenting or investigating relationships between
variables, or augmenting a regression or correlation analysis Any kind of ordering or grouping that
uses some structural feature of the observations or the background from which they are taken may
provide the basis for the cusum sequences.
1.3 Types of data amenable to cusum charting
Many types of data satisfy the fundamental requirements a) and b) of 1.2 ; Perhaps the most
frequent applications of cusum charts have been in quality control, where observations such as
sample means or ranges are plotted in sequence to assess the state of a process. When using a
cusum chart as a device for effective data presentation, it is not necessary to specify a distribution,
nor to require independence between successive observations. These conditions are important for
decision rules, but not for data presentation. Indeed, the cusum chart may assist in the
identification of distributional features such as serial correlation or cyclic behavior.
Thus data involving ranges or sample estimates of standard deviation may be plotted on cusum
charts, as well as sample averages. Counts of nonconformities are also encountered in quality
control, and may be monitored by cusum charts.
1.4 Monitoring or retrospective analysis
In prescribing decision rules and statistical tests, two distinct situations should be recognized :
a) the object of charting may be to monitor the behavior of a series of observations against
some specified or standard reference value such as in quality control operations. Decision rules
for monitoring are presented in clause 4.
b) the object may be to examine historical data, or observations grouped in some logical
manner, so as to detect any differences between segments. No formal standard or reference
value exists. This situation is close to that of testing the significance of apparent differences
between groups of observations, but it differs in that the grouping may be effected on the basis
of a preliminary inspection of the cusum chart. Statistical tests for retrospective analysis are
presented in clause 5.
2 Preparations for cusum charting
2.1 Notation
A reference value will be denoted by T. As each obsen/ation in the sequence is encountered, the
difference (V, - T) is formed. These differences are summed, so that by the time Yip is reached, the
cusum is formed :
C
i = C(Y,-T)
r=l
(1)
@ IS0
ISO/TR 7871: 1997(E)
The cusum, Ci, is plotted as ordinate (“vertical” axis) against the abscissa (“horizontal” axis).
Assuming that i takes successive integer values 0 (at the origin), 1 I 2, . . . . the scale factor on the
vertical axis will be denoted by A. This is interpreted as meaning that the distance which, on the
horizontal scale, cmesponds to one plotting interval, represents A on the cusum scale. This scale
factor may often be expressed as mutiples of the standard error of the plotted values (Ok), and this
standardized scale factor will carry the a (thus A = a~,). The meaning and estimation of B, is
detailed in appendix A.
It will frequently be useful to calculate a local average for the sequence of points from i to j, or from
i to j - 1, or perhaps from j to j + r, etc. These will be indicated by :
- -
. = -
; etc.
Y i,j 1 Y
Lj-1 ’ Yj j+r
Other notation will be defined as it is introduced.
2.2 Choice of reference value (T)
Choice of a suitable target value is one of the two most important steps in the preparations. An
unsuitable target value will cause the cusum to slope persistently up or down, making changes
more difficult to observe, and necessitating frequent replotting when the chart runs off the top or
bottom of the graph (see Appendix D).
2.3 In many cases, T is a specified target or aim level of the quality measure. It is wise to have
assurance that the process can produce this quality, otherwise the cusum chart will merely be a
persistent reminder of failure, and in such circumstances any control system tends to be ignored
or fall into disuse.
There may not always be an aim value for T. Sometimes the mean level of the quality measure
over a recent stable series of data may be used.
2.4 Where a cusum chart is to be used for retrospective examination of a series of historical
data, or residuals form an experiment, the natural target becomes the arithmetic mean of the
complete series. Apart from any minor discrepancy arising from rounding of the mean, this choice
for T will result in the cusum being and ending at the same ordinate value. Combined with suitable
scaling (see appendix B) the cusum plot may be contained within the limits of the graph grid used
for plotting.
2.5 Binary data, coded as a sequence of O’s and l’s, require an appropriate estimate of the
proportion of responses which are scored as 1’s. This proportion is then used as a target value.
For quality control applications, a proportion of nonconformities or Acceptable Quality Level (AQL)
may be specified by contract, or a feasibility study may provide a suitable value. In experiments
involving binary response, either the overall proportion for the complete experiment may be used
or, in the case of sequential experiments, the target may be set at the proportion observed in the
first complete segment of the experiment, modifying this later if it proves unsuitable.
ISO/rR 7871:1997( E)
2.6 Types of variation
In order to scale the chart effectively, and also to provide a basis for significance tests, a measure
of the underlying short-term variation in the series is required. In engineering terms, the noise
should be measured in order to scale the system for detection of signals.
The fundamental statistical measure of variation is the standard deviation. It may be estimated
from a sample of n values by :
s(estimate of 0) =
$xCYi -Y>’ (2)
-
d
where :
- 1
=-
Y CY
n i
The summation extending over the n observation in the sample.
Frequently the values to be plotted are some function of a group of observations, a statistic such
as their mean, range, proportion nonconforming, etc. The appropriate measure of variation then
becomes the standard error of the plotted sample statistic (or an estimate thereof if this is
unknown). The simplest cases are those of the sample mean, X, or proportion non conforming,
p, in a sample of n items. Not that n is the size of each of the samples, that is, the number of
observations per sample, not the number of samples to be plotted.
In these two simple cases, assuming an in-control process :
Standard error of j7, oe = D / fi, often being replaced by its estimate.
When the observations are counts or proportions of items with a specified attribute in samples of
size n, if the process is under statistical control with pO the probability an item has the attribute,
then the binomial distribution is appropriate giving :
PobP*)
Standard error of p, up =
n
Poclo
often written as, ciP =
- %=1-P,
n ’
The standard deviation of number of items per sample having the required attribute is :
o= (4)
nPoqo
J
@ IS0 ISO/TR 7871 :1997(E)
This is one instance where the standard deviation itself may be useful for diagnostic purposes in
connection with a plot of raw sample data. Another is the number of nonconformities, faults,
defects, or other occurrences in some quantity of product or material, or obsen/ed in some time
segment. Examples are faults per meter (or square meter) of cloth, and accidents per week in a
factory. Here, if the conditions appropriate to the Poisson distribution are assumed :
G= m
J-
where m is the average level of occurrences per sample. In particular, if the probability of a
nonconformity in a very small volume of product is very small and is proportional to the volume of
the product, and if the nonconformities occur independently of one another, then a mathematical
consequence is that the nonconformities can be expected to follow the Poisson distribution.
The requirement of “statistical control” implies that, during any period when no “assignable”
change, or cause of variation, occurs, all the items sampled may be regarded as simple random
samples from the whole process (or population, or time segment, etc). In this case, the short-term
variation as observed between items within samples forms a suitable basis (via the standard error
of the chosen summary statistic) for estimating the expected variation in the sequence as a whole.
Any variation greater than this is assumed to arise from assignable causes, indicating a shift in the
mean of the series or a change in the nature or magnitude of the variation.
There are many cases where the simple use of overall estimates of the standard deviation is
inappropriate. Some circumstances resulting in its breakdown are as follows :
a) In making observations on a continuous process, there may be small but unimportant
variations in the average level ; it is against these variations, rather than the extremely short-
term variation, that systematic or sustained changes should be judged. As examples, an
industrial process may be controlled by a thermostat or other automatic control device ; quality
of raw material input may be subject to minor variations although never violating a specification.
In monitoring a patient’s response to treatment, there may be minor metabolic changes
connected with meals, hospital or domestic routine, etc., but any effect of treatment should be
judged against the overall typical variation ;
b) The method of sampling may itself induce effects like those in a). Often samples comprise
items taken close together from a production line, on the grounds that a true random sample of
all items manufactured is inconvenient. The items then constitute a “cluster” sample, and may
tend to be too similar to each other to form a basis for assessing overall variation ;
c) Samples may comprise output or observations from several sources (machines, operators,
administrative areas). As such, there may be too much local variation to provide a realistic
basis for assessing whether meaningful changes have occurred.
Because of this, data arising from a combination of such sources should be treated with caution
as any local peculiarities within each contributing source may be overlooked ; moreover,
variation between the sources may mask any changes occurring over the whole system as time
progresses.
ISO/TR 7871 :1997(E) @ IS0
d) Serial correlation may be present in the observations, that is, one obsen/ation is correlated
with others nearby. For example, if moving averages are used, the overlap between the data
values used in one such average and the next produces a positive serial correlation. in
estimating use of a bulk material from differences between successive gauge or dipstick
readings, an overestimate on one occasion will tend to produce an underestimate on the next,
giving negative correlation. The possible presence of one or other of these effects needs to be
recognized. Positive serial correlation is especially likely in some industrial processes where
one batch of material may partially mix with preceding and succeeding batches producing what
is sometimes termed as “heel” effect. Successive additions of fuel to the tank of a vehicle is an
everyday example, each new addition being made before the tank is exhausted.
It is thus necessary to consider other measures of variation in the series or sequences of data,
and the circumstances to which they are appropriate. Such measures of variation include treating
the differences between successive sample values (Sj = Yj - V,-1) as the appropriate type of
variation and treating all the sample values, Yj, as though they were drawn from a single
population. These measures are discussed in appendix A.
2.7 Measures of variation
See appendix A.
2.8 Scaling the chart
See appendix B.
2.9 Check list of cusum preliminaries
As a reminder of (but not a substitute for) the detailed description of preliminary steps set out in
this chapter, the following check list may be useful.
Choose an appropriate target value. The possibilities include :
a) a specification value ;
b) a satisfactory level of performance (for a process) which has a reasonable chance of being
achieved ;
c) an average level of performance over a recent and typical period or segment ;
d) the average level of a complete set of observations, where retrospective analysis is involved.
Select a suitable measure of variation, taking the points in 2.7 into account.
Decide on the scaling convention to be adopted. The method of B.1 is generally the simplest for
both preparation and interpretation, but for some special purposes one of the other two
conventions may be preferred or special forms may be prepared for routine use.
Ensure that staff involved in the preparation or interpretation of the charts are familiar with the
procedure.
@ IS0 ISO/TR 7871:1997(E)
3 Presentation
3.1 In clause 2 preparations for plotting the chart were detailed, including selection of the target
value, defining and calculating a measure of variation, and the choice of a scaling factor.
Some practical points of labelling also deserve attention. The minimum information presented on
the chart should include the following :
a) Target value (which may be accompanied by a brief indication of the reason for its selection,
e.g. specified mean value, mean of past data) ;
b) Standard error of the observations (which may be accompanied by a note on the method
used to estimate it) ;
c) Nature of the observations (original values, sample means, nonconformity counts, etc.) ;
d) Title indicating the purpose of the chart (e.g. “Cusum chart for control of . . . .‘I. or
“Retrospective cusum for data from . . . .‘I) ;
e) Clear labelling of the i-scale (sample intervals) and cusum scale.
3.2 To assist in interpreting observed cusum chart pattern changes in conditions that are known
to have occurred can be noted at the appropriate point on the i-scale. Examples are new deliveries
of raw materials for the manufacturing process, or changes of personnel or of methods of
operation.
In examining residual errors from an experiment, the points where changes in levels of the
experimental factors occurred may be noted. For data collected over time, occasional date marks
should be highlighted on the i-scale.
The likely inclusion of information of this kind may affect the choice of sample interval scale ; if
appreciable annotation is envisaged, a more generous scale may be preferred than would
othewise be the case, to avoid a chart excessively cluttered with auxiliary information.
3.3 Choice of chart origin
For most applications, the origin for plotting the cusum scale will be zero, with provision for positive
and negative cumulative sums to be plotted. However, the subsequent visual interpretation of the
chart is not affected by the actual origin adopted, and if non-negative values are preferred, the
cusum may be commenced at a suitable positive value. For example, when a chart is a
continuation of some previous plot, or when the cusum path runs off the top or bottom of the
graph, it may be useful to commence the new chart (or replotted segment) at a value
corresponding to the general level near the conclusion of the previous chart (or segment).
3.4 Calculation of local averages
See appendix C.
ISO/TR 7871: 1997(E)
@ IS0
3.5 Replotting the cusum chart
See appendix D.
Decision rules for monitoring and control
4.1 Introduction
4.1.1 In this clause and in clause 5, simple decision rules are presented for determining whether
apparent changes in cusum slope (and hence of the average level of the plotted variable) are real,
or whether they may be regarded as part of the underlying variability in the data.
The present clause is concerned with monitoring and control applications : the plotting of data
points in sequence as the observations are obtained, to detect as rapidly as possible any shift
from a target level. Clause 5 deals with decision rules for the retrospective analysis of existing data
to establish whether particular segments differ in average level from the preceding or succeeding
segments.
4.1.2 The use of decision rules may not always be necessary, especially in cases where cusum
charts are used only as a means of effective presentation of series data. However, where
decisions and possibly resulting action need to be taken, the cusum method often yields more
efficient use of the available data than other traditional techniques. In this context, efficiency _ *
. implies either that decisions about changes in level are reached more quickly ; or that false alarms
(erroneous decisions that a shift in mean has occurred when in fact there has been no change)
are less frequent ; or that both advantages may be obtained together.
4.1.3 Cusum procedures when used for monitoring and control have the dual objectives of
detecting significant changes and the points at which they occur. In order to measure the
performance of such procedures, it is relevant to consider the average number of samples taken
until an apparent change is signalled by the chosen decision rule. When no real change has
occurred, this average run length should be long -perhaps hundreds of samples - as any signals
will then be false alarms. When a large shift from target occurs, a short average run length is
desirable so as to detect off-standard conditions rapidly. The response of a decision rule to various
magnitudes of shift from target can be represented by an average run length curve (ARL curve),
which provides a means of comparing decision rules in a manner analogous to that of the
operating characteristic (OC curve) for comparing acceptance sampling procedures, or the power
curve for comparing statistical hypothesis tests.
It should be noted that the run length itself is subject to statistical variation. Sometimes one may
be “lucky” in obtaining no false alarms over a long run, or detecting a change very quickly.
Sometimes an “unfortunate” run of samples may generate false alarms, or mask a real change SO
that it does not yield a signal. The average run length (ARL) is used as a summary measure for
comparison of schemes and decision rules, but other aspects of run length (mode or median run
length, or the complete run length distribution) may sometimes deserve attention. Typical run
length distributions are illustrated in Figure 5.
lSO/TR 7871: 1997(E)
a)ARL=5 b) ARL = 20
q = 4 oL = 18,9
Median = 3,5 Median = 14
Mode = 2 Mode = 3
2,5 % of runs > 16 123 % of runs ) 41
1 % of runs > i9, etc. 73 % of runs z>O, etc.
-
c) ARL = 96,5
oL = 95,6
Median = 67
Mode = 4
12,5 % of runs > 200
7,5 % of runs >250, etc.
-
Figure 5 : Distributions of characteristic run lengthes

lSO/TR 7871: 1997(E)
@ IS0
4.1.4 The essential features of the cusum chart relevant to the detection of changes in the
underlying average level are the steepness of the cusum slope and the number of samples over
which the slope persists. For monitoring and control, the object is to detect shifts from a target
level. Men the process is running at the target level, because of sampling variation, inevitably
there will be occasions when the cusum path apparently diverges from the horizontal.The decision
rule should not give false alarms that indicate that such sequences represent significant departure
from target. On the other hand, when the process moves to an unsatisfactory condition, the
decision rule should give as rapid a response as possible. The desiderata are thus :
Cusum response
True process condition
At or near target Long ARL (few false alarms)
Substantial departure from target Short ARL (Rapid detection)
The detailed specification of cusum procedures to give prescribed ARLs at particular quality levels
is deferred to other standards. Here are presented simple rules that cover a wide range of
applications. Their run length properties are related to quality levels generally defined as
departures from target, measured in standard errors of the plotted variable. The standard error is
assumed to be known from some preliminary evaluation, as described in Appendix A of this
standard.
4.2 CUSUM V-masks
4.2.1 General
The simplest decision rules for use in conjunction with cusum charts are embodied in V-masks.
There are three slightly differing forms, but all are identical in principle and effect. Each form may
be applied with any of the three scaling conventions ; they will be applied to the more generally
used version, as detailed in B.1 of Appendix B of this standard.
If the cusums are implemented by computing, the decision rules are also identical in principle and
effect, but are different in form and are described in clause 6.
4.2.2 The truncated V-mask
Although a complete V-mask may be used, the truncated form is convenient in practice. The mask
geometry is referenced to a point, indicated by A in figure 6, which may be identified by a small
notch in the vertical section SC. Two sloping arms run from B to D and C to E, but they may be
extended indefinitely beyond D or E if required. To correspond with later sections of this standard
the vertical half-distances AB, AC will be termed the decision inten/al, and the lines BD, CE as
decision lines. The slope of these decision lines, measured in scale units per sample plotting
interval, will correspond to the reference values introduced in 6.1.3.
The construction of the mask is detailed in figure 6. Note that the distances ICY,, 100, may be
transferred from the cusum scale if desired, or calculated from oe and the scale factor, if preferred.
@ IS0
The mask is used by placing the geometric reference point A, over any plotted point on the chart :
this will often be the most recent point plotted, or the last point in some segment of particular
interest. The AF axis is laid parallel to the sample number axis of the chart. If any preceding
cusum point is outside the sloping arms (or their extensions beyond D or E), a significant
departure from the target value is signalled. However, if the entire cusum path remains inside the
arms, no significant shift is indicated.
Figures 7 and 8 show the truncated mask applied at two points on the cusum chart of the data
from 0.2 (table 1 and figure 2). The value of ue is assumed to be 2,0. Wth the mask applied at
observation 16, the cusum remains within the sloping arms, and the segment from samples 8 to
16 does not differ significantly from the target value of 15. However, with the mask applied at
sample 18, the cusum path is seen to touch the upper decision line, indicating that, by the time the
18th value is obtained, sufficient evidence has accumulated to signal a downward shift from the
target value.
Figure 6 - General-purpose truncated V-mask
Several points are worth noting here :
a) the upper decision line is touched by sample points 6 and 7. If the cusum touches or crosses
the decision line it is deemed to be a violation, yielding a signal ;
b) the point at which the decision line is violated requires extending the arm of the mask, but
the inference of a change in mean is valid ;
c) if the mask is applied at any point before 18, no decision is signalled. If it is applied at any
point between 18 and 21 (the end of the downward segment) a significant downward shift is
indicated. Repeated (even unnecessary) use of the mask does not invalidate or modify the
signals already obtained ;
d) the signal occurs at sample 18. At this point, the evidence is sufficient to support a
conclusion that the mean has changed, but the change is likely to have set in at some earlier
stage. Inspection of the chart suggests samples 7 to 8 as the first of a sequence in which the
average is displaced from the target value ;
e) similar use of the V-mask later in this series would reveal a violation of the lower arm,
indicating an upward shift by the 29th sample point.
28 30
z w 26
16 18 2,o
10 12 14
4 6 8
0 2
obmmtkmh
Figure 7 : Truncated V-mask applied to cusum chart : no indication of shift
+tt
I t I I t I t s I ’ a , ‘
14 16 18 #) 22 w 2fj 2%
0 2 4 6 8 10 12
otmavdmd
Figure 8 : Truncated V-mask applied to cusum chart : indication of shift
ISOmR 7871: 1997(E)
@ IS0
f) In a control situation, appropriate action would be indicated after plotting sample value 18 and
obtaining a signal from application of the V-mask. An estimate of the new mean level is useful
in determining the correct adjustment, and use of the method described in appendix C of this
standard yields :
C = - 22, c, = 0
-22-o =13,16
-
‘=15+ 18 6
If action is delayed or ineffective, this estimate may be up-dated at a later stage if required.
4.3 The full V-mask
Appendix E details the construction of full V-masks.
44 . Local decision lines
Appendix F details the construction of local decision lines.
4.5 Average run length characteristics of basic decision rule
4.51 This clause presents the average run length properties of the basic decision rule formulated
in 4.2 and incorporated in the various graphical methods of cusum application by masks and
decision lines. Readers familiar with Shewhart-type control charts may find it useful to compare
this ARL curve with those for two well-established procedures :
a) Shewhart-type control chart with action limits only ;
b) Shewhart-type control chart with action limits and warning limits.
The ARL data refer to observations having a normal distribution with known standard error (0,)
which is unaffected by changes in mean level of the observations. For non-normal distributions, or
where variation may be affected by changes in mean, the ARL data may be considerably affected,
both for Shewhart-type control charts and cusums. The average run lengths refer to two-sided
control of the average.
The ARL data are listed in table 2 and presented graphically in figure 9.
ISO/TR 7871: 1997(E) @ IS0
Table 2 : Average run lengths for cusum and Shewhart-type control charts
(h = 5 and f = 0,5)
~~
Action
Shift in process Action and
average from CUSUM limit warning
target value
e 3 o,, 2 oe
(units of CQ
0 465 500 323 370 278
0,25 139 374 236 281 199
0,50 38 109 155 101
0,75 17 103 50 81 49
I,00 IO,4 55 26 44 26
I,50 58 18 89
15 88
1 9 1
2,00 40 73 42 63 41
1 1 1 9
I
2,50 31 36 25 32 20
!
9 1 1 !
3,00 26 22 18
20 17
1 ) 1 9 9
4,00 20 12 12 12 12
1 1 1 1 9
Readers familiar with Shewhart-type control charts will recognize that in many countries the
multipliers 3,090, and 1,960, are conventional, while in many other countries the multipliers 30,
and 20, are conventional. As table 2 makes clear, the CUSUM ARL curves are significantly better
than Shewhart-type charts using either convention ; better in the sense of long on-target ARLs
combined with short ARLs in the important off-target range of about l,O~r,.
Decision rules :
CUSUM has H = 50,, f = 0,5 (slope of decision line F = O,5oe per sample interval).
Shewhart-type control charts :
Action limits at f 3,090, correspond to “I in 500” points (99,8 %) of distribution.
Action limits f 3,Ooe correspond to “1 in 370” points (99,13 %) of distribution.
Warning limits at f 1,960, correspond to “1 in 20” points (5,0 %) of distribution.
Warning limits at * 2,0~, correspond to “1 in 22” points (4,6 %) of distribution.
Signal generated by single action value only, or
Signal generated by single action value or two successive warning values on the same side of
the target value.
@ IS0 ISO/TR 7871: 1997(E)
Cusum chart
i Control chart with
(1
.
. .
action line only
.
.
.
.t
.
(ii) Control chart with
.
.
action and warning lines
.
.
.
SPM Cusum with semi-parabolic
mask (see 4.7)
loo
......... ., ........ , ...................... .
... .* ..........
... * ....... i .... iii:.iir::i:iiii:iiii~~~~i~~~~i~~~~i~~~~i
. .
-
ti
6,
a
E
cl
ti
u
x
F
Q,
-
C
I ’
. . . . . .
. . . . 1-8 .m. JL-::;:::;ii.d _. ’ i .:/::::ijiIii:t~rfItt!j.: iti-:i:::.iL.;f.
. . . . . . . . . . . . . .
t i .,. . :‘I: . . .:::
I
. . . . . . . . . . . . . . . .- .,. . .
iii . . . . .a. . . . . . . . . . . . , - . . . . t.:;I::.:tr:::g
>
a
. . . ) . .
I-‘ i::::i::::i::::i::::i::::l::::i::::i::::i:::: 31 “b
. . . . ( . . . .
t::::j::::t::: i: :l::::~::::~::::~:~:$j:: .I:: j ,: j~~.:/~:~-/::!:/__-:_-j.:~~(~.j:~~~~::~~~:.~.~.l~~::I:~.:l. .y ,.-
. . i . . . . I. . :. .I
0 05 . IO . 15 . h&et 20 25 . 30 . 35 . LO .
Shift from
( units of de)
Figure 9 : Average run length data for cusum and Shewhart-type control charts
(see table 2)
@ IS0
4.5.2 In general, when the design parameters of a CUSUM scheme are chosen to give an on-
target ARL roughly equal to that of a conventional Shewhart-type scheme, the CUSUM scheme
can be designed to give much shorter ARLs than the Shewhart scheme for shifts from target in the
important range 0,5~, to I ,50,. This is a decisive advantage for CUSUM, and is illustrated in table
2 and figure 9. Note the logarithmic ARL scale in figure 9. The Shewhart-type charts are faster in
responding to very large process shifts, as can be seen from the crossing of the ARL curves in
figure 9. However, both types of charts respond very rapidly to very lar
...


RAPPORT
I.SOKR
TECHNIQUE 7871
Première édition
1997-02-I 5
Cartes des sommes cumulées - Lignes
directrices pour le contrôle de la qualité et
l’analyse des données utilisant les
procédures CUSUM
Cumulative sum Chat?s - Guidance on quality control and data analysis
using CUSUM techniques
Numéro de référence
ISO/TR 7871: 1997(F)
Sommaire
iv
0 Introduction .
................................................................... 1
1 Domaine d’application et principes généraux
2 Préparation des cartes CUSUM .
3 Présentation .
....................................................
4 Règles de décision pour la surveillance et le contrôle
......................................................
5 Règles de décision pour les analyses rétrospectives
.....................................................................................
6 Techniques de calcul des CUSUM
.....................................................................................................
7 Exemples d’applications
.................................................................................... 39
Annexe A Mesures de la variation
....................................................................................... 44
Annexe B Définition de l’échelle
.......................................................................... 47
Annexe C Calcul des moyennes locales
................................................................... 49
Annexe D Nouveau tracé de la carte CUSUM
Annexe E Masque en V entier .
Annexe F Lignes de décisions locales .
.............................................................. 55
Annexe G Tests non-paramétriques de CUSUM
................................................................. 58
Annexe H Variantes aux schémas normalisés
0 ISO 1997
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette
publication ne peut être reproduite ni utilisée sous quelque forme que ce soit et par aucun
procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l’accord
écrit de l’éditeur.
Organisation internationale de normalisation
Case postale 56 l CH-121 1 Genève 20 l Suisse
Internet central @ iso.ch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Imprimé en Suisse
ii
@ ISO ISOTTR 7871: 1997(F)
Avant-propos
L’ISO (Organisation internationale de normalisation) est une fédération mondiale d’organismes
nationaux de normalisation (comités membres de I’ISO). L’élaboration des Normes internationales
est en général confiée aux comités techniques de I’ISO. Chaque comité membre intéressé par
une étude a le droit de faire partie du comité technique créé à cet effet. Les organisations
internationales, gouvernementales et non gouvernementales, en liaison avec I’ISO participent
également aux travaux. L’ISO collabore étroitement avec la Commission électrotechnique
internationale (CEI) en ce qui concerne la normalisation électrotechnique.
La tâche principale des comités techniques est d’élaborer les Normes internationales.
Exceptionnellement, un comité technique peut proposer la publication d’un rapport technique de
l’un des types suivants:
- type 1, lorsque, en dépit de maints efforts, l’accord requis ne peut être réalisé en faveur de la
publication d’une Norme internationale;
- type 2, lorsque le sujet en question est encore en cours de développement technique ou
lorsque, pour toute autre raison, la possibilité d’un accord pour la publication d’une Norme
internationale peut être envisagée pour l’avenir mais pas dans l’immédiat;
- type 3, lorsqu’un comité technique a réuni des données de nature différente de celles qui
sont normalement publiées comme Normes internationales (ceci pouvant comprendre des
informations sur l’état de la technique, par exemple).
Les rapports techniques des types 1 et 2 font l’objet d’un nouvel examen trois ans au plus tard
après leur publication afin de décider éventuellement de leur transformation en Normes
internationales. Les rapports techniques de type 3 ne doivent pas nécessairement être révisés
avant que les données fournies ne soient plus jugées valables ou utiles.
L’ISO/TR 7871, rapport technique du type 3, a été élaboré par le comité technique ISO/TC 69,
Application des méthodes statistiques, sous-comité SC 4, Maîtrise statistique des processus.

ISO/TR 7871: 1997(F) @ Ils0
Introduction
0.1 Bases d’une carte CUSUM
La carte des Sommes Cumulées (que l’on désignera dans ce document sous l’abréviation
généralement adoptée de “carte CUSUM”) est une présentation graphique des données à
caractère informatif élevé, ordonnées selon une séquence logique. Cette séquence correspond
souvent à l’ordre des observations selon une échelle de temps.
On extrait une valeur de référence T de chaque observation. Cette valeur de référence est
généralement une constante mais peut être une prévision issue d’un modèle de prévision ou une
cible pouvant varier. Les sommes cumulées des écarts par rapport à T sont formées, et ces
CUSUM (C) sont représentés graphiquement en fonction des numéros des observations
successives.
Dans une carte CUSUM destinée à maîtriser la dérive d’un processus par rapport à une valeur
moyenne égale à la valeur de référence, cette valeur est également connue sous le nom de valeur
cible ou simplement cible. Avec des procédures CUSUM plus élaborées, il est nécessaire de faire
la distinction entre les deux concepts de valeur cible et de valeur de référence. Le premier se
rapporte à la moyenne prévue ou réelle du processus, le deuxième aux valeurs de référence
utilisées dans la procédure CUSUM. L’attrait intuitif du terme de “valeur cible” est toutefois élevé
et, dans la majeure partie de la présente norme, dans les articles 0 à 6, la valeur commune à la
valeur cible et à la valeur de référence se rapporte à la valeur cible quand ce choix ne crée
aucune ambiguïté. Dans l’article 6, des valeurs de référence supérieure et inférieure ont été
créées, et elles doivent être distinguées des valeurs cibles ou des cibles.
La procédure CUSUM destinée à présenter graphiquement les résultats consiste à représenter la
moyenne par la pente locale sur la carte. Lorsque cette moyenne locale correspond à la valeur
cible, le graphe du CUSUM devient approximativement parallèle à l’axe de la séquence. Lorsque
la moyenne locale de la série est supérieure à la valeur cible, la pente du CUSUM est
ascendante. Inversement, elle est descendante chaque fois que la moyenne locale est inférieure.
Plus l’écart entre la moyenne locale et la valeur cible est important, plus la pente du graphe du
CUSUM est accentuée.
II résulte du tracé du CUSUM une meilleure identification des variations du niveau moyen pour les
diverses subdivisions de la séquence totale des observations par les variations de la pente sur la
carte. Les moyennes locales dans ces subdivisions peuvent être facilement estimées, soit à partir
des valeurs numériques du CUSUM prises en compte pour tracer la carte, soit par lecture directe
de cette carte.
Une deuxième conséquence de l’utilisation des procédures des sommes cumulées (ou CUSUM)
réside dans le fait qu’il existe une corrélation sériale inhérente entre les sommes cumulées
successives. Les décisions concernant les écarts acceptables par rapport à l’axe de la séquence
nécessitent le recours à la méthode des processus stochastiques.
0.2 Exemple simple de carte CUSUM
Les principes énoncés précédemment s’apprécient mieux à la lumière d’un exemple simple. La
procédure de calcul et de tracé sera, pour l’instant, décrite sans utiliser de symboles
mathématiques.
iV
@ ISO
On suppose que les observations individuelles suivantes ont été obtenues sur une séquence
chronologique, selon l’ordre indiqué et qu’une valeur de référence de 15 convient.
Tableau 1 : Données pour le tracé des CUSUM
Numéro de Valeur Ecart de la valeur de Somme cumulée
l’observation observée référence (= 15)
des écarts
1 12 -3 - 3
2 17 +2 -1
3 14 - 1 - 2
4 14 - 1 - 3
5 17 +2 -1
6 16 +l 0
7 14 -1 -1
.
8 11 -4 - 5
9 13 -2 - 7
10 14 -1 - 8
11 15 0 - 8
12 11 -4 -12
13 14 -1 -13
14 16 +l -12
15 13 -2 -14
16 14 -1 -15
17 11 -4 - 19
18 12 -3 -22
19 13 -2 -24
20 16 +l -23
21 12 -3 -26
22 18 +3 -23
23 18 +3 -20
24 17 +2 -18
25 20 +5 -13
26 15 0 -13
27 14 - 1 - 14
28 18 +3 -11
29 20 +5 - 6
30 16 +l - 5
31 18 +3 - 2
32 14 -1 - 3
', 33 16 +l - 2
Dans une carte de contrôle classique, comme celle de la figure 1, les valeurs observées sont
représentées graphiquement en fonction du numéro de l’observation correspondant. Certaines
indications semblent faire plutôt apparaître un regroupement de la dernière douzaine de valeurs
autour d’un niveau moyen, différent de celui des 20 premières.
Le tracé en mode CUSUM donne un affichage plus clair que celui d’une carte classique. Le
CUSUM (colonne 4 du tableau 1) est représenté en fonction du numéro de l’observation, en
choisissant l’axe des y (“vertical”) pour le CUSUM et l’axe des x (“horizontal”) pour le numéro de
l’observation (figure 2).
@ ISO
ISODTR 7871: 1997(F)
Valeur observée
Valeur cible
- -- --
24 26 28 30 32 34
16 18 20 22
6 8 10 l-2 i,4
0 2 4
Numéro de l’observation
Figure 1 : Carte de contrôle ciass,iq.ue des données du tableau l
c- T=l5
0 0 2 2 4 4 6 6 8 8 10 10 12 12 34 34 16 16 18 18 202224 202224
262830 262830 32 32 34 34
Numéro Numéro de de l’observation l’observation
Figure 2 : Carte CUSUM des données du tableau 1
vi
@ ISO ISO/TR 7871: 1997(F)
La carte CUSUM se divise nettement en trois segments. Pour les observations numérotées 1 à 7
(incluse), le graphe du CUSUM est généralement parallèle à l’axe des numéros d’observation ;
autrement dit, ce graphe est pratiquement horizontal. Pour les observations 8 à 21 (incluse), le
graphe est descendant (malgré des anomalies locales visibles pour les observations 14 et 20).
Pour les observations 22 à 33, le graphe est ascendant (de nouveau avec des anomalies locales).
Ainsi, on serait tenté de conclure que :
a) les observations 1 à 7 constituent un échantillon d’une “population” dont la moyenne est à la
valeur cible (15), ou proche de cette valeur ;
b) les observations 8 à 21 semblent avoir été échantillonnées à partir d’une population dont la
moyenne est inférieure à 15 ;
c) les observations 22 et au-delà semblent provenir d’une population dont la moyenne est
supérieure à 15.
A ce point, un certain nombre de questions pourraient se poser :
1) A la lumière de la variabilité sous-jacente (signalée, par exemple, par les anomalies du
graphe du CUSUM), peut-on en conclure que les variations de la pente représentent des
décalages réels de la moyenne plutôt que tout simplement des périodes chanceuses ou
malchanceuses d’échantillons à partir d’une population constante ?
2) Si les variations sont réelles, comment convient-il d’utiliser les données pour évaluer des
moyennes locales ?
3) Dans quelle mesure les conclusions ou les estimations pourraient être affectées par le choix
de la valeur de référence ou du facteur d’échelle du CUSUM ? Ainsi, les figures 3 et 4
représentent la même série tracée d’abord avec la même échelle du CUSUM mais avec une
cible de 12, puis avec une cible de 15, mais avec une échelle du CUSUM comprimée.
Dans les figures 3 et 4, la variation de la pente au voisinage de l’observation numéro 8 est moins
apparente. La variation au voisinage de l’observation 21 est encore visible, mais il est moins facile
de “localiser” avec précision dans la figure 4. Ainsi, le choix d’une valeur de référence et d’un
facteur d’échelle demande beaucoup d’attention pour éviter la suppression d’informations utiles
ou, inversement, l’accentuation d’effets factices. II est également évident d’après la figure 3 que
l’utilisation d’une valeur cible inappropriée peut provoquer le débordement de la carte hors de la
limite supérieure ou inférieure du cadre du graphique, bien que ce problème puisse être minoré en
retraçant la carte à partir d’une nouvelle origine choisie sur n’importe quel point de la séquence.
vii
@ ISO
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
Numéro de l’observation
Figure 3 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 12
CusUm T= 15
0 2 4 6 8 ' 10 12 14 16 18 20 22 24 26 28 30 = 34
Numéro de l’observation
Figure 4 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 15,
mais avec une échelle de CUSUM comprimée
a.
VIII
RAPPORT TECHNIQUE @ ISO ISO/TR 7871: 1997(F)
Cartes des sommes cumulées - Lignes directrices pour le
contrôle de la qualité et l’analyse des données utilisant les
procédures CUSUM
1 Domaine d’application et principes généraux
1 .l Généralités
La présente norme introduit les principes relatifs aux cartes CUSUM et comprend un guide sur la
préparation et l’interprétation des cartes CUSUM utilisant des règles fondamentales de décision.
1.2 Exigences fondamentales
Les exigences fondamentales relatives aux cartes CUSUM sont les suivantes :
a) il convient que les observations soient au moins sur une échelle de mesure par intervalle ;
b) pour le tracé, la séquence devrait reposer sur des bases logiques. Ceci se produit
naturellement en contrôle de processus.
Ces exigences sont prises dans l’ordre. L’exigence concernant l’intervalle requiert que toute
différence numérique entre deux observations ait la même interprétation pour toutes les valeurs
de la variable. Ainsi, une différence de 0,l mm entre les longueurs de deux objets a la même
signification, que ces objets soient des vis à bois de 10,l mm et 10,O mm de longueur ou des
poutrelles d’acier de 10 000,l mm et de 10 000,O mm de longueur, bien que cette dernière
différence soit infime. Beaucoup d’échelles arbitraires n’ont pas cette propriété : les classements
constituent le cas type où une non-conformité importante compte par exemple pour 10 points, une
non-conformité modérée pour 5 points et une non-conformité mineure pour 1 point. Il n’est pas
possible d’en déduire que les éléments suivants sont nécessairement indésirables d’une manière
égale, bien que les différences des résultats soient nulles :
- élément A - une non-conformité importante : Résultat = 10
- élément B - deux non-conformités modérées : Résultat = 10
- élément C - une non-conformité modérée et cinq non-conformités mineures : Résultat = 10
- élément D - dix non-conformités mineures : Résultat = 10
L’interprétation d’un résultat “moyen” risquerait d’être trompeur si l’équilibre entre les non-
conformités importantes, modérées et mineures devait changer plutôt que simplement leur
fréquence globale.
L’exigence relative à la logique de la séquence peut se présenter de façon très diverse. Les
observations peuvent se produire dans une séquence de temps ou de longueur, formant ainsi une
progression naturelle. La surveillance de la qualité ou le contrôle de processus présente un grand
nombre de situations de ce genre.

ISO/rR 7871:1997(F) @ ISO
Les observations peuvent être ordonnées selon la valeur d’une certaine variable auxiliaire
mesurée sur les éléments. Le CUSUM permet ainsi de présenter ou d’analyser des relations entre
variables, ou d’approfondir une analyse de régression ou de corrélation. Tout type
d’ordonnancement ou de groupement utilisant une certaine caractéristique structurelle des
observations ou les données d’origine dont elles sont issues fournit la base des séquences du
CUSUM.
1.3 Types de données propices aux cartes CUSUM
Un grand nombre de données satisfont aux exigences fondamentales a) et b) du 1.2. Les
applications les plus fréquentes des cartes CUSUM ont peut-être été le contrôle de la qualité, pour
lequel les observations comme les moyennes ou les étendues d’échantillon étaient représentées
graphiquement en séquence pour évaluer l’état d’un processus. Quand on utilise une carte
CUSUM comme outil de présentation de données efficace, il n’est pas nécessaire de spécifier une
distribution ni d’exiger une indépendance entre des observations successives. Ces conditions sont
importantes pour les règles de décision et non pour la présentation des données. La carte
CUSUM peut réellement faciliter l’identification des caractéristiques de distribution comme une
corrélation sériale ou un comportement cyclique.
Ainsi, les données impliquant des étendues ou des estimations d’écart-type d’échantillon peuvent
être représentées sur les cartes CUSUM, tout comme les moyennes des échantillons. Les
comptes des non-conformités se retrouvent également dans le contrôle de la qualité et peuvent
être surveillés au moyen des cartes CUSUM.
1.4 Surveillance ou analyse rétrospective
En prescrivant des règles de décision et des tests statistiques, il convient de reconnaître deux
situations distinctes :
a) L’objectif des cartes peut être de surveiller le comportement d’une série d’observations en
fonction d’une valeur de référence prescrite ou normale comme dans les opérations de contrôle
de la qualité. Les règles de décision relatives à la surveillance sont présentées dans l’article 4.
b) L’objectif peut être d’examiner les données historiques QU les observations groupées d’une
façon logique pour détecter d’éventuelles différences entre segments. Aucune valeur formelle
ou valeur de référence n’existe. Cette situation est proche de celle où l’on teste la signification
des différences apparentes entre des groupes d’observations, mais elle diffère par le fait que le
groupement peut être effectué sur la base de l’examen préliminaire de la carte CUSUM.
L’article 5 présente les tests statistiques relatifs à l’analyse rétrospective.
2 Préparation des cartes CUSUM
2.1 Notation. Une valeur de référence est désignée par T. Pour chaque observation se trouvant
dans la séquence, la différence (Yr - T) est formée. Ces différences sont additionnées, de telle
sorte que lorsque Yi est atteint, le CUSUM est défini par :
Ci = C(YrwT)
r=l
(1)
ISOTTR 7871: 1997(F)
@ ISO
Le CUSUM, Ci, est reporté en ordonnée (axe “vertical”) en fonction d’une abscisse (axe
“horizontal”). En supposant que i prend des valeurs entières successives 0 (l’origine), 1, 2, etc., le
facteur d’échelle sur l’axe vertical est désigné par A. Cette interprétation signifie que la distance
qui correspond à un intervalle du tracé sur l’échelle horizontale représente A sur l’échelle du
CUSUM. Ce facteur d’échelle peut souvent être exprimé en multiples de l’écart-type des valeurs
représentées (oJ ; le facteur d’échelle normalisé peut prendre la valeur a (soit A = a~,). La
signification et l’estimation de CT, sont précisées en annexe A.
Il sera souvent utile de calculer la moyenne locale pour la séquence de points de i à j, ou de i à
(j - l), ou peut-être de j à (j + r), etc. Ceci sera indiqué par :
- -
. . -
; etc.
Y Y
i,j J hi-1 Y Yi,j+r
Toute autre notation sera définie lors de son apparition.
2.2 Choix de la valeur de référence (T)
Le choix d’une valeur cible appropriée est l’une des deux plus importantes étapes de la
préparation. Une valeur cible inadaptée peut entraîner la montée ou la descente continuelle du
CUSUM, provoquant des variations plus difficiles à observer, et exigeant fréquemment de
nouveaux tracés lorsque la carte sort du graphique par le haut ou le bas (voir annexe D).
2.3 Dans de nombreux cas, T est un niveau prescrit ou niveau cible de la mesure de la qualité. II
est judicieux d’acquérir la certitude que le processus peut produire cette qualité ; dans le cas
contraire, la carte CUSUM ne constituerait qu’un rappel continuel de l’échec et, dans de telles
conditions, tout système de contrôle tendrait à être ignoré ou inutilisé.
Il arrive qu’on ne puisse pas toujours fixer de valeur cible pour T. On peut quelquefois utiliser le
niveau moyen de la mesure de la qualité sur une série de données stable et récente.
2.4 Lorsqu’on est amené à utiliser une carte CUSUM pour réaliser une analyse rétrospective
d’une série de données historiques ou des résidus d’une expérience, la cible naturelle devient la
moyenne arithmétique de la série complète. En dehors d’une légère divergence provenant de
l’arrondissage de la moyenne, ce choix pour T entraîne que le CUSUM commence et finisse à la
même valeur d’ordonnée. Combinée à une définition d’échelle adaptée (voir annexe B), la
représentation du CUSUM peut être contenue dans les limites du quadrillage du graphique utilisé
pour ce tracé.
2.5 Des données binaires, codées selon une séquence de 0 et de 1, nécessitent une estimation
appropriée de la proportion de réponses qui ont 1 pour résultat. Cette proportion est alors utilisée
comme valeur cible. Dans les applications de contrôle de la qualité, une proportion de non-
conformités ou niveau de qualité acceptable (NQA) peut être prescrite par contrat, ou une étude
de faisabilité peut fournir une valeur convenable. Dans les expériences qui impliquent une réponse
binaire, on peut utiliser la proportion globale de l’expérience complète ou, dans le cas des
expériences séquentielles, ajuster la cible sur la proportion observée dans le premier segment de
l’expérience, en modifiant ce dernier s’il s’avère inadapté.
@ ISO
2.6 Types de variation
Afin de définir l’échelle de la carte d’une manière efficace et aussi pour servir de base à des tests
de signification, il faut une mesure de la variation sous-jacente de courte durée dans la série. En
termes techniques, il convient de mesurer le bruit afin de définir l’échelle du système de détection
des signaux.
La mesure statistique fondamentale de la variation est l’écart-type. Il peut être évalué à partir d’un
échantillon de n valeurs par :
s(estimation de CT) =
(2)
où :
- 1
--
Y- Y i
c
n
la sommation s’étendant aux n observations de l’échantillon.
Les valeurs à représenter graphiquement sont souvent fonction d’un groupe d’observations, d’une
statistique telle que leur moyenne, leur étendue, la proportion de non-conformités, etc. La mesure
appropriée de variation devient alors l’écart-type de la statistique d’échantillon représentée (ou son
estimation si cette dernière est inconnue). Les cas les plus simples sont ceux de la moyenne
d’échantillon, X, ou la proportion de non-conformité, p, dans un échantillon de n éléments. Noter
que n est l’effectif de chacun des échantillons, autrement dit le nombre d’observations par
échantillon et non le nombre d’échantillons à représenter.
Dans ces deux cas simples, en supposant que le processus est maîtrisé, on a :
Ecart-type de y, oe = o/&, souvent remplacé par son estimation.
Lorsque les observations sont des comptes ou des proportions d’éléments avec un attribut
spécifié dans les échantillons d’effectif n, et si le procédé est sous contrôle statistique avec la
probabilité pO qu’un élément soit doté de l’attribut, la distribution binomiale est alors appropriée,
donnant :
P& PJ
un écart-type de p, oP =
(3)
n
d
souvent écrit sous la forme : oP =
L’écart-type du nombre d’éléments par échantillon ayant l’attribut requis s’écrit :
cJ = JnPo90
(4)
@ ISO ISO/TR 7871:1997(F)
C’est le cas où l’écart-type lui-même peut être utile à des fins de diagnostic en relation avec une
représentation graphique de données d’échantillon brutes. Un autre exemple est le nombre de
non-conformités, de défauts ou tout autre événement dans une certaine qualité de produit ou de
matériau, ou observés dans un segment de temps défini. Les défauts par mètre (ou mètres
carrés) de tissu et les accidents d’usine par semaine en sont des exemples. Ici, si l’on suppose
que les conditions appropriées à la distribution de Poisson sont satisfaites, on a :
(r= m
Il-
où m est le niveau moyen des événements par échantillon. En particulier, si la probabilité d’une
non-conformité dans un très petit volume de produit est très faible et est proportionnelle à ce
volume, et si ces non-conformités se produisent indépendamment les unes des autres, une
conséquence mathématique est que les non-conformités suivent la distribution de Poisson.
L’exigence du “contrôle statistique” implique que, pendant une période où aucune variation ou
cause de variation “assignable” ne se produit, tous les éléments échantillonnés peuvent être
considérés comme de simples échantillons aléatoires provenant du processus complet (ou de la
population, ou du segment de temps, etc.). Dans ce cas, la variation de courte durée observée
entre les éléments des échantillons forme une base convenable (via l’écart-type de la statistique
choisie) pour estimer la variation attendue dans la séquence dans son ensemble. Toute variation
supérieure à celle-ci est supposée se produire à partir de causes assignables, par l’indication
d’une dérive dans la moyenne de la série ou d’une fluctuation dans la nature ou la grandeur de la
variation.
II existe de nombreux cas où ce simple usage des estimations globales de l’écart-type est
inapproprié. Certaines circonstances aboutissant à sa défaillance sont les suivantes :
a) en effectuant des observations sur un processus continu, de petites variations sans
importance du niveau moyen peuvent se produire. C’est en fonction de ces variations, plutôt
que de celles de courte durée, qu’il convient de juger des variations systématiques ou
prolongées. Par exemple, un processus industriel peut être contrôlé par un thermostat ou par
tout autre dispositif de régulation automatique ; la qualité en entrée des matières premières
peut être soumise à des variations mineures bien que n’outrepassant jamais les spécifications.
En surveillant la réaction d’un patient à un traitement, il peut exister des variations mineures sur
son métabolisme liées aux repas, à ses occupations quotidiennes à l’hôpital ou à son domicile,
etc. ; il convient toutefois de juger de l’effet d’un traitement en fonction de la variation type
globale ;
b) la méthode d’échantillonnage peut elle-même induire des effets comme ceux indiqués en a).
Des échantillons contiennent souvent des éléments voisins prélevés sur une chaîne de
fabrication, sur la base qu’un échantillon aléatoire vrai de tous les éléments fabriqués n’est pas
facile à constituer. Les éléments constituent alors un échantillon “en grappe”, et peuvent tendre
à être trop proches les uns des autres pour servir de base d’évaluation de la variation globale ;
c) les échantillons peuvent contenir des résultats ou des observations provenant de plusieurs
sources (machines, opérateurs, régions administratives). Comme telles, trop de variations
locales peuvent se produire pour pouvoir estimer de manière réaliste si des variations
importantes sont survenues ;
ISOFI-R 7871:1997(F) @ ISO
II convient donc de traiter avec précaution les données provenant d’une combinaison de telles
sources, car toute particularité locale de chacune des sources concernées peut ne pas être
remarquée ; en outre, des variations entre les sources peuvent masquer certaines variations se
produisant sur l’ensemble du système au cours du temps.
d) une corrélation sériale, c’est-à-dire qu’une observation est en relation avec les autres, peut
se présenter dans les observations. Par exemple, si l’on utilise des moyennes mobiles, le
recouvrement des valeurs de données servant à l’une de ces moyennes et les suivantes produit
une corrélation sériale positive. Dans l’évaluation de l’utilisation d’un matériau en vrac à partir
des différences entre des relevés de jauge ou de tige de profondeur successifs, une première
surestimation tendra à produire une sous-estimation la fois suivante, générant une corrélation
négative. La présence possible de l’un ou l’autre de ces effets mérite d’être connue. Une
corrélation sériale positive est particulièrement probable dans certains processus industriels où
un lot de matériau peut se mélanger partiellement avec les lots précédents et les lots suivants
produisant ce qu’on appelle quelquefois l’effet de “talon”. Des apports successifs de carburant
dans le réservoir d’un véhicule est un exemple quotidien, chaque nouvel apport étant effectué
avant que le réservoir ne soit vide.
II est donc nécessaire de prendre en compte d’autres mesures de variation dans les séries
ou les séquences de données, et les circonstances pour lesquelles eNes sont appropriées.
De telles mesures de variations incluent le traitement des différences entre des valeurs
d’échantillon successives (6. = yj - yj J en tant que type approprié de variation et le traitement de
toutes les valeurs d’échantil 1 ons yj comme si elles étaient tirées d’une population unique. Ces
mesures sont expliquées en annexe A.
2.7 Mesures de variation
Se reporter en annexe A.
2.8 Définition de l’échelle de la carte
Se reporter en annexe B.
2.9 Liste de contrôle pour la préparation des CUSUM
La liste de contrôle suivante peut être utile en tant que rappel (sans qu’elle ne la remplace) de la
description détaillée des étapes préliminaires établies dans ce paragraphe.
Choisir une valeur cible appropriée. Les possibilités incluent :
a) une valeur de spécification ;
b) un niveau satisfaisant de performance (pour un processus) disposant d’une chance
raisonnable d’être atteint ;
c) un niveau moyen de performance sur toute une période (ou segment) récente et typique ;
d) le niveau moyen d’un ensemble complet d’observations, lorsque l’analyse rétrospective est
impliquée.
@ ISO ISO/TR 7871 :1997(F)
Sélectionner une mesure de variation convenable, en prenant en compte les points de 2.7.
Décider de la convention d’échelle à adopter. La méthode de B.l est généralement la plus simple
à la fois pour la préparation et l’interprétation mais, pour certains objectifs particuliers, l’une des
deux autres conventions peut être recommandée ou des formes spéciales peuvent être préparées
pour tout usage de routine.
S’assurer que le personnel impliqué dans la préparation ou l’interprétation des cartes est familier
avec la procédure.
3 Présentation
3.1 Dans l’article 2, les préparations relatives au tracé de la carte ont été détaillées, comprenant
le choix d’une valeur cible, la définition et le calcul d’une mesure de variation, ainsi que le choix
d’un facteur d’échelle.
Certains points pratiques de repérage méritent également l’attention. Les informations minimales
présentées sur la carte doivent comprendre les éléments suivants :
a) la valeur cible (qui peut être accompagnée d’une indication brève de la raison de son choix,
par exemple une valeur moyenne spécifiée, une moyenne de données antérieures) ;
b) l’écart-type des observations (qui peut être accompagnée d’un commentaire sur la méthode
utilisée pour l’estimer) ;
c) la nature des observations (valeurs d’origine’ moyennes d’échantillons, nombre de non-
conformités, etc.) ;
d) le titre indiquant le but de la carte (par exemple “Carte de CUSUM pour le contrôle de . .“. ou
“CUSUM rétrospectif des données à partir de . .“) ;
e) le repérage clair de l’échelle i (intervalles d’échantillon) et l’échelle du CUSUM.
3.2 Pour faciliter l’interprétation, les variations observées dans la structure des cartes CUSUM
peuvent être notées au point approprié de l’échelle i. On peut citer comme exemples les nouvelles
livraisons de matières premières dans un processus de production, ou des changements de
personnel ou de méthodes d’opération.
En analysant les erreurs résiduelles provenant d’une expérience, les points où les variations des
niveaux des facteurs expérimentaux se sont produites peuvent être relevés. Pour les données
recueillies pendant une certaine durée, il convient de faire ressortir les repères des dates
occasionnelles sur l’échelle i.
L’insertion possible d’informations de cette nature peut affecter le choix d’une échelle d’intervalle
d’échantillon ; si des annotations nombreuses sont envisagées, il peut être recommandé de définir
une échelle plus importante que dans le cas contraire, afin d’éviter de trop encombrer une carte
par des informations subsidiaires.

@ ISO
3.3 Choix de l’origine de la carte
Dans de nombreuses applications, l’origine servant au tracé de l’échelle du CUSUM sera zéro, en
prévoyant la représentation des sommes cumulées positives et négatives. Cependant,
l’interprétation visuelle ultérieure de la carte n’est pas affectée par l’origine adoptée réelle, et si l’on
préfère des valeurs non-négatives, on peut faire débuter le CUSUM à partir d’une valeur positive
appropriée. Par exemple, quand une carte est la continuation d’un tracé existant, ou quand le
graphe du CUSUM déborde sur le haut ou le bas du graphique, il peut s’avérer utile de débuter la
nouvelle carte (ou le segment retracé) à partir d’une valeur correspondant à un niveau général
proche de la conclusion de la carte précédente (ou le segment précédent).
3.4 Calcul des moyennes locales
Se reporter en annexe C.
3.5 Nouveau tracé de la carte CUSUM
Se reporter en annexe D.
4 la surveil lance et le contrô
Règles de décision pour
4.1 Introduction
4.1 .l Dans cet article ainsi que dans l’article 5, des règles de décision simples sont présentées
pour déterminer si les variations apparentes de la pente du CUSUM (et donc du niveau moyen de
la variable représentée) sont réelles, ou si elles peuvent être considérées comme faisant partie de
la variabilité sous-jacente des données.
Le présent article concerne des applications de surveillance et de contrôle : le tracé des points de
données est effectué en séquence, au fur et à mesure de l’arrivée des observations, ceci pour
détecter aussi rapidement que possible tout décalage par rapport à un niveau cible. L’article 5
traite des règles de décision pour l’analyse rétrospective des données existantes, permettant
d’établir si le niveau moyen de segments particuliers diffère de celui des segments précédents ou
suivants.
4.1.2 L’utilisation des règles de décision peut ne pas être toujours nécessaire, surtout dans le cas
où les cartes CUSUM sont utilisées comme seul moyen de présenter des données d’une série de
manière efficace. Cependant, quand des décisions et éventuellement les actions qui en résultent
doivent être prises, la procédure CUSUM permet souvent une utilisation plus efficace des données
disponibles que les autres méthodes classiques. Dans ce contexte, l’efficacité implique que les
décisions concernant les variations du niveau soient obtenues plus rapidement, que les fausses
alarmes soient moins fréquentes (décisions erronées de la présence d’un décalage dans la
moyenne alors qu’il n’en est rien), ou que ces deux avantages puissent être obtenus ensemble.
4.1.3 Lorsqu’elles servent à la surveillance et au contrôle, les procédures CUSUM ont le double
objectif de détecter des variations significatives et les points où elles se sont produites. Afin de
mesurer la performance de ces procédures, il est essentiel de considérer le nombre moyen
d’échantillons prélevés jusqu’à ce qu’une variation apparente soit signalée par la règle de décision
choisie. Si aucune variation réelle ne survient, cette “Période Opérationnelle Moyenne” devrait être
importante (correspondant peut-être à des centaines d’échantillons) car n’importe quels signaux
seraient alors de fausses alarmes. Lorsqu’un décalage important par rapport à la cible se produit,
il est souhaitable que la Période Opérationnelle Moyenne soit courte pour détecter rapidement des
conditions anormales. La réponse d’une règle de décision à diverses grandeurs de décalages par
rapport à la cible peut être représentée par une courbe de Période Opérationnelle Moyenne
(courbe POM), qui permet de comparer des règles de décision d’une manière analogue à celle de
la caractéristique du test (courbe d’efficacité OC) servant à comparer des procédures
d’échantillonnage d’acceptation, ou à la courbe de puissance pour comparer des tests
d’hypothèse statistique.
Il convient de noter que la période opérationnelle elle-même est sujette à une variation statistique.
On peut quelquefois avoir de la “chance” en n’obtenant aucune fausse alarme sur une longue
période, ou de détecter une variation très rapidement. Une période “malchanceuse” peut
quelquefois générer des fausses alarmes, ou masquer une réelle variation en ne délivrant aucun
signal. La Période Opérationnelle Moyenne (POM) est utilisée comme mesure sommaire pour
comparer des schémas et des règles de décision, mais d’autres aspects de cette période
opérationnelle peuvent quelquefois mériter une attention particulière (période opérationnelle
médiane ou mode, ou distribution de la période opérationnelle entière). La figure 5 illustre les
distributions de périodes opérationnelles caractéristiques.

ISO/rR 7871 :1997(F)
b) POM = 20
a) POM=5
OL = 4 oL = 18’9
Médiane = 3,5 Médiane = 14
Mode = 2 Mode = 3
2,5 % des périodes > 16 12,5 % des périodes > 41
7,5 % des périodes 230, etc.
1 % des périodes > 79, etc.
-
0,15
0.1
0.0
ti
c) POM = 96,5
oL = 95,6
Médiane = 67
Mode = 4
12,5 % des périodes > 200
7,5 % des périodes >>50, etc.
-
0,010
0,005
Figure 5 : Distributions de périodes opérationnelles caractéristiques

@ ISO ISO/TR 7871:1997(F)
4.1.4 Les caractéristiques essentielles de la carte CUSUM relatives à la détection des variations
du niveau moyen sous-jacent sont la raideur de la pente du CUSUM et le nombre d’échantillons
sur lesquels la pente persiste. Pour la surveillance et le contrôle, l’objectif est de détecter des
décalages par rapport à une valeur cible. Lorsque le processus est opérationnel au niveau cible, il
existe inévitablement des occasions, du fait de la variation de l’échantillonnage, où le graphe du
CUSUM s’écarte en apparence de l’horizontale. La règle de décision ne devrait pas donner de
fausses alarmes signalant que ces périodes représentent un écart significatif par rapport à la
cible. Par ailleurs, lorsque le processus passe à un état non satisfaisant, il est souhaitable que la
règle de décision fournisse une réponse aussi rapidement que possible. Les exigences sont les
suivantes D
Etat vrai du processus Réponse du CUSUM
Au niveau ou proche de la cible POM longue (peu de fausses alarmes)
Ecart important par rapport à la cible POM courte (détection rapide)
Les spécifications détaillées des procédures CUSUM pour délivrer les POM prescrites à des
niveaux de qualité particuliers sont réservées à d’autre normes. On présente ici des règles simples
qui couvrent une large gamme d’applications. Leurs caractéristiques de période opérationnelle
sont liées à des niveaux de qualité généralement définis comme des écarts par rapport à la cible,
mesurés en nombre d’écarts-types par rapport à la variable représentée graphiquement. L’écart-
type est supposé connu à partir d’une première estimation, comme décrit en annexe A de la
présente norme.
4.2 Masques en V de CUSUM
4.2.1 Généralités
Les règles de décision les plus simples à utiliser avec les cartes CUSUM sont intégrées à des
masques en V. II existe trois formes différant légèrement, mais toutes sont identiques dans leur
principe et leurs effets. Chaque forme peut être appliquée avec l’une ou l’autre des trois
conventions d’échelle ; elles seront appliquées à la version la plus généralement utilisée, comme
précisé en B.l de l’annexe B de la présente norme.
Si les CUSUM sont mis en oeuvre informatiquement, les règles de décision sont également
identiques dans leur principe et leurs effets, mais sont de forme différente ; elles sont décrites
dans l’article 6.
4.2.2 Les masques en V tronqués
Bien qu’un masque en V complet puisse être utilisé, la forme tronquée est commode dans la
pratique. La géométrie du masque est rapportée à un point, repéré par la lettre A dans la figure 6,
et qui peut être identifié par une petite entaille sur la section verticale BC. Deux branches inclinées
rejoignent respectivement les points B à D et C à E, mais elles peuvent être prolongées à l’infini
au-delà de D ou de E si nécessaire. Pour correspondre avec les sections antérieures de la
présente norme, les demi-droites verticales AB et AC seront dénommées “intervalle de décision” .
et les lignes BD, CE “lignes de décision”. La pente de ces lignes de décision, mesurée en unités
d’échelle par intervalle de tracé d’échantillon, correspondra aux valeurs de référence introduites en
6.1.3.
@ ISO
La construction du masque est détaillée dans la figure 6. Observer que les distances 50,, 100,
peuvent être transférées à partir de l’échelle du CUSUM si on le souhaite, ou calculées à partir de
0, et du facteur d’échelle, si on préfère.
Le masque s’utilise en plaçant le point de référence géométrique A sur un point quelconque tracé
sur la carte. II sera souvent le point le plus récemment tracé, ou le dernier point d’un segment qui
présente un intérêt particulier. L’axe AF est placé parallèlement à l’axe des numéros d’échantillons
de la carte. Si un point précédent quelconque du CUSUM se trouve en dehors des branches
inclinées (ou de leurs prolongements au-delà de D ou de E), un écart significatif par rapport à la
valeur cible est signalé. Toutefois, si l’intégralité du graphe du CUSUM reste à l’intérieur des
branches, aucun décalage important n’est indiqué.
Les figures 7 et 8 représentent le masque tronqué appliqué à deux points de la carte CUSUM des
données du paragraphe 0.2 (tableau 1 et figure 2). La valeur de 0, est supposée égale à 2,0.
Lorsqu’on applique le masque à l’observation 16, le graphe du CUSUM se maintient à l’intérieur
des branches inclinées, et le segment entre les échantillons 8 et 16 ne diffère pas sensiblement
de la valeur cible de 15. Cependant, avec le masque appliqué à l’échantillon 18, on peut observer
que le graphe du CUSUM touche la ligne de décision supérieure, ce qui indique que, au moment
où la 18ème valeur est obtenue, une évidence suffisante s’est constituée pour signaler un
décalage vers le bas par rapport à la valeur cible.
Ligne de décision
Intervalles de décision
Figure 6 : Masque en V tronqué à usage général
Plusieurs points méritent d’être relevés ici :
a) la ligne de décision supérieure est touchée par les points d’échantillon 6 et 7. Si le CUSUM
touche ou croise la ligne de décision, il y a présomption de violation et génération d’un
message ;
b) le point sur lequel se produit la violation de la ligne de décision requiert le prolongement de
la branche du masque, mais la conséquence d’un changement dans la moyenne reste valable ;
@ ISO
c) si l’on applique le masque sur un point quelconque avant le point 18, aucune décision n’est
signalée. Si on l’applique sur un point quelconque entre 18 et 21 (la fin du segment incliné vers
le bas), ii y a indication d’un décalage significatif vers le bas ; L’usage répété (même inutile) du
masque n’invalide pas ou ne modifie en rien les signaux déjà obtenus.
d) le signal se produit pour l’échantillon 18. A ce point, l’évidence est suffisante pour confirmer
la conclusion que la moyenne a changé, mais que ce changement est intervenu probablement
à un stade plus ancien. L’examen de la carte s
...


RAPPORT
I.SOKR
TECHNIQUE 7871
Première édition
1997-02-I 5
Cartes des sommes cumulées - Lignes
directrices pour le contrôle de la qualité et
l’analyse des données utilisant les
procédures CUSUM
Cumulative sum Chat?s - Guidance on quality control and data analysis
using CUSUM techniques
Numéro de référence
ISO/TR 7871: 1997(F)
Sommaire
iv
0 Introduction .
................................................................... 1
1 Domaine d’application et principes généraux
2 Préparation des cartes CUSUM .
3 Présentation .
....................................................
4 Règles de décision pour la surveillance et le contrôle
......................................................
5 Règles de décision pour les analyses rétrospectives
.....................................................................................
6 Techniques de calcul des CUSUM
.....................................................................................................
7 Exemples d’applications
.................................................................................... 39
Annexe A Mesures de la variation
....................................................................................... 44
Annexe B Définition de l’échelle
.......................................................................... 47
Annexe C Calcul des moyennes locales
................................................................... 49
Annexe D Nouveau tracé de la carte CUSUM
Annexe E Masque en V entier .
Annexe F Lignes de décisions locales .
.............................................................. 55
Annexe G Tests non-paramétriques de CUSUM
................................................................. 58
Annexe H Variantes aux schémas normalisés
0 ISO 1997
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette
publication ne peut être reproduite ni utilisée sous quelque forme que ce soit et par aucun
procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l’accord
écrit de l’éditeur.
Organisation internationale de normalisation
Case postale 56 l CH-121 1 Genève 20 l Suisse
Internet central @ iso.ch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Imprimé en Suisse
ii
@ ISO ISOTTR 7871: 1997(F)
Avant-propos
L’ISO (Organisation internationale de normalisation) est une fédération mondiale d’organismes
nationaux de normalisation (comités membres de I’ISO). L’élaboration des Normes internationales
est en général confiée aux comités techniques de I’ISO. Chaque comité membre intéressé par
une étude a le droit de faire partie du comité technique créé à cet effet. Les organisations
internationales, gouvernementales et non gouvernementales, en liaison avec I’ISO participent
également aux travaux. L’ISO collabore étroitement avec la Commission électrotechnique
internationale (CEI) en ce qui concerne la normalisation électrotechnique.
La tâche principale des comités techniques est d’élaborer les Normes internationales.
Exceptionnellement, un comité technique peut proposer la publication d’un rapport technique de
l’un des types suivants:
- type 1, lorsque, en dépit de maints efforts, l’accord requis ne peut être réalisé en faveur de la
publication d’une Norme internationale;
- type 2, lorsque le sujet en question est encore en cours de développement technique ou
lorsque, pour toute autre raison, la possibilité d’un accord pour la publication d’une Norme
internationale peut être envisagée pour l’avenir mais pas dans l’immédiat;
- type 3, lorsqu’un comité technique a réuni des données de nature différente de celles qui
sont normalement publiées comme Normes internationales (ceci pouvant comprendre des
informations sur l’état de la technique, par exemple).
Les rapports techniques des types 1 et 2 font l’objet d’un nouvel examen trois ans au plus tard
après leur publication afin de décider éventuellement de leur transformation en Normes
internationales. Les rapports techniques de type 3 ne doivent pas nécessairement être révisés
avant que les données fournies ne soient plus jugées valables ou utiles.
L’ISO/TR 7871, rapport technique du type 3, a été élaboré par le comité technique ISO/TC 69,
Application des méthodes statistiques, sous-comité SC 4, Maîtrise statistique des processus.

ISO/TR 7871: 1997(F) @ Ils0
Introduction
0.1 Bases d’une carte CUSUM
La carte des Sommes Cumulées (que l’on désignera dans ce document sous l’abréviation
généralement adoptée de “carte CUSUM”) est une présentation graphique des données à
caractère informatif élevé, ordonnées selon une séquence logique. Cette séquence correspond
souvent à l’ordre des observations selon une échelle de temps.
On extrait une valeur de référence T de chaque observation. Cette valeur de référence est
généralement une constante mais peut être une prévision issue d’un modèle de prévision ou une
cible pouvant varier. Les sommes cumulées des écarts par rapport à T sont formées, et ces
CUSUM (C) sont représentés graphiquement en fonction des numéros des observations
successives.
Dans une carte CUSUM destinée à maîtriser la dérive d’un processus par rapport à une valeur
moyenne égale à la valeur de référence, cette valeur est également connue sous le nom de valeur
cible ou simplement cible. Avec des procédures CUSUM plus élaborées, il est nécessaire de faire
la distinction entre les deux concepts de valeur cible et de valeur de référence. Le premier se
rapporte à la moyenne prévue ou réelle du processus, le deuxième aux valeurs de référence
utilisées dans la procédure CUSUM. L’attrait intuitif du terme de “valeur cible” est toutefois élevé
et, dans la majeure partie de la présente norme, dans les articles 0 à 6, la valeur commune à la
valeur cible et à la valeur de référence se rapporte à la valeur cible quand ce choix ne crée
aucune ambiguïté. Dans l’article 6, des valeurs de référence supérieure et inférieure ont été
créées, et elles doivent être distinguées des valeurs cibles ou des cibles.
La procédure CUSUM destinée à présenter graphiquement les résultats consiste à représenter la
moyenne par la pente locale sur la carte. Lorsque cette moyenne locale correspond à la valeur
cible, le graphe du CUSUM devient approximativement parallèle à l’axe de la séquence. Lorsque
la moyenne locale de la série est supérieure à la valeur cible, la pente du CUSUM est
ascendante. Inversement, elle est descendante chaque fois que la moyenne locale est inférieure.
Plus l’écart entre la moyenne locale et la valeur cible est important, plus la pente du graphe du
CUSUM est accentuée.
II résulte du tracé du CUSUM une meilleure identification des variations du niveau moyen pour les
diverses subdivisions de la séquence totale des observations par les variations de la pente sur la
carte. Les moyennes locales dans ces subdivisions peuvent être facilement estimées, soit à partir
des valeurs numériques du CUSUM prises en compte pour tracer la carte, soit par lecture directe
de cette carte.
Une deuxième conséquence de l’utilisation des procédures des sommes cumulées (ou CUSUM)
réside dans le fait qu’il existe une corrélation sériale inhérente entre les sommes cumulées
successives. Les décisions concernant les écarts acceptables par rapport à l’axe de la séquence
nécessitent le recours à la méthode des processus stochastiques.
0.2 Exemple simple de carte CUSUM
Les principes énoncés précédemment s’apprécient mieux à la lumière d’un exemple simple. La
procédure de calcul et de tracé sera, pour l’instant, décrite sans utiliser de symboles
mathématiques.
iV
@ ISO
On suppose que les observations individuelles suivantes ont été obtenues sur une séquence
chronologique, selon l’ordre indiqué et qu’une valeur de référence de 15 convient.
Tableau 1 : Données pour le tracé des CUSUM
Numéro de Valeur Ecart de la valeur de Somme cumulée
l’observation observée référence (= 15)
des écarts
1 12 -3 - 3
2 17 +2 -1
3 14 - 1 - 2
4 14 - 1 - 3
5 17 +2 -1
6 16 +l 0
7 14 -1 -1
.
8 11 -4 - 5
9 13 -2 - 7
10 14 -1 - 8
11 15 0 - 8
12 11 -4 -12
13 14 -1 -13
14 16 +l -12
15 13 -2 -14
16 14 -1 -15
17 11 -4 - 19
18 12 -3 -22
19 13 -2 -24
20 16 +l -23
21 12 -3 -26
22 18 +3 -23
23 18 +3 -20
24 17 +2 -18
25 20 +5 -13
26 15 0 -13
27 14 - 1 - 14
28 18 +3 -11
29 20 +5 - 6
30 16 +l - 5
31 18 +3 - 2
32 14 -1 - 3
', 33 16 +l - 2
Dans une carte de contrôle classique, comme celle de la figure 1, les valeurs observées sont
représentées graphiquement en fonction du numéro de l’observation correspondant. Certaines
indications semblent faire plutôt apparaître un regroupement de la dernière douzaine de valeurs
autour d’un niveau moyen, différent de celui des 20 premières.
Le tracé en mode CUSUM donne un affichage plus clair que celui d’une carte classique. Le
CUSUM (colonne 4 du tableau 1) est représenté en fonction du numéro de l’observation, en
choisissant l’axe des y (“vertical”) pour le CUSUM et l’axe des x (“horizontal”) pour le numéro de
l’observation (figure 2).
@ ISO
ISODTR 7871: 1997(F)
Valeur observée
Valeur cible
- -- --
24 26 28 30 32 34
16 18 20 22
6 8 10 l-2 i,4
0 2 4
Numéro de l’observation
Figure 1 : Carte de contrôle ciass,iq.ue des données du tableau l
c- T=l5
0 0 2 2 4 4 6 6 8 8 10 10 12 12 34 34 16 16 18 18 202224 202224
262830 262830 32 32 34 34
Numéro Numéro de de l’observation l’observation
Figure 2 : Carte CUSUM des données du tableau 1
vi
@ ISO ISO/TR 7871: 1997(F)
La carte CUSUM se divise nettement en trois segments. Pour les observations numérotées 1 à 7
(incluse), le graphe du CUSUM est généralement parallèle à l’axe des numéros d’observation ;
autrement dit, ce graphe est pratiquement horizontal. Pour les observations 8 à 21 (incluse), le
graphe est descendant (malgré des anomalies locales visibles pour les observations 14 et 20).
Pour les observations 22 à 33, le graphe est ascendant (de nouveau avec des anomalies locales).
Ainsi, on serait tenté de conclure que :
a) les observations 1 à 7 constituent un échantillon d’une “population” dont la moyenne est à la
valeur cible (15), ou proche de cette valeur ;
b) les observations 8 à 21 semblent avoir été échantillonnées à partir d’une population dont la
moyenne est inférieure à 15 ;
c) les observations 22 et au-delà semblent provenir d’une population dont la moyenne est
supérieure à 15.
A ce point, un certain nombre de questions pourraient se poser :
1) A la lumière de la variabilité sous-jacente (signalée, par exemple, par les anomalies du
graphe du CUSUM), peut-on en conclure que les variations de la pente représentent des
décalages réels de la moyenne plutôt que tout simplement des périodes chanceuses ou
malchanceuses d’échantillons à partir d’une population constante ?
2) Si les variations sont réelles, comment convient-il d’utiliser les données pour évaluer des
moyennes locales ?
3) Dans quelle mesure les conclusions ou les estimations pourraient être affectées par le choix
de la valeur de référence ou du facteur d’échelle du CUSUM ? Ainsi, les figures 3 et 4
représentent la même série tracée d’abord avec la même échelle du CUSUM mais avec une
cible de 12, puis avec une cible de 15, mais avec une échelle du CUSUM comprimée.
Dans les figures 3 et 4, la variation de la pente au voisinage de l’observation numéro 8 est moins
apparente. La variation au voisinage de l’observation 21 est encore visible, mais il est moins facile
de “localiser” avec précision dans la figure 4. Ainsi, le choix d’une valeur de référence et d’un
facteur d’échelle demande beaucoup d’attention pour éviter la suppression d’informations utiles
ou, inversement, l’accentuation d’effets factices. II est également évident d’après la figure 3 que
l’utilisation d’une valeur cible inappropriée peut provoquer le débordement de la carte hors de la
limite supérieure ou inférieure du cadre du graphique, bien que ce problème puisse être minoré en
retraçant la carte à partir d’une nouvelle origine choisie sur n’importe quel point de la séquence.
vii
@ ISO
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
Numéro de l’observation
Figure 3 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 12
CusUm T= 15
0 2 4 6 8 ' 10 12 14 16 18 20 22 24 26 28 30 = 34
Numéro de l’observation
Figure 4 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 15,
mais avec une échelle de CUSUM comprimée
a.
VIII
RAPPORT TECHNIQUE @ ISO ISO/TR 7871: 1997(F)
Cartes des sommes cumulées - Lignes directrices pour le
contrôle de la qualité et l’analyse des données utilisant les
procédures CUSUM
1 Domaine d’application et principes généraux
1 .l Généralités
La présente norme introduit les principes relatifs aux cartes CUSUM et comprend un guide sur la
préparation et l’interprétation des cartes CUSUM utilisant des règles fondamentales de décision.
1.2 Exigences fondamentales
Les exigences fondamentales relatives aux cartes CUSUM sont les suivantes :
a) il convient que les observations soient au moins sur une échelle de mesure par intervalle ;
b) pour le tracé, la séquence devrait reposer sur des bases logiques. Ceci se produit
naturellement en contrôle de processus.
Ces exigences sont prises dans l’ordre. L’exigence concernant l’intervalle requiert que toute
différence numérique entre deux observations ait la même interprétation pour toutes les valeurs
de la variable. Ainsi, une différence de 0,l mm entre les longueurs de deux objets a la même
signification, que ces objets soient des vis à bois de 10,l mm et 10,O mm de longueur ou des
poutrelles d’acier de 10 000,l mm et de 10 000,O mm de longueur, bien que cette dernière
différence soit infime. Beaucoup d’échelles arbitraires n’ont pas cette propriété : les classements
constituent le cas type où une non-conformité importante compte par exemple pour 10 points, une
non-conformité modérée pour 5 points et une non-conformité mineure pour 1 point. Il n’est pas
possible d’en déduire que les éléments suivants sont nécessairement indésirables d’une manière
égale, bien que les différences des résultats soient nulles :
- élément A - une non-conformité importante : Résultat = 10
- élément B - deux non-conformités modérées : Résultat = 10
- élément C - une non-conformité modérée et cinq non-conformités mineures : Résultat = 10
- élément D - dix non-conformités mineures : Résultat = 10
L’interprétation d’un résultat “moyen” risquerait d’être trompeur si l’équilibre entre les non-
conformités importantes, modérées et mineures devait changer plutôt que simplement leur
fréquence globale.
L’exigence relative à la logique de la séquence peut se présenter de façon très diverse. Les
observations peuvent se produire dans une séquence de temps ou de longueur, formant ainsi une
progression naturelle. La surveillance de la qualité ou le contrôle de processus présente un grand
nombre de situations de ce genre.

ISO/rR 7871:1997(F) @ ISO
Les observations peuvent être ordonnées selon la valeur d’une certaine variable auxiliaire
mesurée sur les éléments. Le CUSUM permet ainsi de présenter ou d’analyser des relations entre
variables, ou d’approfondir une analyse de régression ou de corrélation. Tout type
d’ordonnancement ou de groupement utilisant une certaine caractéristique structurelle des
observations ou les données d’origine dont elles sont issues fournit la base des séquences du
CUSUM.
1.3 Types de données propices aux cartes CUSUM
Un grand nombre de données satisfont aux exigences fondamentales a) et b) du 1.2. Les
applications les plus fréquentes des cartes CUSUM ont peut-être été le contrôle de la qualité, pour
lequel les observations comme les moyennes ou les étendues d’échantillon étaient représentées
graphiquement en séquence pour évaluer l’état d’un processus. Quand on utilise une carte
CUSUM comme outil de présentation de données efficace, il n’est pas nécessaire de spécifier une
distribution ni d’exiger une indépendance entre des observations successives. Ces conditions sont
importantes pour les règles de décision et non pour la présentation des données. La carte
CUSUM peut réellement faciliter l’identification des caractéristiques de distribution comme une
corrélation sériale ou un comportement cyclique.
Ainsi, les données impliquant des étendues ou des estimations d’écart-type d’échantillon peuvent
être représentées sur les cartes CUSUM, tout comme les moyennes des échantillons. Les
comptes des non-conformités se retrouvent également dans le contrôle de la qualité et peuvent
être surveillés au moyen des cartes CUSUM.
1.4 Surveillance ou analyse rétrospective
En prescrivant des règles de décision et des tests statistiques, il convient de reconnaître deux
situations distinctes :
a) L’objectif des cartes peut être de surveiller le comportement d’une série d’observations en
fonction d’une valeur de référence prescrite ou normale comme dans les opérations de contrôle
de la qualité. Les règles de décision relatives à la surveillance sont présentées dans l’article 4.
b) L’objectif peut être d’examiner les données historiques QU les observations groupées d’une
façon logique pour détecter d’éventuelles différences entre segments. Aucune valeur formelle
ou valeur de référence n’existe. Cette situation est proche de celle où l’on teste la signification
des différences apparentes entre des groupes d’observations, mais elle diffère par le fait que le
groupement peut être effectué sur la base de l’examen préliminaire de la carte CUSUM.
L’article 5 présente les tests statistiques relatifs à l’analyse rétrospective.
2 Préparation des cartes CUSUM
2.1 Notation. Une valeur de référence est désignée par T. Pour chaque observation se trouvant
dans la séquence, la différence (Yr - T) est formée. Ces différences sont additionnées, de telle
sorte que lorsque Yi est atteint, le CUSUM est défini par :
Ci = C(YrwT)
r=l
(1)
ISOTTR 7871: 1997(F)
@ ISO
Le CUSUM, Ci, est reporté en ordonnée (axe “vertical”) en fonction d’une abscisse (axe
“horizontal”). En supposant que i prend des valeurs entières successives 0 (l’origine), 1, 2, etc., le
facteur d’échelle sur l’axe vertical est désigné par A. Cette interprétation signifie que la distance
qui correspond à un intervalle du tracé sur l’échelle horizontale représente A sur l’échelle du
CUSUM. Ce facteur d’échelle peut souvent être exprimé en multiples de l’écart-type des valeurs
représentées (oJ ; le facteur d’échelle normalisé peut prendre la valeur a (soit A = a~,). La
signification et l’estimation de CT, sont précisées en annexe A.
Il sera souvent utile de calculer la moyenne locale pour la séquence de points de i à j, ou de i à
(j - l), ou peut-être de j à (j + r), etc. Ceci sera indiqué par :
- -
. . -
; etc.
Y Y
i,j J hi-1 Y Yi,j+r
Toute autre notation sera définie lors de son apparition.
2.2 Choix de la valeur de référence (T)
Le choix d’une valeur cible appropriée est l’une des deux plus importantes étapes de la
préparation. Une valeur cible inadaptée peut entraîner la montée ou la descente continuelle du
CUSUM, provoquant des variations plus difficiles à observer, et exigeant fréquemment de
nouveaux tracés lorsque la carte sort du graphique par le haut ou le bas (voir annexe D).
2.3 Dans de nombreux cas, T est un niveau prescrit ou niveau cible de la mesure de la qualité. II
est judicieux d’acquérir la certitude que le processus peut produire cette qualité ; dans le cas
contraire, la carte CUSUM ne constituerait qu’un rappel continuel de l’échec et, dans de telles
conditions, tout système de contrôle tendrait à être ignoré ou inutilisé.
Il arrive qu’on ne puisse pas toujours fixer de valeur cible pour T. On peut quelquefois utiliser le
niveau moyen de la mesure de la qualité sur une série de données stable et récente.
2.4 Lorsqu’on est amené à utiliser une carte CUSUM pour réaliser une analyse rétrospective
d’une série de données historiques ou des résidus d’une expérience, la cible naturelle devient la
moyenne arithmétique de la série complète. En dehors d’une légère divergence provenant de
l’arrondissage de la moyenne, ce choix pour T entraîne que le CUSUM commence et finisse à la
même valeur d’ordonnée. Combinée à une définition d’échelle adaptée (voir annexe B), la
représentation du CUSUM peut être contenue dans les limites du quadrillage du graphique utilisé
pour ce tracé.
2.5 Des données binaires, codées selon une séquence de 0 et de 1, nécessitent une estimation
appropriée de la proportion de réponses qui ont 1 pour résultat. Cette proportion est alors utilisée
comme valeur cible. Dans les applications de contrôle de la qualité, une proportion de non-
conformités ou niveau de qualité acceptable (NQA) peut être prescrite par contrat, ou une étude
de faisabilité peut fournir une valeur convenable. Dans les expériences qui impliquent une réponse
binaire, on peut utiliser la proportion globale de l’expérience complète ou, dans le cas des
expériences séquentielles, ajuster la cible sur la proportion observée dans le premier segment de
l’expérience, en modifiant ce dernier s’il s’avère inadapté.
@ ISO
2.6 Types de variation
Afin de définir l’échelle de la carte d’une manière efficace et aussi pour servir de base à des tests
de signification, il faut une mesure de la variation sous-jacente de courte durée dans la série. En
termes techniques, il convient de mesurer le bruit afin de définir l’échelle du système de détection
des signaux.
La mesure statistique fondamentale de la variation est l’écart-type. Il peut être évalué à partir d’un
échantillon de n valeurs par :
s(estimation de CT) =
(2)
où :
- 1
--
Y- Y i
c
n
la sommation s’étendant aux n observations de l’échantillon.
Les valeurs à représenter graphiquement sont souvent fonction d’un groupe d’observations, d’une
statistique telle que leur moyenne, leur étendue, la proportion de non-conformités, etc. La mesure
appropriée de variation devient alors l’écart-type de la statistique d’échantillon représentée (ou son
estimation si cette dernière est inconnue). Les cas les plus simples sont ceux de la moyenne
d’échantillon, X, ou la proportion de non-conformité, p, dans un échantillon de n éléments. Noter
que n est l’effectif de chacun des échantillons, autrement dit le nombre d’observations par
échantillon et non le nombre d’échantillons à représenter.
Dans ces deux cas simples, en supposant que le processus est maîtrisé, on a :
Ecart-type de y, oe = o/&, souvent remplacé par son estimation.
Lorsque les observations sont des comptes ou des proportions d’éléments avec un attribut
spécifié dans les échantillons d’effectif n, et si le procédé est sous contrôle statistique avec la
probabilité pO qu’un élément soit doté de l’attribut, la distribution binomiale est alors appropriée,
donnant :
P& PJ
un écart-type de p, oP =
(3)
n
d
souvent écrit sous la forme : oP =
L’écart-type du nombre d’éléments par échantillon ayant l’attribut requis s’écrit :
cJ = JnPo90
(4)
@ ISO ISO/TR 7871:1997(F)
C’est le cas où l’écart-type lui-même peut être utile à des fins de diagnostic en relation avec une
représentation graphique de données d’échantillon brutes. Un autre exemple est le nombre de
non-conformités, de défauts ou tout autre événement dans une certaine qualité de produit ou de
matériau, ou observés dans un segment de temps défini. Les défauts par mètre (ou mètres
carrés) de tissu et les accidents d’usine par semaine en sont des exemples. Ici, si l’on suppose
que les conditions appropriées à la distribution de Poisson sont satisfaites, on a :
(r= m
Il-
où m est le niveau moyen des événements par échantillon. En particulier, si la probabilité d’une
non-conformité dans un très petit volume de produit est très faible et est proportionnelle à ce
volume, et si ces non-conformités se produisent indépendamment les unes des autres, une
conséquence mathématique est que les non-conformités suivent la distribution de Poisson.
L’exigence du “contrôle statistique” implique que, pendant une période où aucune variation ou
cause de variation “assignable” ne se produit, tous les éléments échantillonnés peuvent être
considérés comme de simples échantillons aléatoires provenant du processus complet (ou de la
population, ou du segment de temps, etc.). Dans ce cas, la variation de courte durée observée
entre les éléments des échantillons forme une base convenable (via l’écart-type de la statistique
choisie) pour estimer la variation attendue dans la séquence dans son ensemble. Toute variation
supérieure à celle-ci est supposée se produire à partir de causes assignables, par l’indication
d’une dérive dans la moyenne de la série ou d’une fluctuation dans la nature ou la grandeur de la
variation.
II existe de nombreux cas où ce simple usage des estimations globales de l’écart-type est
inapproprié. Certaines circonstances aboutissant à sa défaillance sont les suivantes :
a) en effectuant des observations sur un processus continu, de petites variations sans
importance du niveau moyen peuvent se produire. C’est en fonction de ces variations, plutôt
que de celles de courte durée, qu’il convient de juger des variations systématiques ou
prolongées. Par exemple, un processus industriel peut être contrôlé par un thermostat ou par
tout autre dispositif de régulation automatique ; la qualité en entrée des matières premières
peut être soumise à des variations mineures bien que n’outrepassant jamais les spécifications.
En surveillant la réaction d’un patient à un traitement, il peut exister des variations mineures sur
son métabolisme liées aux repas, à ses occupations quotidiennes à l’hôpital ou à son domicile,
etc. ; il convient toutefois de juger de l’effet d’un traitement en fonction de la variation type
globale ;
b) la méthode d’échantillonnage peut elle-même induire des effets comme ceux indiqués en a).
Des échantillons contiennent souvent des éléments voisins prélevés sur une chaîne de
fabrication, sur la base qu’un échantillon aléatoire vrai de tous les éléments fabriqués n’est pas
facile à constituer. Les éléments constituent alors un échantillon “en grappe”, et peuvent tendre
à être trop proches les uns des autres pour servir de base d’évaluation de la variation globale ;
c) les échantillons peuvent contenir des résultats ou des observations provenant de plusieurs
sources (machines, opérateurs, régions administratives). Comme telles, trop de variations
locales peuvent se produire pour pouvoir estimer de manière réaliste si des variations
importantes sont survenues ;
ISOFI-R 7871:1997(F) @ ISO
II convient donc de traiter avec précaution les données provenant d’une combinaison de telles
sources, car toute particularité locale de chacune des sources concernées peut ne pas être
remarquée ; en outre, des variations entre les sources peuvent masquer certaines variations se
produisant sur l’ensemble du système au cours du temps.
d) une corrélation sériale, c’est-à-dire qu’une observation est en relation avec les autres, peut
se présenter dans les observations. Par exemple, si l’on utilise des moyennes mobiles, le
recouvrement des valeurs de données servant à l’une de ces moyennes et les suivantes produit
une corrélation sériale positive. Dans l’évaluation de l’utilisation d’un matériau en vrac à partir
des différences entre des relevés de jauge ou de tige de profondeur successifs, une première
surestimation tendra à produire une sous-estimation la fois suivante, générant une corrélation
négative. La présence possible de l’un ou l’autre de ces effets mérite d’être connue. Une
corrélation sériale positive est particulièrement probable dans certains processus industriels où
un lot de matériau peut se mélanger partiellement avec les lots précédents et les lots suivants
produisant ce qu’on appelle quelquefois l’effet de “talon”. Des apports successifs de carburant
dans le réservoir d’un véhicule est un exemple quotidien, chaque nouvel apport étant effectué
avant que le réservoir ne soit vide.
II est donc nécessaire de prendre en compte d’autres mesures de variation dans les séries
ou les séquences de données, et les circonstances pour lesquelles eNes sont appropriées.
De telles mesures de variations incluent le traitement des différences entre des valeurs
d’échantillon successives (6. = yj - yj J en tant que type approprié de variation et le traitement de
toutes les valeurs d’échantil 1 ons yj comme si elles étaient tirées d’une population unique. Ces
mesures sont expliquées en annexe A.
2.7 Mesures de variation
Se reporter en annexe A.
2.8 Définition de l’échelle de la carte
Se reporter en annexe B.
2.9 Liste de contrôle pour la préparation des CUSUM
La liste de contrôle suivante peut être utile en tant que rappel (sans qu’elle ne la remplace) de la
description détaillée des étapes préliminaires établies dans ce paragraphe.
Choisir une valeur cible appropriée. Les possibilités incluent :
a) une valeur de spécification ;
b) un niveau satisfaisant de performance (pour un processus) disposant d’une chance
raisonnable d’être atteint ;
c) un niveau moyen de performance sur toute une période (ou segment) récente et typique ;
d) le niveau moyen d’un ensemble complet d’observations, lorsque l’analyse rétrospective est
impliquée.
@ ISO ISO/TR 7871 :1997(F)
Sélectionner une mesure de variation convenable, en prenant en compte les points de 2.7.
Décider de la convention d’échelle à adopter. La méthode de B.l est généralement la plus simple
à la fois pour la préparation et l’interprétation mais, pour certains objectifs particuliers, l’une des
deux autres conventions peut être recommandée ou des formes spéciales peuvent être préparées
pour tout usage de routine.
S’assurer que le personnel impliqué dans la préparation ou l’interprétation des cartes est familier
avec la procédure.
3 Présentation
3.1 Dans l’article 2, les préparations relatives au tracé de la carte ont été détaillées, comprenant
le choix d’une valeur cible, la définition et le calcul d’une mesure de variation, ainsi que le choix
d’un facteur d’échelle.
Certains points pratiques de repérage méritent également l’attention. Les informations minimales
présentées sur la carte doivent comprendre les éléments suivants :
a) la valeur cible (qui peut être accompagnée d’une indication brève de la raison de son choix,
par exemple une valeur moyenne spécifiée, une moyenne de données antérieures) ;
b) l’écart-type des observations (qui peut être accompagnée d’un commentaire sur la méthode
utilisée pour l’estimer) ;
c) la nature des observations (valeurs d’origine’ moyennes d’échantillons, nombre de non-
conformités, etc.) ;
d) le titre indiquant le but de la carte (par exemple “Carte de CUSUM pour le contrôle de . .“. ou
“CUSUM rétrospectif des données à partir de . .“) ;
e) le repérage clair de l’échelle i (intervalles d’échantillon) et l’échelle du CUSUM.
3.2 Pour faciliter l’interprétation, les variations observées dans la structure des cartes CUSUM
peuvent être notées au point approprié de l’échelle i. On peut citer comme exemples les nouvelles
livraisons de matières premières dans un processus de production, ou des changements de
personnel ou de méthodes d’opération.
En analysant les erreurs résiduelles provenant d’une expérience, les points où les variations des
niveaux des facteurs expérimentaux se sont produites peuvent être relevés. Pour les données
recueillies pendant une certaine durée, il convient de faire ressortir les repères des dates
occasionnelles sur l’échelle i.
L’insertion possible d’informations de cette nature peut affecter le choix d’une échelle d’intervalle
d’échantillon ; si des annotations nombreuses sont envisagées, il peut être recommandé de définir
une échelle plus importante que dans le cas contraire, afin d’éviter de trop encombrer une carte
par des informations subsidiaires.

@ ISO
3.3 Choix de l’origine de la carte
Dans de nombreuses applications, l’origine servant au tracé de l’échelle du CUSUM sera zéro, en
prévoyant la représentation des sommes cumulées positives et négatives. Cependant,
l’interprétation visuelle ultérieure de la carte n’est pas affectée par l’origine adoptée réelle, et si l’on
préfère des valeurs non-négatives, on peut faire débuter le CUSUM à partir d’une valeur positive
appropriée. Par exemple, quand une carte est la continuation d’un tracé existant, ou quand le
graphe du CUSUM déborde sur le haut ou le bas du graphique, il peut s’avérer utile de débuter la
nouvelle carte (ou le segment retracé) à partir d’une valeur correspondant à un niveau général
proche de la conclusion de la carte précédente (ou le segment précédent).
3.4 Calcul des moyennes locales
Se reporter en annexe C.
3.5 Nouveau tracé de la carte CUSUM
Se reporter en annexe D.
4 la surveil lance et le contrô
Règles de décision pour
4.1 Introduction
4.1 .l Dans cet article ainsi que dans l’article 5, des règles de décision simples sont présentées
pour déterminer si les variations apparentes de la pente du CUSUM (et donc du niveau moyen de
la variable représentée) sont réelles, ou si elles peuvent être considérées comme faisant partie de
la variabilité sous-jacente des données.
Le présent article concerne des applications de surveillance et de contrôle : le tracé des points de
données est effectué en séquence, au fur et à mesure de l’arrivée des observations, ceci pour
détecter aussi rapidement que possible tout décalage par rapport à un niveau cible. L’article 5
traite des règles de décision pour l’analyse rétrospective des données existantes, permettant
d’établir si le niveau moyen de segments particuliers diffère de celui des segments précédents ou
suivants.
4.1.2 L’utilisation des règles de décision peut ne pas être toujours nécessaire, surtout dans le cas
où les cartes CUSUM sont utilisées comme seul moyen de présenter des données d’une série de
manière efficace. Cependant, quand des décisions et éventuellement les actions qui en résultent
doivent être prises, la procédure CUSUM permet souvent une utilisation plus efficace des données
disponibles que les autres méthodes classiques. Dans ce contexte, l’efficacité implique que les
décisions concernant les variations du niveau soient obtenues plus rapidement, que les fausses
alarmes soient moins fréquentes (décisions erronées de la présence d’un décalage dans la
moyenne alors qu’il n’en est rien), ou que ces deux avantages puissent être obtenus ensemble.
4.1.3 Lorsqu’elles servent à la surveillance et au contrôle, les procédures CUSUM ont le double
objectif de détecter des variations significatives et les points où elles se sont produites. Afin de
mesurer la performance de ces procédures, il est essentiel de considérer le nombre moyen
d’échantillons prélevés jusqu’à ce qu’une variation apparente soit signalée par la règle de décision
choisie. Si aucune variation réelle ne survient, cette “Période Opérationnelle Moyenne” devrait être
importante (correspondant peut-être à des centaines d’échantillons) car n’importe quels signaux
seraient alors de fausses alarmes. Lorsqu’un décalage important par rapport à la cible se produit,
il est souhaitable que la Période Opérationnelle Moyenne soit courte pour détecter rapidement des
conditions anormales. La réponse d’une règle de décision à diverses grandeurs de décalages par
rapport à la cible peut être représentée par une courbe de Période Opérationnelle Moyenne
(courbe POM), qui permet de comparer des règles de décision d’une manière analogue à celle de
la caractéristique du test (courbe d’efficacité OC) servant à comparer des procédures
d’échantillonnage d’acceptation, ou à la courbe de puissance pour comparer des tests
d’hypothèse statistique.
Il convient de noter que la période opérationnelle elle-même est sujette à une variation statistique.
On peut quelquefois avoir de la “chance” en n’obtenant aucune fausse alarme sur une longue
période, ou de détecter une variation très rapidement. Une période “malchanceuse” peut
quelquefois générer des fausses alarmes, ou masquer une réelle variation en ne délivrant aucun
signal. La Période Opérationnelle Moyenne (POM) est utilisée comme mesure sommaire pour
comparer des schémas et des règles de décision, mais d’autres aspects de cette période
opérationnelle peuvent quelquefois mériter une attention particulière (période opérationnelle
médiane ou mode, ou distribution de la période opérationnelle entière). La figure 5 illustre les
distributions de périodes opérationnelles caractéristiques.

ISO/rR 7871 :1997(F)
b) POM = 20
a) POM=5
OL = 4 oL = 18’9
Médiane = 3,5 Médiane = 14
Mode = 2 Mode = 3
2,5 % des périodes > 16 12,5 % des périodes > 41
7,5 % des périodes 230, etc.
1 % des périodes > 79, etc.
-
0,15
0.1
0.0
ti
c) POM = 96,5
oL = 95,6
Médiane = 67
Mode = 4
12,5 % des périodes > 200
7,5 % des périodes >>50, etc.
-
0,010
0,005
Figure 5 : Distributions de périodes opérationnelles caractéristiques

@ ISO ISO/TR 7871:1997(F)
4.1.4 Les caractéristiques essentielles de la carte CUSUM relatives à la détection des variations
du niveau moyen sous-jacent sont la raideur de la pente du CUSUM et le nombre d’échantillons
sur lesquels la pente persiste. Pour la surveillance et le contrôle, l’objectif est de détecter des
décalages par rapport à une valeur cible. Lorsque le processus est opérationnel au niveau cible, il
existe inévitablement des occasions, du fait de la variation de l’échantillonnage, où le graphe du
CUSUM s’écarte en apparence de l’horizontale. La règle de décision ne devrait pas donner de
fausses alarmes signalant que ces périodes représentent un écart significatif par rapport à la
cible. Par ailleurs, lorsque le processus passe à un état non satisfaisant, il est souhaitable que la
règle de décision fournisse une réponse aussi rapidement que possible. Les exigences sont les
suivantes D
Etat vrai du processus Réponse du CUSUM
Au niveau ou proche de la cible POM longue (peu de fausses alarmes)
Ecart important par rapport à la cible POM courte (détection rapide)
Les spécifications détaillées des procédures CUSUM pour délivrer les POM prescrites à des
niveaux de qualité particuliers sont réservées à d’autre normes. On présente ici des règles simples
qui couvrent une large gamme d’applications. Leurs caractéristiques de période opérationnelle
sont liées à des niveaux de qualité généralement définis comme des écarts par rapport à la cible,
mesurés en nombre d’écarts-types par rapport à la variable représentée graphiquement. L’écart-
type est supposé connu à partir d’une première estimation, comme décrit en annexe A de la
présente norme.
4.2 Masques en V de CUSUM
4.2.1 Généralités
Les règles de décision les plus simples à utiliser avec les cartes CUSUM sont intégrées à des
masques en V. II existe trois formes différant légèrement, mais toutes sont identiques dans leur
principe et leurs effets. Chaque forme peut être appliquée avec l’une ou l’autre des trois
conventions d’échelle ; elles seront appliquées à la version la plus généralement utilisée, comme
précisé en B.l de l’annexe B de la présente norme.
Si les CUSUM sont mis en oeuvre informatiquement, les règles de décision sont également
identiques dans leur principe et leurs effets, mais sont de forme différente ; elles sont décrites
dans l’article 6.
4.2.2 Les masques en V tronqués
Bien qu’un masque en V complet puisse être utilisé, la forme tronquée est commode dans la
pratique. La géométrie du masque est rapportée à un point, repéré par la lettre A dans la figure 6,
et qui peut être identifié par une petite entaille sur la section verticale BC. Deux branches inclinées
rejoignent respectivement les points B à D et C à E, mais elles peuvent être prolongées à l’infini
au-delà de D ou de E si nécessaire. Pour correspondre avec les sections antérieures de la
présente norme, les demi-droites verticales AB et AC seront dénommées “intervalle de décision” .
et les lignes BD, CE “lignes de décision”. La pente de ces lignes de décision, mesurée en unités
d’échelle par intervalle de tracé d’échantillon, correspondra aux valeurs de référence introduites en
6.1.3.
@ ISO
La construction du masque est détaillée dans la figure 6. Observer que les distances 50,, 100,
peuvent être transférées à partir de l’échelle du CUSUM si on le souhaite, ou calculées à partir de
0, et du facteur d’échelle, si on préfère.
Le masque s’utilise en plaçant le point de référence géométrique A sur un point quelconque tracé
sur la carte. II sera souvent le point le plus récemment tracé, ou le dernier point d’un segment qui
présente un intérêt particulier. L’axe AF est placé parallèlement à l’axe des numéros d’échantillons
de la carte. Si un point précédent quelconque du CUSUM se trouve en dehors des branches
inclinées (ou de leurs prolongements au-delà de D ou de E), un écart significatif par rapport à la
valeur cible est signalé. Toutefois, si l’intégralité du graphe du CUSUM reste à l’intérieur des
branches, aucun décalage important n’est indiqué.
Les figures 7 et 8 représentent le masque tronqué appliqué à deux points de la carte CUSUM des
données du paragraphe 0.2 (tableau 1 et figure 2). La valeur de 0, est supposée égale à 2,0.
Lorsqu’on applique le masque à l’observation 16, le graphe du CUSUM se maintient à l’intérieur
des branches inclinées, et le segment entre les échantillons 8 et 16 ne diffère pas sensiblement
de la valeur cible de 15. Cependant, avec le masque appliqué à l’échantillon 18, on peut observer
que le graphe du CUSUM touche la ligne de décision supérieure, ce qui indique que, au moment
où la 18ème valeur est obtenue, une évidence suffisante s’est constituée pour signaler un
décalage vers le bas par rapport à la valeur cible.
Ligne de décision
Intervalles de décision
Figure 6 : Masque en V tronqué à usage général
Plusieurs points méritent d’être relevés ici :
a) la ligne de décision supérieure est touchée par les points d’échantillon 6 et 7. Si le CUSUM
touche ou croise la ligne de décision, il y a présomption de violation et génération d’un
message ;
b) le point sur lequel se produit la violation de la ligne de décision requiert le prolongement de
la branche du masque, mais la conséquence d’un changement dans la moyenne reste valable ;
@ ISO
c) si l’on applique le masque sur un point quelconque avant le point 18, aucune décision n’est
signalée. Si on l’applique sur un point quelconque entre 18 et 21 (la fin du segment incliné vers
le bas), ii y a indication d’un décalage significatif vers le bas ; L’usage répété (même inutile) du
masque n’invalide pas ou ne modifie en rien les signaux déjà obtenus.
d) le signal se produit pour l’échantillon 18. A ce point, l’évidence est suffisante pour confirmer
la conclusion que la moyenne a changé, mais que ce changement est intervenu probablement
à un stade plus ancien. L’examen de la carte s
...

Questions, Comments and Discussion

Ask us and Technical Secretary will try to provide an answer. You can facilitate discussion about the standard in here.

Loading comments...