Обработка результатов прямых измерений в случае нормального закона распределения погрешности

Для определения а выполнено п измерений х,. Погрешность /'-го измерения А, = Xj - а. Примем следующие допущения:

  • 1) Xj — случайная величина из N^a,a2
  • 2) систематическая погрешность равна нулю: М[Д, ] = 0;
  • 3) измерения равноточные, т.е. o2xi =ст2 = const;
  • 4) погрешности А, независимы.

Учитывая распределение по нормальному закону и независимость погрешностей, получим совместную (многомерную) плотность распределения — функцию правдоподобия выборки как произведение одномерных плотностей:

В результате мы пришли к задаче оценки параметров распределения по независимой выборке объема п. Для оценки параметра а воспользуемся оценкой максимального правдоподобия, при которой функция правдоподобия выборки принимает максимальное значение. Это имеет место в случае минимума показателя экспоненты, т.е.

что соответствует методу наименьших квадратов (МНК). Таким образом, в случае нормального закона ОМП- и МНК-оценки совпадают. В данном случае, воспользовавшись теоремами выборочного метода, можно было найти законы распределения среднего и дисперсии и построить доверительные интервалы.

Обработка результатов прямых измерений в случае закона Лапласа распределения погрешности

Если погрешность имеет закон Лапласа с плотностью f(x) =

J х~а

= —е х и погрешности независимы, то для функции правдоподо-

бия выборки получим

То есть оценка а параметра а находится исходя из условия минимума суммы модулей отклонений. Это условие метода наименьших модулей (МНМ). В МНК сильно влияют большие отклонения (им придается большой вес). В МНМ большие (маловероятные) отклонения имеют одинаковый вес с остальными отклонениями. В этом смысле МНМ более предпочтителен. Но, с другой стороны, он не аналитичен, так как функция модуля не дифференцируемая и нельзя воспользоваться необходимым условием экстремума. В настоящее время применительно к ЭВМ разработан метод вариационно-взвешенных квадратичных приближений (итерационные алгоритмы) [64]. Идея его заключается в следующем. Пусть по МНК оценка а ищется из условия

где Pj — вес /-го наблюдения.

Пусть на (/—1) шаге итерации известна (получена) оценка hj_х

Возьмем вес р{ =---—

1|

На у'-ом шаге итерации минимизируем сумму взвешенных квадра тов отклонений

Если итерационный процесс сходится, то при у —>оо: cij —» а, т.е. можно считать aj_x=cij, тогда 0=^|х(--д7 | = min. Другими словами, используя алгоритм МНК с весами ph мы фактически будем решать задачу по МНМ.

Подчеркнем, что обычно погрешность оценки характеризуют ее дисперсией, т.е. соответственно суммой квадратов отклонений наблюдаемых значений от расчетных. Для оценки по МНМ сумма квадратов отклонений будет больше, чем для оценки по М НК. В случае закона Лапласа МНМ-оценка является ОМП-оценкой, а МНК-оценка таковой не является. Кроме того, МНМ-оценка в случае любого закона распределения менее чувствительна к аномальным измерениям (робастна).

Обработка результатов косвенных измерений

В результате косвенных измерений определяется значение физической величины, функционально связанной с другими, значения которых равны ах,..., ат

Если aj измерена с погрешностью А/,-, то, разложив (3.6.1) в ряд Тейлора и ограничившись линейными членами, можно найти Д^. Это равносильно взятию полного дифференциала dz = — dax + ... + dam с заме-

дах дат

ной дифференциалов соответствующими погрешностями А = V-^-Д/.

да}

Если Л/]Ду] = 0; а2у) = а2; М[АуАлJ = pjkaak, р —коэффициент

2/д ч Vf 8F)2 2 8F 8F

корреляции, то а (Дг) = 2^ т— ay + Рjk я я akaj-

{faj J kk

Опенка косвенного измерения z = F(ax,..., am).

Пусть функция линейная и ошибки некоррелированы. Тогда

Пусть

Тогда

В данном случае расчет упрощается при переходе к относительной погрешности измерения.

Обработка результатов совместных измерений

При совместных измерениях значения величин находят решением системы уравнений, связывающих эти величины с непосредственно измеряемыми.

Пусть имеем уравнения (линейную модель объекта)

где Pj,(3* — искомые (неизвестные) величины (коэффициенты регрессии); х^, ?, = 1,..., п — известные (заданные или измеренные) входные (независимые) величины; yt выходные (зависимые) измеренные величины; ее — неизвестные погрешности (ошибки) измерений или совокупные воздействия недоступных наблюдению (измерению) факторов.

Поскольку et неизвестны, то вместо (3.7.1) для оценок коэффициентов регрессии Рг имеем систему условных линейных уравнений (2.7.1), или в матричной форме (2.7.4).

Для решения можно воспользоваться ОМП-оценками, которые в случае нормальной модели совпадают с МНК-оценками. На практике МНК-оценки используют и в случае ненормальной модели, заведомо полагая, что результат не совпадет с ОМП-оценками.

Контрольные вопросы

  • 1. Дайте классификацию погрешностей измерений и признаков, по которым она проводится.
  • 2. Охарактеризуйте прямые, совместные, косвенные и неравноточные измерения и методы их обработки.
 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ   След >