Категории
Самые читаемые
Лучшие книги » Справочная литература » Энциклопедии » Большая Советская энциклопедия (На) - БСЭ

Большая Советская энциклопедия (На) - БСЭ

Читать онлайн Большая Советская энциклопедия (На) - БСЭ

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 33 34 35 36 37 38 39 40 41 ... 214
Перейти на страницу:

  где pi = k/ si 2 и si 2 = D di = E di 2

(коэффициент k > 0 можно выбирать произвольно). Величину pi называют весом, a si — квадратичным отклонением измерения с номером i . В частности, если все измерения равноточны, то s1 = s2 =... = sn , и в этом случае можно положить p 1 = p 2 =... = pn = 1; если же каждое Yi , — арифметическое среднее из ni , равноточных измерений, то полагают pi = ni .

  Сумма S (X ) будет наименьшей, если в качестве Х выбрать взвешенное среднее:

Оценка  величины m лишена систематической ошибки, имеет вес Р и дисперсию

В частности, если все измерения равноточны, то Y — арифметическое среднее результатов измерений:

  При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то распределение оценки  мало отличается от нормального с математическим ожиданием m и дисперсией k/P . В этом случае абсолютная погрешность приближённого равенства

меньше

с вероятностью, близкой к значению интеграла

[напр., I (1,96) = 0,950; I (2,58) = 0,990; I (3,00) = 0,997].

  Если веса измерений pi заданы, а множитель k до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки  могут быть приближённо оценены по формулам:

и

(обе оценки лишены систематических ошибок).

  В том практически важном случае, когда ошибки di подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства

окажется меньше ts (t — произвольное положительное число). Эту вероятность, как функцию от t , называют функцией распределения Стьюдента с n - 1 степенями свободы и вычисляют по формуле

где постоянная Cn -1 выбрана таким образом, чтобы выполнялось условие: In -1 (¥) = 1. При больших n формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших n привело бы к грубым ошибкам. Так, например, согласно (1), значению I = 0,99 соответствует t = 2,58; истинные значения t , определяемые при малых n как решения соответствующих уравнений ln -1 (t ) = 0,99, приведены в таблице:

Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yiг ):

(здесь ni — число случаев, в которых наблюдался вес Yi , причём n = Sni , = 10). Так как все взвешивания равноточные, то следует положить pi = ni и в качестве оценки для неизвестного веса m, выбрать величину

Задавая, например, I 9 = 0,95, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что t = 2,262, и поэтому в качестве предельной абсолютной погрешности приближённого равенства m » 18,431 следует принять величину

  Т. о. 18,420 < m < 18,442.

  Случай нескольких неизвестных (линейные связи). Пусть n результатов измерений Y 1 , Y 2 ,..., Yn связаны с m неизвестными величинами x 1 , x 2 ,..., хm (m < n ) независимыми линейными отношениями

где aij — известные коэффициенты, а di — независимые случайные ошибки измерений. Требуется оценить неизвестные величины xj (эту задачу можно рассматривать как обобщение предыдущей, в которой m = x1 и m = ai1 = 1; i = 1,2,..., n ).

  Так как Е di = 0, то средние значения результатов измерений yi , = E yi . связаны с неизвестными величинами x 1 , x 2 ,..., хm линейными уравнениями (линейные связи):

  Следовательно, искомые величины xj представляют собой решение системы (4), уравнения которой предполагаются совместными. Точные значения измеряемых величин yi и случайные ошибки di обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так называемые условные уравнения

  Согласно Н. к. м., качестве оценок для неизвестных xj применяют такие величины Xj , для которых сумма квадратов отклонений

будет наименьшей (как и в предыдущем случае, pi — вес измерения Yi , — величина, обратно пропорциональная дисперсии случайной ошибки di ). Условные уравнения, как правило, несовместны, т. е. при любых значениях Xj разности

не могут, вообще говоря, все обратиться в нуль, и в этом случае

также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj , которые минимизируют сумму S . В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.

  Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj ; этот многочлен достигает минимума при таких значениях X 1 , X 2 ,..., Хm , при которых обращаются в нуль все первые частные производные:

Отсюда следует, что оценки Xj , полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:

где

  Оценки Xj , получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (E xj = xj ); дисперсии D xj ; величин Xj равны kdjj /d , где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раj aj ] (иными словами, djj /d — вес оценки Xj ). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии D xj служат формулы:

  k » S/ (n - m ) и D xj » s2 j = Sdjj /d (n - m )

(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi » Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений di подчиняются нормальному распределению, то все отношения (Xj - xj )/sj распределены по закону Стьюдента с n - m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X 1 , X 2 ,..., Xm и поэтому приближённые значения дисперсий оценок D xj » s2 j не зависят от самих оценок Xj .

1 ... 33 34 35 36 37 38 39 40 41 ... 214
Перейти на страницу:
На этой странице вы можете бесплатно скачать Большая Советская энциклопедия (На) - БСЭ торрент бесплатно.
Комментарии