double arrow

Погрешность вычисления функции

Основная задача теории погрешности заключается в следующем: с какой точностью можно найти значение функции y=f (x1*, x2*,…, xn*), если аргументы xi* известны с некоторой точностью. И обратная задача: с какой точностью надо задать значения аргументов функции, чтобы погрешность функции не превосходила заданной величины? Решение таких задач опираются на теорему Лагранжа, согласно которой предельная абсолютная погрешность функции равна произведению абсолютной величины ее производной на предельную абсолютную погрешность аргумента D(f*)=|f |D(x*). Если задана дифференцируемая функция y= f (x1, x2,…, xn) и ее приближенное значение y*= f (x1*, x2*,…, xn*), где xi - точныезначения аргументов функции, а xi * – приближенные к ним, и пусть D (xi*) (i= 1,2,…,n) абсолютные погрешности аргументов функции.

Определение. Предельной абсолютной погрешностью функции А(y*) называют наилучшую при имеющейся информации оценку погрешности величины y*= f (x1*+D (x1*), x2+D (x2*), …, xn+D (xn*)),

т. е. А(y*)= sup| f (x1, x2,…, xn)- f (x1*, x2*,…, xn*)|.

Линейная оценка погрешности функции записывается в виде:

.

Разделив обе части неравенства на y *, будем иметь оценку для предельной относительной погрешности функции d (y*):

= d(y*).


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



Сейчас читают про: