aiva
Удален
|
Я слышал (из книг), что метод наименьших квадратов позволяет несколько уменьшить погрешности исходных данных (сгладить и отфильтровать). Но как математически правильно расчитать на сколько уменьшилась погрешность и уменьшилась ли она - не могу найти. Подскажите пожалуйста, направление поисков. Заранее благодарен.
|
Всего сообщений: N/A | Присоединился: N/A | Отправлено: 3 янв. 2007 18:25 | IP
|
|
Ntony
Удален
|
Я слышал (не из книг), что методы корректировки исходных данных нужно использовать, думая головой о том, что конкретно вы делаете и что конкретно вы желаете получить... Простой пример: 1. Один человек считывает цифры с экрана страшного прибора, который выдает эти самые цифры каждые две секунды. Второй человек слушает цифры, которые говорит первый, и записывает их в бумажку. Первый человек, читая цифры, думает о том, что не позавтракал, и о котлетах в буфете по рубь двадцать. И, соответственно, вместо очередной цифры случайно говорит "двадцать", хотя на экране значится 78. Второй человек, понятно, эти цифры записывает. При этом получается, что если цифры такой в этом месте появиться никак не могло (прибор дает более-менее точные цифры каждый раз, только с погрешностью в 1-2 туда-сюда), то метод наименьших квадратов, да и любой другой, может сгладить последствия этой ошибки. 2. Тот же самый прибор, те же самые исследователи, но теперь мы хотим отследить степень сосредоточенности сотрудников. Ну, например, с целью повышения кпд В этом случае сглаживание начальных данных спасет нервы исследователям, но результаты исследования будут, мягко говоря, неадекватными. Это лирическое отступление. Теперь по делу: вам нужно было хотя бы описать собственную задачу, иначе вопросы подобного рода бессмысленны. З.Ы. Если задача в стиле "найти среднее айкью студентов такого-то курса в нашем самом лучшем в мире вузе", то сравнить погрешности можно вычислив дисперсию результатов до и после корректировки исходных данных.
|
Всего сообщений: N/A | Присоединился: N/A | Отправлено: 4 янв. 2007 4:01 | IP
|
|
aiva
Удален
|
Попробую прояснить мою проблему. Допустим, я градуирую датчики температуры. Он нелинеен, а физическая модель его неизвестна (иначе зачем его градуировать). Полученную характеристику хочу представитьв виде полинома для простоты использования на практике. 1. Можно провести интерполяцию полиномом Лагранжа, Ньютона (кого угодно), который проходит через экспериментальные точки. Естественно, поскольку эскспериментальные данные получены с погрешностью, и полином Лагранжа не имеет ничего общего с физикой процесса в датчике, мы получим к экспериментальным дополнительную погрешность интерполяции, которую, кстати, не сложно оценить зная приблизительно значения старших производных характеристики датчика. 2. Можем провести аппроксимацию методом наименьших квадратов с помощью полинома, степенью меньшей чем количество экспериментальных точек. В этом случае, после трудоемкого ручного подбора степени полинома и диапазона аппроксимации, получаю гораздо лучший результат: - фильтруются грубые погрешности эксперимента; - аппроксимирующая функция и даже ее производные гладкие и приятные для глаз. Возникает вопрос, как оценить суммарную погрешность полученной характеристики во втором случае? С одной стороны, она должна быть несколько больше, нежели погрешность эксперимента. С другой - интуитивно ясно, что она может быть как меньше, так и гораздо больше (особенно при высокой степени полинома). Нужны ФОРМАЛЬНЫЕ ПРИЗНАКИ качества обработки. В литературе, мне известной, рекомендуется, в случае погрешности в исходных данных, использовать именно МНК, а погрешность оценивать по остаточной дисперсии. Если читающий эти строки когда-нибудь занимался аппроксимацией, он согласится со мной в том, что ОСТАТОЧНУЮ ДИСПЕРСИЮ МОЖНО СДЕЛАТЬ ЛЮБОЙ, и к качеству аппроксимациии она имеет весьма косвенное отношение. Остаточная дисперсия практически ничего не означает. Посоветуйте пожалуйста, чего-нибудь.
|
Всего сообщений: N/A | Присоединился: N/A | Отправлено: 4 янв. 2007 14:42 | IP
|
|
|