*
*


CAPTCHA Image   Reload Image
X

Метод наименьших квадратов

курсовые работы, информатика

Объем работы: 29 стр.

Год сдачи: 2008

Стоимость: 1050 руб.

Просмотров: 564

 

Не подходит работа?
Узнай цену на написание.

Оглавление
Введение
Литература
Заказать работу
СОДЕРЖАНИЕ



І . Теоретическая часть 3

1.1. Метод наименьших квадратов 3

1.2. Метод итераций 5

1.3. Метод Ньютона (касательных) 6

1.4. Метод трапеций и средних прямоугольников 8

1.5. Метод дихотомии 9

1.6. Метод золотого сечения 10

ІІ. Практическая часть 12

Листинг программы 23

Список литературы 30









І. ТЕОРЕТИЧЕСКАЯ ЧАСТЬ.

1.1. Метод наименьших квадратов

Линейная регрессия (теоретическое линейное уравнение регрессии) представляет собой линейную функцию между условным математическим ожиданием зависимой переменной Y и одной объ¬ясняющей переменной X ( – значения независимой перемен¬ной в i-ом наблюдении, ).

. (1.1)

Для отражения того факта, что каждое индивидуальное значение отклоняется от соответствующего условного мате¬матического ожидания, необходимо ввести в последнее соотношение случайное слагаемое .

(1.1)

Это соотношение называется теоретической линейной регрессионной моделью, и – теоретическими парамет¬рами (теоретическими коэффициентами) регрессии, – слу¬чайным отклонением.

Следовательно, индивидуальные значения представляют¬ся в виде суммы двух компонент – систематической и случайной , причина появления которой достаточно под¬робно рассмотрена ранее. В общем виде теоретическую линейную регрессионную модель будем представлять в виде:

. (1.2)

Для определения значений теоретических коэффициентов регрессии необходимо знать и использовать все значения пере¬менных X и Y генеральной совокупности, что практически не¬возможно.

Таким образом, задачи линейного регрессионного анализа состоят в том, чтобы по имеющимся статистическим данным для переменных X и Y:

а) получить наилучшие оценки неизвестных параметров и ;

б) проверить статистические гипотезы о параметрах модели;

в) проверить, достаточно ли хорошо модель согласуется со статистическими данными (адекватность модели данным на¬блюдений).

Следовательно, по выборке...

Все расчеты 2. Для отделения корней уравнения составим таблицу знаков функции

Таблица 5



2 1 0 -7 -8 -9



+ + - - + +



На отрезках и функция меняет знаки, т.е. существует, по крайней мере, по одному корню. Убедимся, что эти корни единственны на каждом из отрезков.

Возьмем производную:





,

следовательно, производная монотонно возрастающая функция. Составим таблицу знаков функции на выбранных отрезках:

Таблица 6



1 0 -7 -8



0.746677 0.581178 -0.57732 -0.74281



При функция монотонно возрастает, так как , т.е. отрезок содержит единственный корень, причем сохраняет знак.

При функция монотонно убывает, так как , т.е. отрезок содержит единственный корень, причем сохраняет знак.

На отрезке уточним корень методом Ньютона.

Достаточные условия сходимости метода Ньютона определены теоремой:

• непрерывна на и

• и отличны от нуля и сохраняют знаки при

Требования теоремы выполняются, выбираем начальное приближение , удовлетворяющее условию:

, и , следовательно

Рекуррентная формула:

,

Из оценки погрешности:



Следует условие окончания уточнения корня при заданной точности



где и модули наибольшего и наименьшего значений соответственно и . , ,

Таблица 7.











0 0 -0.480217 0.5811777

1 0.826282564 0.056496925 0.717926638

2 0.747587998 0.000512401 0.704902766

3 0.746861088 4.32575E-08 0.704782463

4 0.746861027 -3.91631E-14 0.704782453

5 0.746861027 6.93889E-17 0.704782453



- уточненный корень на отрезке погрешность равна 9.84544E-17

На отрезке уточним корень методом итерации.

- дифференцируема и имеет одинаковые знаки на отрезке





Итерирующая функция обеспечивает выполнения условия сходимости .

Правило выбора параметра :



где





тогда , следовательно . Пусть . Тогда последовательные приближения к коню вычисляются по формуле:

,

Полагаем .

Условием окончания поиска корня будет:



Оценка погрешности:

, ,...

1. Мельникова О.И., Бонюшкина А.Ю. Начала программирования на языке Qbasic: Учебное пособие = М.: Издательство ЭКОМ, 2000 – 304 с., ил.

2. Бирюков С.И. Оптимизация. Элементы теории. Численные методы: Учеб. пособие. — М. : МЗ-Пресс, 2003. — 248с. : рис. — (Серия "Естественные науки). — Библиогр.: с. 245-246.

3. Волков Е.А. Численные методы: Учеб. пособие. — 3.изд., испр. — СПб. ; М. ; Краснодар : Лань, 2004. — 248с. : рис., табл. — (Учебники для вузов). — Библиогр.: с. 244.

4. Аттетков А.В., Галкин С.В., Зарубин В.С. Методы оптимизации: Учебник для студ. высших техн. учеб. заведений / В. С. Зарубин (ред.), А.П. Крищенко (ред.). — М. : Издательство МГТУ им. Н.Э.Баумана, 2001. — 439с. : рис., табл. — (Серия "Математика в техническом университете"; Вып.14). — Библиогр.: с. 428-432.

5. Лебедев В.И. Функциональный анализ и вычислительная математика. — 4. изд., испр. и доп. — М. : Физматлит, 2000. — 295с. : рис. — Бібліогр.: с.285-287.

После офорления заказа Вам будут доступны содержание, введение, список литературы*
*- если автор дал согласие и выложил это описание.

Работу высылаем в течении суток после поступления денег на счет
ФИО*


E-mail для получения работы *


Телефон


ICQ


Дополнительная информация, вопросы, комментарии:



CAPTCHA Image
Сусловиямиприбретения работы согласен.

 
Добавить страницу в закладки
Отправить ссылку другу