|
Прикладной регрессионный анализ |
Дрейпер Н., Смит Г. |
год издания — 1973, кол-во страниц — 392, тираж — 9000, язык — русский, тип обложки — твёрд. 7Б, масса книги — 470 гр., издательство — Статистика |
серия — Зарубежные статистические исследования |
цена: 2000.00 руб | | | | |
|
Сохранность книги — хорошая. Владельческие пометки в тексте. Неравномерно выцветшая обложка. ЦВЕТ ОБЛОЖКИ СЕРЫЙ
APPLIED REGRESSION ANALYSIS N. R. DRAPER, H. SMITH
John Wiley and Sons, Inc. 1966
Пер. с англ. Ю. П. Адлера и В. Г. Горского
Формат 60x90 1/16. Бумага типографская №3 |
ключевые слова — регресс, статист, качеств, данных, классификац |
В 1962 г. к нам обратились представители химического отдела Американского общества контроля качества (A.S.Q.C.) с предложением подготовить краткий курс регрессионного анализа. В этой связи мы составили ряд конспектов по темам, которые, по нашему мнению, важны для практиков, применяющих регрессионный анализ. Эти конспекты были хорошо приняты, в дальнейшем в них было внесено много дополнений и изменений. Данная книга является результатом этой работы.
Мы попытались объединить в книге ряд методов, развитых для регрессионных задач и распространённых в настоящее время. Так как мы сделали акцент на практическом применении регрессионного анализа, то теоретические результаты во многих случаях приводятся без доказательств. Хотя обучение регрессионному анализу проводится в основном без использования вычислительных машин или со сравнительно примитивной техникой, тем не менее работы по применению регрессии выполняются теперь исключительно с помощью быстродействующих вычислительных машин. Поэтому хотя данной книгой можно пользоваться вообще без всяких вычислительных средств (или может быть только с настольной вычислительной машиной) мы специально употребили в нескольких местах машинную обработку данных. Все десятичные знаки в этих данных вряд ли нужны на практике, но числа писались так, как будто они получены на обычной вычислительной машине. Мы составили также различные упражнения; некоторые из них можно легко решить «вручную», для решения других, более сложных, была бы полезна, хотя и не абсолютно необходима, вычислительная машина.
Эта книга представляет собой стандартный основной курс множественной линейной регрессии, но она включает также материал, который либо совсем не появлялся в учебниках, либо, если и появлялся, то был труднодоступен для понимания. Например, в гл. 3 обсуждается исследование остатков; в гл. 6 рассматриваются процедуры отбора факторов в регрессионных программах разных типов; в гл. 8 обсуждается планирование больших регрессионных исследований; гл. 10 даёт основное введение в теорию нелинейного оценивания.
Гл. 1 и 3 вместе представляют собой курс по подбору уравнения прямой линии вообще без использования алгебры матриц. Если же прибавить часть гл. 2, то вдобавок можно получить введение в идеи матричного представления регрессионных задач. Односеместровый курс регрессионного анализа может быть составлен из материала гл. 1—7; возможно, с добавлением гл. 8 для статистиков, работающих в промышленности, и студентов, обучающихся управлению промышленностью. Можно изучить всю книгу в течение одного семестра, если предположить, что некоторое предварительное знание части материала у читателя уже имеется. Для более полной проработки необходимо два семестра; это даст возможность преподавателю добавить доказательства утверждений, которые сформулированы, но не доказаны, и позволит более полно обсудить все упражнения, среди них есть довольно трудоёмкие.
Предполагается, что читатель обладает основными знаниями элементарной статистики, которые можно получить из типового начального курса. Таблицы F-распределения и t-распределения приведены на стр. 312—314…
ПРЕДИСЛОВИЕ Н. Дрейпер Г. Смит
|
ОГЛАВЛЕНИЕПредисловие к русскому изданию | 5 | | Г л а в а 1. Подбор прямой методом наименьших квадратов | 9 | | 1.0. Введение. Потребность в статистическом анализе | 9 | 1.1. Линейная зависимость между двумя переменными | 13 | 1.2. Линейная регрессия: подбор прямой | 15 | 1.3. Точность оценки регрессии | 22 | 1.4. Исследование уравнения регрессии | 25 | 1.5. Неадекватность и «чистая» ошибка | 34 | 1.6. Корреляция между X и Y | 40 | Упражнения | 43 | | Г л а в а 2. Матричный подход к линейной регрессии | 53 | | 2.0. Введение | 53 | 2.1. Подбор уравнения прямой в матричных обозначениях; оценки | параметров β0 и β1 | 53 | 2.2. Дисперсионный анализ в матричных обозначениях | 63 | 2.3. Вычисления дисперсий и ковариаций коэффициентов b0 и b1 | в матричной форме | 64 | 2.4. Дисперсия величин Ȳ в матричных обозначениях | 65 | 2.5. Резюме к матричному подходу при подборе прямой | 65 | 2.6. Случай общей регрессии | 67 | 2.7. Принцип «дополнительной суммы квадратов» | 76 | 2.8. Ортогональные столбцы в матрице X | 78 | 2.9. Частный и последовательный F-критерий | 80 | 2.10. Проверка общей линейной гипотезы в регрессионных задачах | 82 | 2.11. Взвешенный метод наименьших квадратов | 86 | 2.12. Смещение регрессионных оценок | 90 | | Г л а в а 3. Исследование остатков | 95 | | 3.0. Введение | 95 | 3.1. Общий график | 96 | 3.2. График временной последовательности | 98 | 3.3. График зависимости остатков от Yi | 99 | 3.4. График зависимости остатков от независимых переменных Xji, | i = 1, 2, 3, …, n | 100 | 3.5. Другие графики остатков | 101 | 3.6. Статистики для исследования остатков | 102 | 3.7. Корреляция между остатками | 103 | 3.8. Выбросы | 104 | 3.9. Исследование серий на графиках временной последовательности | остатков | 104 | Упражнения | 109 | | Г л а в а 4. Две независимые переменные | 115 | | 4.0. Введение | 115 | 4.1. Сведение множественной регрессии с двумя независимыми | переменными к последовательности однофакторных линейных | регрессий | 118 | 4.2. Исследование уравнения регрессии | 125 | Упражнения | 133 | | Г л а в а 5. Более сложные модели | 137 | | 5.0. Введение | 137 | 5.1. Полиномиальные модели различных порядков по Xj | 138 | 5.2. Модели, включающие преобразования, отличные от целых степеней | 139 | 5.3. Использование «фиктивных» переменных в множественной регрессии | 143 | 5.4. Подготовка матрицы исходных данных для решения общей задачи | регрессии | 150 | 5.5. Ортогональные полиномы | 159 | 5.6. Преобразование матрицы X для получения ортогональных столбцов | 164 | Упражнения | 167 | | Г л а в а 6. Выбор «наилучшего» уравнения регрессии | 172 | | 6.0. Введение | 172 | 6.1. Метод всех возможных регрессий | 173 | 6.2. Метод исключения | 177 | 6.3. Метод включения | 178 | 6.4. Шаговый регрессионный метод | 180 | 6.5. Две вариации четырёх предыдущих методов | 182 | 6.6. Ступенчатый регрессионный метод | 183 | 6.7. Сводка МНК-уравнений, полученных описанными методами | 187 | 6.8. Вычислительные аспекты шагового регрессионного метода | 188 | Упражнения | 203 | | Г л а в а 7. Типичный пример | 226 | | 7.0. Введение | 226 | 7.1. Задача | 226 | 7.2. Исследование данных | 226 | 7.3. Выбор первого фактора для включения в регрессию | 228 | 7.4. Построение новых переменных | 231 | 7.5. Включение в модель взаимодействия | 231 | 7.6. Расширение модели | 232 | Упражнения | 234 | | Г л а в а 8. Множественная регрессия и построение | математической модели | 242 | | 8.0. Введение | 242 | 8.1. Планирование процесса построения модели | 244 | 8.2. Разработка математической модели | 247 | 8.3. Проверка и использование математической модели | 248 | | Г л а в а 9. Приложение множественной регрессии | к задачам дисперсионного анализа | 250 | | 9.0. Введение | 250 | 9.1. Односторонняя классификация | 251 | 9.2. Регрессионная обработка односторонней классификации | с использованием исходной модели | 252 | 9.3. Регрессионная обработка односторонней классификации: | независимые нормальные уравнения | 257 | 9.4. Двусторонняя классификация с равным числом наблюдений в ячейках | 259 | 9.5. Регрессионная обработка двусторонней классификации с равным | числом наблюдений в ячейках | 260 | 9.6. Пример: двусторонняя классификация | 264 | 9.7. Комментарии | 266 | Упражнения | 266 | | Г л а в а 10. Введение в нелинейное оценивание | 269 | | 10.1. Введение | 269 | 10.2. Метод наименьших квадратов в нелинейном случае | 270 | 10.3. Оценивание параметров нелинейных систем | 273 | 10.4. Пример | 282 | 10.5. Некоторые замечания о репараметризации модепи | 290 | 10.6. Геометрия линейного метода наименьших квадратов | 292 | 10.7. Геометрия нелинейного метода наименьших квадратов | 302 | Упражнения | 306 | Библиография по нелинейному регрессионному анализу | 308 | | Процентные точки t-распределения | 312 | Процентные точки F-распределения | 313 | Библиография | 315 | Ответы к упражнениям | 322 | Приложение А | 346 | Приложение Б | 357 | Указатели | 377 |
|
Книги на ту же тему- Справочник по прикладной статистике. В 2-х томах (комплект из 2 книг), Ллойд Э., Ледерман У., ред., 1990
- Анализ данных и регрессия: В 2-х вып. (комплект из 2 книг), Мостеллер Ф., Тьюки Д., 1982
- Математическая статистика, Уилкс С., 1967
- Таблицы по математической статистике, Мюллер П., Нойман П., Шторм Р., 1982
- Элементарная теория статистических решений, Чернов Г., Мозес Л., 1962
- Введение в теорию вероятностей и математическую статистику, Арлей Н., Бух К. Р., 1951
- Асимптотические методы в математической статистике, Барндорф-Нильсен О., Кокс Д., 1999
- Регрессионный анализ в экспериментальной физике, Живописцев Ф. А., Иванов В. А., 1995
- Основы прикладной статистики, Мелник М., 1983
- Дисперсионная идентификация, Райбман Н. С., Капитоненко В. В., Овсепян Ф. А., Варлаки П. М., 1981
- Теория вероятностей и математическая статистика. Учеб. пособие для втузов. — 5-е изд., перераб. и доп., Гмурман В. Е., 1977
- Задачи по математической статистике, Чибисов Д. М., Пагурова В. И., 1990
- Статистический анализ временных рядов, Андерсон Т., 1976
- Статистические методы эконометрии. Выпуск 1, Маленво Э., 1975
- Знаковый статистический анализ линейных моделей, Болдин М. В., Симонова Г. И., Тюрин Ю. Н., 1997
- Прикладной многомерный статистический анализ, 1978
- Статистические задачи с мешающими параметрами, Линник Ю. В., 1966
- Многомерные статистические методы: Для экономистов и менеджеров, Дубров А. М., Мхитарян В. С., Трошин Л. И., 2000
- Вычислительные алгоритмы в прикладной статистике, Мэйндоналд Д., 1988
- Анализ данных на компьютере: учебное пособие. — 4-е изд., перераб., Тюрин Ю. Н., Макаров А. А., 2008
- Методы обработки экспериментальных данных. — 2-е изд., Уорсинг А., Геффнер Д., 1953
- Машинные имитационные эксперименты с моделями экономических систем, Нейлор Т., 1975
- Статистические методы выделения геофизических аномалий, Никитин А. А., 1979
- Статистический анализ в геологических науках, Миллер Р., Кан Д., 1965
|
|
|