- Артикул:00-01117887
- Автор: С. Кульбак
- Обложка: Твердая обложка
- Издательство: Наука (все книги издательства)
- Город: Москва
- Страниц: 408
- Формат: 60х90 1/16
- Год: 1967
- Вес: 643 г
Репринтное издание
Книга посвящена фундаментальным вопросам теории информации и её связи с вероятностными и статистическими методами. В сборнике рассматриваются основные понятия информационной меры, статистические закономерности, методы обработки и анализа случайных данных. Издание отражает развитие теоретических основ математической статистики и информатики и предназначено для научных работников, аспирантов и студентов математических и технических специальностей.
Содержание
Предисловие редактора перевода
Предисловие
Глава I. Определение информации
1. Введение
2. Определения
3. Расхождение
4. Примеры
5. Задачи
Глава 2. Свойства информации
1. Введение
2. Аддитивность
3. Выпуклость
4. Инвариантность
5. Расхождение
6. Информация по Фишеру
7. Информация и достаточность
8. Задачи
Глава 3. Неравенства теории информации
1. Введение
2. Минимум различающей информации
3. Достаточные статистики
4. Экспоненциальное семейство
5. Близкие значения параметров
6. Эффективность
7. Задачи
Глава 4. Предельные свойства
1. Введение
2. Предельные свойства
3. Ошибки первого и второго рода
4. Задачи
Глава 5. Информационные статистики
1. Оценка I (*:2)
2. Классификация
3. Проверка гипотез
4. Обсуждение
5. Асимптотические
6. Оценка J (*, 2)
7. Задачи
Глава 6. Полиномиальные популяции
1. Введение
2. Предпосылки
3. Сопряженные распределения
4. Одна выборка
5. Две выборки
6. r выборок
7. Задачи (152).
Глава 7. Популяции Пуассона
1. Предпосылки
2. Сопряженные распределения
3. r выборок
4. «Односторонняя» гипотеза, одна выборка
5. «Односторонняя» гипотеза, две выборки
6. Задачи
Глава 8. Таблицы сопряженности признаков
1. Введение
2. Таблицы с двумя входами
3. Таблицы с тремя входами
4. Однородность таблиц с двумя входами
5. Условная однородность
6. Однородность
7. Взаимодействие
8. Отрицательное взаимодействие
9. Разбиения
10. Параметрический случай
11. Симметрия
12. Примеры
13. Задачи
Глава 9. Многомерные нормальные популяции
1. Введение
2. Компоненты информации
3. Каноническая форма
4. Линейные дискриминантные функции
5. Случай равенства ковариационных матриц
6. Главные компоненты
7. Каноническая корреляция
8. Ковариационные величины
9. Общий случай
10. Задачи
Глава 10. Линейная гипотеза
1. Введение
2. Предпосылки
3. Линейная гипотеза
4. Статистика минимума различающей информации
5. Подгипотезы
6. Регрессионный анализ: однофакторная классификация, К категорий
7. Подгипотеза с разбиением на две части
8. Пример
9. Репараметризация
10. Регрессионный анализ, двуфакторная классификация
11. Задачи
Глава 11. Многомерный анализ; многомерная линейная гипотеза
1. Введение
2. Предпосылки
3. Многомерная линейная гипотеза
4. Статистика минимума различающей информации
5. Подгипотезы
6. Специальные случаи
7. Каноническая корреляция
8. Линейные дискриминантные функции
9. Примеры
10. Репараметризация
11. Замечание
12. Задачи
Глава 12. Многомерный анализ; другие гипотезы
1. Введение
2. Предпосылки
3. Одна выборка
4. Однородность средних значений
5. Однородность ковариационных матриц
6. Асимптотические распределения
7. Критерий Стюарта однородности частных распределений при двуфакторной классификации
8. Задачи
Глава 13. Линейные дискриминантные функции
1. Введение
2. Итерация
3. Пример
4. Замечание
5. Другие линейные дискриминантные функции
1. Сравнение различных линейных дискриминантных функций
2. Задачи
Литература
Приложение
Таблица I. Log(e) n и n lоg(e) n для значений n от 1 до 1000
Таблица II. F (р1, р2) =p1log p1|p2+q1log q1|q2, p1+q1=1=p2+q2
Таблица III. Нецентральное х2-распределение
Словарь специальных терминов
Алфавитный указатель

