Этот фрагмент особо полезен тем, кто знает линейную алгебру.
Оказывается, средствами линейной алгебры легко не только сразу
посчитать дисперсию β1 с крышкой или β2 с крышкой,
одним махом можно найти все эти дисперсии и все ковариации.
Они все находятся в этой ковариационной матрице.
Действительно, это матрица, которая устроена следующим образом.
Здесь находится дисперсия β1 с крышкой при фиксированном X,
дальше идет ковариация β1 с крышкой β2 с крышкой при фиксированном X и так далее.
Здесь идёт ковариация — вторая срока,
первый столбец — β2 с крышкой с β1 с крышкой при фиксированном X,
дальше идёт дисперсия β2 с крышкой при фиксированном X и так далее.
И заканчивается это всё дисперсией βk с крышкой при фиксированном X.
Оказывается, очень компактная формула в терминах линейной алгебры
есть для этой матрицы.
βk с крышкой при фиксированном X.
И здесь точно такое же, ковариационная матрица, она всегда симметричная.
β1 с крышкой βk с крышкой при фиксированных регрессорах.
Ну чтобы понять, как легко получить эту формулу,
нам сначала надо понять, какими свойствами обладает ковариационная матрица.
Значит, во-первых, свойства ковариационных матриц.
Во-первых, посмотрим, какие есть свойства у математического ожидания.
Вот если у меня есть математическое ожидание от вектора,
то это имеется в виду вектор из математических ожиданий.
И у математического
ожидания свойства совершенно аналогичные,
у векторного математического ожидания свойства совершенно аналогичные скалярным.
Ну то есть для одномерных случайных величин, одномерные случайные величины,
было свойство: математическое ожидание от a на у равняется
a (давайте y1 напишем) на математическое ожидание y1.
В многомерном случае, многомерные случайные величины,
здесь несколько дело обстоит посложнее,
поскольку a — это должна быть матрица, и важен порядок умножения матриц.
Тут будет два свойства.
E(A) * y будет равняться A * E(y), это нетрудно доказать,
но это достаточно интуитивно.
И второе свойство, что если у меня y умножается на матрицу B,
B с другой стороны, то и выносить B можно только направо из математического
ожидания: E(y) * B.
Соответственно, как можно
определить вот эту самую ковариационную
матрицу от вектора β с крышкой при фиксированном X?
Это есть не что иное, как условное...
Это определение ковариационной матрицы,
его выражение через математическое ожидание.
Это математическое ожидание вектора β с крышкой на вектор β с крышкой
транспонированное при фиксированном X минус
математическое ожидание от β с крышкой при фиксированном
X на математическое ожидание β с крышкой транспонированное при фиксированном X.
Эта формула является обобщением одномерной формулы,
что дисперсия y1 при
фиксированном X — это
есть математическое ожидание от y1-квадрат при
фиксированном X минус математическое
ожидание от y1 при фиксированном X, взятое в квадрат.
Соответственно, вернёмся к этому обобщению.
Что мы получаем?
Мы получаем такое важное свойство.
Если скомбинировать свойство математического ожидания и определение,
то мы получим такое важное свойство ковариационной матрицы.
Ковариационная матрица A на β с крышкой при фиксированном X равняется:
математическое ожидание от A на β с крышкой помножить
A на β с крышкой транспонированное при фиксированном
X минус математическое ожидание от A на β с крышкой
при фиксированном X на математическое ожидание от A на β
с крышкой потом транспонированное при фиксированном X.
При транспонировании меняется порядок следования матриц,
меняется порядок, в котором они умножаются.
И мы получаем, что это есть...
Дальше из этого математического ожидания наружу вылезет A,
а вот здесь поменяется порядок.
И если налево будет вылезать A,
то вот из этого сомножителя направо будет вылезать A транспонированное.
Здесь тоже A вылезет налево,
а вот здесь вот направо вылезет A транспонированное.
И получится: A помножить
на E от β с крышкой на β с крышкой транспонированное
при фиксированных X минус E от β с крышкой при
фиксированных X на E от β с крышкой транспонированное
при фиксированных X и еще помножить на A транспонированное.
И получится у нас такое замечательное свойство.
A вышла налево, посерёдке осталась ковариационная
матрица вектора β с крышкой, а справа появилась A транспонированная.
То есть аналогом формулы: дисперсия
a на y1 при фиксированном X — a-квадрат
на дисперсию y1 при фиксированном X,
— аналогом этой формулы выступает следующая:
ковариационная матрица A на вектор y при фиксированном X
равняется A на ковариационную матрицу y при
фиксированном X
умножить на A транспонированную.
И этого свойства нам будет совершенно достаточно,
чтобы посчитать вот эту самую ковариационную матрицу
оценок коэффициентов β с крышкой в общем виде.
Ну давайте попробуем.
Я напомню, что β с крышкой равняется X'X в минус первой X'y.
И у нас есть предпосылка,
что ковариационная матрица вектора
ε при фиксированных X имеет вид σ-квадрат умножить на единичную.
Ну и, конечно же, у нас в матричном виде наша
модель записывается как y равняется X на β плюс ε.
На первом шаге, шаг 1,
мы найдём ковариационную матрицу вектора y при фиксированных X.
Это есть ковариационная матрица вектора X на β плюс ε при фиксированных X.
Но если X фиксированы, то вот это — это просто константа.
Константы не влияют ни на дисперсии, ни на ковариации, которые «живут» в этой
матрице, поэтому их можно просто не писать.
Это есть ковариационная матрица вектора ε при фиксированных X, и это есть,
по предположению, σ-квадрат умножить на единичную матрицу.
И остался шаг 2.
Ковариационная матрица вектора β с крышкой при фиксированных
X равняется:
ковариационная матрица вектора X'X в минус первой
X'y при фиксированных X.
Это какая-то одна здоровая матрица констант.
Поскольку у нас регрессоры, иксы,
считаются константами, мы выносим ее — налево, и направо — транспонированную.
Получаем X'X в минус первой X' умножить на
ковариационную матрицу вектора y при фиксированных X умножить на
X'X в минус первой X' транспонированная.
Равняется, это так и остаётся,
X'X в минус первой X', это получается σ-квадрат умножить на единичную матрицу.
А здесь надо транспонировать.
При транспонировании меняется порядок, и надо ещё раз транспонировать.
Значит, вот этот X — он станет первым, а вот эта матрица встанет направо.
То есть вот эта и вот эта матрица поменяются местам,
и надо будет ещё транспонировать.
Ну X транспонированный транспонированное будет просто X.
А эта матрица — она симметричная.
Ну потому что, действительно, X транспонированное X,
если ее транспонировать, будет...
Переставляем местами и довешиваем транспонирование.
X транспонированное на X, дважды транспонированное, это X'X.
То есть вот эта матрица симметричная, её можно не транспонировать.
Получаем X'X в минус первой.
И замечаем, что единичную матрицу можно при умножении не писать.
Константу можно вынести вперёд.
И получится: σ-квадрат умножить на X'X в
минус первой X' на X на X'X в минус первой.
Вот эти матрицы обратные, при умножении они взаимно уничтожатся,
и останется готовый приятный ответ: σ-квадрат на X'X в минус первой.
Соответственно, мы пришли к выводу, что ковариационная матрица вектора
β с крышкой при фиксированных X имеет вид σ-квадрат помножить на X'X в минус первой.
В этой матрице находятся и дисперсии условные каждого β с крышкой,
и ковариации каждого β с крышкой с каждым β с крышкой.
И в скалярном виде мы их выводили долго по отдельности и только для случая
парной регрессии, а в матричном виде они выводятся легко, все и сразу,
и этой формулой можно будет пользоваться.