Это один из способов выбрать оптимальное lambda.
Соответственно, делаем кросс-валидацию
для алгоритма LASSO, значит,
у нас регрессоры будут в x0, зависимая переменная в y и α,
alpha = 1.
Соответственно, компьютер подобрал оптимальное lambda, можно посмотреть.
Например, давайте построим график для нашей ситуации.
Соответственно, что сделал компьютер?
Компьютер перебрал разные варианты lambdas и обнаружил,
при каком lambda сумма квадратов остатков,
посчитанная путем кросс-валидации будет наименьшей.
И вторая оценка это там, где резко увеличив величину штрафа,
мы не сильно проиграем в сумме квадратов ошибок.
Соответственно есть две ошибки, две идеи оценивать lambda с крышкой.
Одна – по минимуму суммы квадратов ошибок.
Другая – с некоторой подстраховкой,
которая предпочитает модель с коэффициентами более близкими к нулю.
Ну, соответственно, можно посмотреть на оба варианта.
Соответственно, можно вытащить из нашей,
алгоритма можно вытащить lambda минимизирующая сумма квадратов ошибок.
То есть вот это один из способов выбрать оптимальное lambda и второй
способ выбрать оптимальное lambda, он выбирает большее lambda и
при нем коэффициенты соответственно ближе к нулю оказываются
и можно выбрать для каждого из lambdas, можно посмотреть, чему равны коэффициенты.
Соответственно, в первом случае можно посмотреть коэффициенты из модели,
a s указывается, как lambda.1se, например.
Соответственно, это коэффициенты в модели для случая
lambda равны 7,48.
В этом видеофрагменте мы показали,
как находить оценки ридж и лассо-регрессии и как с помощью метода кросс-валидации,
не вдаваясь в его детали, получать некоторое оптимальное lambda и оценки,
которые соответствуют этому самому оптимальному lambda.