Комментарии:
Лектор хорошо рассказывает. Мне понравилось.
ОтветитьВ лекции было сказано про неразрешимость системы уравнений для случая, когда столбцы - признаки линейно зависимы.
Получается,
мы добавляем новые составные признаки, чтобы дать больше информации (x3=x1*x2) =>
модель становится неустойчивой в виду того, что есть зависимые признаки, =>
затем добавляем регуляризацию, чтобы понизить влияние таких признаков.
Тогда зачем такие признаки добавлять, может проще взять другие модели?
Григорий отлично объясняет материал!
ОтветитьГригорий, только не "Омега", а "омЕга"
ОтветитьВозьмем производную для решения. Приравняем её к нулю и получим омегу.. Круто че. Только что это было? Почему к нулю? Для чего производную брать? Ниче не объяснено.
ОтветитьДобрый день. Подскажите, пожалуйста, почему при составлении модели мы написали ,что f=x*w, но в выражение метода наименьших квадратов подставляет x(транспонированное)*w?
ОтветитьСпасибо большое, это самое понятное видео о функциях потерь!😊
ОтветитьПоследняя фраза: "значения элементов обратной матрицы не будут помещаться в память компьютера в переменные" - это шедевр, конечно. Представьте, что студент на экзамене это произнесет, и как его оценку любой преподаватель понизит.
Выражайтесь корректно, когда выступаете в роли преподавателя. Арифметическое переполнение или не помещается в память - это разные вещи.