Лекция 2.1: Линейная регрессия.

Лекция 2.1: Линейная регрессия.

Deep Learning School

4 года назад

58,722 Просмотров

Ссылки и html тэги не поддерживаются


Комментарии:

@igorgordeev1904
@igorgordeev1904 - 21.10.2020 18:54

Лектор хорошо рассказывает. Мне понравилось.

Ответить
@vadimosipov2147
@vadimosipov2147 - 22.10.2020 17:25

В лекции было сказано про неразрешимость системы уравнений для случая, когда столбцы - признаки линейно зависимы.
Получается,
мы добавляем новые составные признаки, чтобы дать больше информации (x3=x1*x2) =>
модель становится неустойчивой в виду того, что есть зависимые признаки, =>
затем добавляем регуляризацию, чтобы понизить влияние таких признаков.
Тогда зачем такие признаки добавлять, может проще взять другие модели?

Ответить
@aleksandrteplyuk1077
@aleksandrteplyuk1077 - 26.11.2020 10:49

Григорий отлично объясняет материал!

Ответить
@ЕвгенийИванов-л6л9е
@ЕвгенийИванов-л6л9е - 26.05.2021 13:42

Григорий, только не "Омега", а "омЕга"

Ответить
@jalomic
@jalomic - 10.10.2021 21:12

Возьмем производную для решения. Приравняем её к нулю и получим омегу.. Круто че. Только что это было? Почему к нулю? Для чего производную брать? Ниче не объяснено.

Ответить
@СМ13-13МГурова
@СМ13-13МГурова - 15.10.2021 00:50

Добрый день. Подскажите, пожалуйста, почему при составлении модели мы написали ,что f=x*w, но в выражение метода наименьших квадратов подставляет x(транспонированное)*w?

Ответить
@Dribinskaia
@Dribinskaia - 07.02.2023 11:28

Спасибо большое, это самое понятное видео о функциях потерь!😊

Ответить
@natalias8919
@natalias8919 - 03.03.2024 10:36

Последняя фраза: "значения элементов обратной матрицы не будут помещаться в память компьютера в переменные" - это шедевр, конечно. Представьте, что студент на экзамене это произнесет, и как его оценку любой преподаватель понизит.
Выражайтесь корректно, когда выступаете в роли преподавателя. Арифметическое переполнение или не помещается в память - это разные вещи.

Ответить