You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Для получения автомата требуется прийти во время семинара 18.12.2023 в 18:30 и согласиться с оценкой (по уважительной причине есть возможность согласиться с автоматом через почту в ответном письме к рассылке оценок --- оформлять не нужно уважительную причину, достаточно написать мне почему не можете явится лично). В случае, если оценка ниже хор(6) требуется явится для сдачи зачета/экзамена в дни согласно расписания МФТИ. В случае, если присутсвует комментарий о том, что есть "подозрение на скат", то также требуется явится на зачет (подозрение на скат не обязательно подразумевает скат, но нужно доп пообщаться).
В случае, если есть вопросы по ДЗ (что-то не нашел / оценка ниже чем должна быть) также прошу обсудить лично во время зачета/экзамена.
В случае, если у Вас в графе “Есть ведомость” стоит “Нет” и у Вас этот курс как зачет в личном кабинете, то прошу проверить еще раз названия курса и если что обсудить с деканатом, чтобы на меня сделали отрывной для приставки. В случае, если у Вас “Нет” и у Вас этот курс как экзамен в личном кабинете, то пока ждем экзаменационной сессии, когда эти ведомости появятся (ближе к дню экзамена) и тогда проверьте, что у Вас в графе сменилось на “Да” или не изменилось. В случае, если перед экзаменом у Вас будет “Нет”, то также нужно будет через деканат оформить отрывной.
Понятие модели алгоритмов, алгоритм обучения, процесс оптимизации для конкретной задачи.
Переход от бинарной к многоклассовой.
Переобучение. Борьба с переобучениям (начало).
Немного о типах задач машинного обучения: прикладные и исследовательские
Домашнее задание:
В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответстветсвующие разделяющие гиперплоскости.
Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константта не добавлялась(влият на результат).
Линейные методы классификации и регрессии: метод стохастического градиента
Постановка задачи линейной регрессии через правдоподобие, вероятностные предположения о данных + регуляризаций.
Практическая часть:
Разбор домашнего задания.
Метод стохастического градиента на практике.
Использования torch framework для нахождения градиента сложной функции.
Вероятностная постановка задачи машинного обучения. Регуляризация l1, l2.
Анализ решения задачи оптимизации от параметра регуляризации.
Выбор параметра регуляризации при помощи LOO.
Домашнее задание:
Используя вероятностную постановку задачи для линейной регрессии с априорным предположением p(w) = N(0, I) получить аналитическое решение на оптимальный вектор параметров w.
Использовать метод Cross-Validation вместо метода LOO для выбора оптимального параметра регуляризации gamma.
Построение простой нейросетевой модели: многослойный персептрон.
Обучение персептрона на выборке MNIST.
Подбор гиперпараметров модели.
Пррореживание сетей (без кода, только графики).
Домашнее задание:
Проделать то, что было на семинаре для выборки FashionMnist: подбор гиперпараметров модели (выполнить более подробно чем на семинаре), также провести анализ полученных результатов.
Указать какие минусы вы увидели в подборе гиперпараметров на семинаре (их как минимум 3).
Провести эксперимент с полиномиальным ядром: сгенерировать синтетическую выборку, на которой полиномиальное ядро имеет лучшее качество аппроксимации чем rbf и линейное ядро.
Многомерная линейная регрессия. Метод главных компонент
Регуляризация для многомерной регрессии: используя SVD.
Зависимость качества аппроксимации от числа обусловлености.
Метод главных компонент: визуализация MNIST.
Метод главных компонент: для изображений.
Домашнее задание:
Доказать лемму из семинара.
Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной вбыорки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него.
Нелинейная регрессия. Обощенные линейные модели. Нестандартные функции потерь.
Использовать модель для векторизации предложений из семинара. На основе полученных векторов решить задачу сентимент анализа для выборки Twitter (задача бинарной классификации). В качестве модели рассмотреть логистическую регрессию. Рекомендуется использовать модель Perceptron с третьего семинара, а также функцию ошибки torch.nn.BCELoss. Ссылка на данные: https://drive.google.com/file/d/1k4JrnVcoePEENCYt5iy17dyV_h133j2X/view?usp=sharing (предложения для классификации это последний столбец, а целевая переменная это второй столбец).
Критерии выбора моделей и методы отбора признаков.
Рассматривается две выборки: выборка и выборка. Для обоих выборок построить AdaBoost, GradientBoosting, RandomForest, Bagging. Сравнить качество на обоих выборках. Отличается ли результат? Почему?
Самому сравнить разные методы кластеризации для трех концентрических окружностей.
Весений семестр
Курсовое домашнее задание:
Первое задание:
Дедлайн: 23:59 02.04.2023. Жесткий дедлайн 09.04.2022, каждый день оценка по каждой задаче уменьшается на 0.05. Суммарное количество баллов за каждую задачу 1.
Писать на почту Андрею. Тема письма [MIPT-2022-ML-spring-1] ФИО. В письме прислать .ipynb файлы (или ссылку на диск --- проверьте что есть доступ на чтение!!!).
Второе задание:
Дедлайн: 23:59 07.05.2023. Жесткий дедлайн 14.05.2023, каждый день оценка по каждой задаче уменьшается на 0.05.
Писать на почту Андрею. Тема письма [MIPT-2022-ML-spring-2] ФИО. В письме прислать .ipynb файлы (или ссылку на диск --- проверьте что есть доступ на чтение!!!).
План занятий
Глубокие Нейронные Сети. Сверточные нейросети и Рекурентные сети.