Що нового?

Придбаний Машинное обучение: выделение факторов на Python [Центр digital-профессий ITtensive] [Udemy]

Інформація про покупку
Тип покупки: Складчина
Ціна: 566 ГРН
Учасників: 0 з 26
Організатор: Відсутній
Статус: Набір учасників
Внесок: 22.6 ГРН
0%
Основний список
Резервний список

Gadzhi

Модератор
Машинное обучение: выделение факторов на Python
Выигрываем хакатон по выделению факторов: линейная регрессия, взаимная информация, PCA, ICA, NMF, MDS, t-SNE

Авторы:
Последнее обновление: 1/2021
русский




Чему вы научитесь
  • Процесс и модель машинного обучения
  • Линейная регрессия и L1/L2 регуляризация
  • Решающие деревья и ансамбли стекинга
  • Корреляция и взаимная информация
  • Метод главных компонент (PCA)
  • Сингулярное разложение (SVD)
  • Анализ независимых компонент (ICA)
  • Многомерное шкалирование (MDS)
  • t-SNE, UMAP, LargeVis
Материалы курса
10 разделов • 46 лекций • Общая продолжительность 6 ч 19 мин

Требования




    • Продвинутый Python
    • Основы математической статистики
Описание
Мы разберем задачу хакатона 2020 года по выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.

Курс разбит на 4 части. В первой части мы последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.

Во второй части на практике разберем:





    • Очистку и предобработку данных - ETL
    • Линейную регрессию для экстраполяции данных
    • Линейную регрессию с регуляризацией для выделения факторов
    • Информационные критерии понижения размерности
В заключении создадим ансамбль стекинга из простых моделей понижения размерности.

Третья часть посвящена матричным методам:





    • Метод главных компонент (PCA)
    • Сингулярное разложение (SVD)
    • Анализ независимых компонент (ICA)
    • Положительно-определенные матрицы (NMF)
Уточним решение задачи обучения без учителя через матричные методы.

В четвертой части рассмотрим нелинейные подходы:





    • Многомерное шкалирование (MDS).
    • t-SNE
    • UMAP
    • LargeVis
Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.

Для кого этот курс:




    • Аналитики Python, изучающие машинное обучение
    • Программисты больших данных
    • Исследователи больших данных

      https://www.udemy.com/course/ittensive-machine-learning-features/#instructor-1
 
Угорі