• ВНИМАНИЕ! НОВЫЙ АДРЕС САЙТА

    РКН заблокировал текущий домен

    Актуальный адрес сайта всегда указан здесь - EGROUND-ZERKALO.COM

Скачать Машинное обучение: выделение факторов на Python - Центр digital-профессий ITtensive (2021)

wowpro

wowpro

Unlimited
Сообщения
14.443
Лайки
9.495
Машинное обучение: выделение факторов на Python
Центр digital-профессий ITtensive -Udemy

Скачать Машинное обучение: выделение факторов на Python - Центр digital-профессий ITtensive (2021)


Выигрываем хакатон по выделению факторов: линейная регрессия, взаимная информация, PCA, ICA, NMF, MDS, t-SNE

Чему вы научитесь

  • Процесс и модель машинного обучения
  • Линейная регрессия и L1/L2 регуляризация
  • Решающие деревья и ансамбли стекинга
  • Корреляция и взаимная информация
  • Метод главных компонент (PCA)
  • Сингулярное разложение (SVD)
  • Анализ независимых компонент (ICA)
  • Многомерное шкалирование (MDS)
  • t-SNE, UMAP, LargeVis
Материалы курса
10 разделов • 46 лекций • Общая продолжительность 6 ч 19 мин

Требования

  • Продвинутый Python
  • Основы математической статистики
Описание
Мы разберем задачу хакатона 2020 года по выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.

Курс разбит на 4 части. В первой части мы последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.

Во второй части на практике разберем:
  • Очистку и предобработку данных - ETL
  • Линейную регрессию для экстраполяции данных
  • Линейную регрессию с регуляризацией для выделения факторов
  • Информационные критерии понижения размерности
В заключении создадим ансамбль стекинга из простых моделей понижения размерности.

Третья часть посвящена матричным методам:

  • Метод главных компонент (PCA)
  • Сингулярное разложение (SVD)
  • Анализ независимых компонент (ICA)
  • Положительно-определенные матрицы (NMF)
Уточним решение задачи обучения без учителя через матричные методы.

В четвертой части рассмотрим нелинейные подходы:

  • Многомерное шкалирование (MDS).
  • t-SNE
  • UMAP
  • LargeVis
Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.

Для кого этот курс:

  • Аналитики Python, изучающие машинное обучение
  • Программисты больших данных
  • Исследователи больших данных


Продажник:

Скачать:
Скрытое содержимое могут видеть только пользователь группы: PRO
Скрытое содержимое для пользователей: Ferr
 
Сверху Снизу