Вы используете мобильную версию

перейти на Полную версию сайта

Доступно

[ITtensive] Машинное обучение: выделение факторов на Python

Складчина [ITtensive] Машинное обучение: выделение факторов на Python. Совместные покупки курсов, тренингов, обучения. Присоединяйтесь! Важен каждый вкладчик.

Тема найдена по тегам:
Цена:
7600 руб
Взнос:
285 руб
Организатор:
Irensi

Список участников складчины:

1. Irensi 2. alexinc 3. Ahha_87
Оцените эту складчину: /5,
  1. Irensi
    Irensi Организатор складчин

    [ITtensive] Машинное обучение: выделение факторов на Python

    [​IMG]

    Чему вы научитесь
    • Процесс и модель машинного обучения
    • Заполнение пропусков в данных
    • Линейная регрессия и L1/L2 регуляризация
    • Решающие деревья и ансамбли стекинга
    • Корреляция и взаимная информация
    • Метод главных компонент (PCA)
    • Сингулярное разложение (SVD)
    • Анализ независимых компонент (ICA)
    • Многомерное шкалирование (MDS)
    • t-SNE, UMAP, LargeVis
    Требования
    • Продвинутый Python
    • Основы математической статистики
    Описание
    Мы разберем задачу хакатона 2020 года по выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.

    Курс разбит на 4 части.
    В первой части мы последовательно пройдем все этапы работы с данными:
    от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.

    Во второй части на практике разберем:
    • Очистку и предобработку данных - ETL
    • Линейную регрессию для экстраполяции данных
    • Линейную регрессию с регуляризацией для выделения факторов
    • Информационные критерии понижения размерности
    В заключении создадим ансамбль стекинга из простых моделей понижения размерности.

    Третья часть посвящена матричным методам:
    • Метод главных компонент (PCA)
    • Сингулярное разложение (SVD)
    • Анализ независимых компонент (ICA)
    • Положительно-определенные матрицы (NMF)
    Уточним решение задачи обучения без учителя через матричные методы.

    В четвертой части рассмотрим нелинейные подходы:
    • Многомерное шкалирование (MDS).
    • t-SNE
    • UMAP
    • LargeVis
    Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.

    Для кого этот курс:
    • Аналитики Python, изучающие машинное обучение
    • Программисты больших данных
    • Исследователи больших данных
     
    Последнее редактирование модератором: 17 мар 2021
    Irensi, 31 янв 2021
  2. Похожие складчины
    Загрузка...
  3. alexinc
    alexinc Складчик
    Привет! Сколько вешать в граммах?
     
    alexinc, 8 апр 2021
  4. Тамплиер
    Тамплиер Модератор
    Здравствуйте. Чем могу Вам помочь?
    Если Вас заинтересовала данная тема, то она на этапе "Доступно".
    Этап Доступно.
    Взносы собраны, продукт выкуплен и выложен для скачивания оплатившим участникам. В Библиотеке идет обсуждение продукта. Участники могут оставить отзыв о складчине.
    Присоединиться на этом этапе можно в любое время. Записываетесь, оплачиваете, получаете продукт после отметки оплаты Организатором.
    Подробнее здесь: Скрытый текст. Доступен только зарегистрированным пользователям.Нажмите, чтобы раскрыть...
    Материал получите в течение 3-х суток с момента оплаты, как только организатор проверит Ваш платеж.
     
    Тамплиер, 8 апр 2021
Наверх