Скачать [Udemy] Mашинное обучение: из грязи в Kaggle-князи [Центр digital-профессий ITtensive]

  • Складчина создана: Дата начала
Информация
Цена: 90 РУБ
Организатор: Kail Kail
Статус:
Набор участников
Список участников
  • 1.
    Viktor 1
  • 2.
    Viktor Volochkov
Kail
Kail
Организатор
Проверенный
Организатор
Регистрация
09.04.2020
Сообщения
333 470
Реакции
28 339
Монеты
1 191
Оплачено
0
Баллы
0
  • #SkladchinaVip
  • #1
[Udemy] Mашинное обучение: из грязи в Kaggle-князи [Центр digital-профессий ITtensive]
Ссылка на картинку
  • Машинное обучение: из грязи в Kaggle-князи
    Регрессия, классификация, нейросети, ансамбли, обучение с подкреплением, понижение размерности
    Описание
    Большой практический курс по всем аспектам машинного обучения на Python в решении задач соревнования Kaggle. Курс состоит из 3 больших частей:
    Регрессия и предсказание данных
    Рассмотрим все практические аспекты применения линейной регрессии для предсказания числовых показателей энергопотребления ASHRAE.
    • Особенности процесса анализа данных (ETL): загрузка, очистка, объединение наборов данных с pandas.
    • Проведение исследовательского анализа данных для поиска зависимостей: EDA.
    • Использование sklearn для линейной регрессии.
    • Интерполяция и экстраполяция данных.
    • Расчет метрики качества RMSLE для моделей линейной регрессии.
    • Оптимизация линейной регрессии: выбор наилучших параметров и гиперпараметров.
    • Оптимизация потребления памяти при работе с большими данными.
    • Запасные модели линейной регрессии.
    • Ансамбли линейной регрессии для уточнения предсказания.
    • Экспорт и импорт данных, включая промежуточные.
  • Кластеризация и классификация
    Отработаем прикладные подходы к кластеризации и классификации данных с помощью машинного обучения для страхового скоринга Prudential.
    • Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей.
    • Очистка данных и оптимизация потребления памяти.
    • Кластеризация данных и метод ближайших соседей.
    • Простая и иерархическая логистическая регрессия.
    • Метод ближайших соседей и поиск оптимальной модели.
    • Метод опорных векторов: SVM.
    • Дерево принятия решения и случайный лес (бэггинг).
    • XGBosot и градиентный бустинг.
    • LightGBM и CatBoost
    • Ансамбль стекинга для голосования и выбора лучшего результата.
  • Нейросети и глубокое обучение
    Разберем сегментацию и классификацию изображений облаков с помощью сверточных, пирамидальных, остаточных и полносвязных нейронных сетей.
    • Метрики точности: оценка F1 и коэффициент Дайса.
    • Очистка данных и обработка изображений.
    • Загрузка и сохранение моделей и данных в HDF5.
    • Двухслойный и многослойный перцептрон.
    • Нейросети со сверточными слоями и слоями подвыборки.
    • Функции активации, инициализация и оптимизаторы нейросетей.
    • Преобразование и дополнение (аугментация) бинарных данных.
    • LeNet, AlexNet, GoogLeNet.
    • VGG, Inception, ResNet, DenseNet.
    • Сегментация изображений с MobileNet, Unet, PSPNet и FPN.
    • Ансамбль нейросетей.
  • Для кого этот курс:
    • Аналитики Python, изучающие машинное обучение
    • Программисты больших данных
    • Исследователи больших данных
 
Зарегистрируйтесь , чтобы посмотреть скрытый авторский контент.
Поиск по тегу:
Теги
kaggle mашинное обучение udemy аналитики python
Похожие складчины
Kail
Ответы
0
Просмотры
124
Kail
Kail
Kail
Ответы
0
Просмотры
364
Kail
Kail
Kail
Ответы
0
Просмотры
557
Kail
Kail
Kail
Ответы
0
Просмотры
100
Kail
Kail
Kail
  • Kail
  • Цена: 110 руб
0
Ответы
0
Просмотры
366
Kail
Kail
Показать больше складчин

Войдите или зарегистрируйтесь для участия в складчине

Вы должны быть авторизованны для просмотра и оценки материала

Создать аккаунт

Создать учетную запись займет не больше минуты!

Войти

Уже зарегистрированы? Просто войдите.