КурсыMBAКомпанииГранты на обучениеВузыПовысь зарплату

EduMarket Образование
  Вход на сайт
 
Напомнить   
Запомнить меня
 
Пользовательское соглашение


Публикации и новости

Анонсы и релизы (592)

 

Бесплатные видеокурсы (3013)

 

Статьи (2986)

 

Новости (550)

 

Победители конкурса грантов (124)

 


 
СМИ / Бесплатные видеокурсы / IT: Для программистов и IT-специалистов / Бесплатные видеолекции: Алгоритмы интеллектуальной обработки больших объемов данных (Data Mining)

Бесплатные видеолекции: Алгоритмы интеллектуальной обработки больших объемов данных (Data Mining)

Преподаватели курса: Николай Анохин, Владимир Гулин и Павел Нестеров

Цель курса — изучение студентами как классических, так и современных подходов к решению задач Data Mining, основанных на алгоритмах машинного обучения.

Объемы данных, ежедневно генерируемые сервисами крупной интернет-компании, поистине огромны. Цель динамично развивающейся в последние годы дисциплины Data Mining состоит в разработке подходов, позволяющих эффективно обрабатывать такие данные для извлечения полезной для бизнеса информации. Эта информация может быть использована при создании рекомендательных и поисковых систем, оптимизации рекламных сервисов или при принятии ключевых бизнес-решений.

Продолжительность (13 видео): 22 ч 05 мин

Лекция 1. Задачи Data Mining (Николай Анохин)

Обзор задач Data Mining. Стандартизация подхода к решению задач Data Mining. Процесс CRISP-DM. Виды данных. Кластеризация, классификация, регрессия. Понятие модели и алгоритма обучения.



Лекция 2. Задача кластеризации и ЕМ-алгоритм
(Николай Анохин)

Постановка задачи кластеризации. Функции расстояния. Критерии качества кластеризации. EM-алгоритм. K-means и модификации.



Лекция 3. Различные алгоритмы кластеризации
(Николай Анохин)

Иерархическая кластеризация. Agglomerative и Divisive алгоритмы. Различные виды расстояний между кластерами. Stepwise-optimal алгоритм. Случай неэвклидовых пространств. Критерии выбора количества кластеров: rand, silhouette. DBSCAN.



Лекция 4. Задача классификации (Николай Анохин)

Постановка задач классификации и регрессии. Теория принятия решений. Виды моделей. Примеры функций потерь. Переобучение. Метрики качества классификации. MDL. Решающие деревья. Алгоритм CART.



Лекция 5. Naive Bayes
(Николай Анохин)

Условная вероятность и теорема Байеса. Нормальное распределение. Naive Bayes: multinomial, binomial, gaussian. Сглаживание. Генеративная модель NB и байесовский вывод. Графические модели.



Лекция 6. Линейные модели
(Николай Анохин)

Обобщенные линейные модели. Постановка задачи оптимизации. Примеры критериев. Градиентный спуск. Регуляризация. Метод Maximum Likelihood. Логистическая регрессия.



Лекция 7. Метод опорных векторов (Николай Анохин)

Разделяющая поверхность с максимальным зазором. Формулировка задачи оптимизации для случаев линейно-разделимых и линейно-неразделимых классов. Сопряженная задача. Опорные векторы. KKT-условия. SVM для задач классификации и регрессии. Kernel trick. Теорема Мерсера. Примеры функций ядра.



Лекция 8. Снижение размерности пространства (Владимир Гулин)

Проблема проклятия размерности. Отбор и выделение признаков. Методы выделения признаков (feature extraction). Метод главных компонент (PCA). Метод независимых компонент (ICA). Методы, основанные на автоэнкодерах. Методы отбора признаков (feature selection). Методы, основанные на взаимной корреляции признаков. Методы максимальной релевантности и минимальной избыточности (mRMR). Методы, основанные на деревьях решений.



Лекция 9. Алгоритмические композиции 1
(Владимир Гулин)

Комбинации классификаторов. Модельные деревья решений. Смесь экспертов. Stacking. Стохастические методы построения ансамблей классификаторов. Bagging. RSM. Алгоритм RandomForest.



Лекция 10. Алгоритмические композиции 2
(Владимир Гулин)

Ключевые идеи бустинга. Отличия бустинга и бэггинга. Алгорим AdaBoost. Градиентный бустинг. Мета-алгоритмы над алгоритмическими композициями. Алгоритм BagBoo.



Лекция 11. Нейросети, обучение с учителем
(Павел Нестеров)

Биологический нейрон и нейронные сети. Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть. Персептрон Розенблатта и Румельхарта. Алгоритм обратного распространения ошибки. Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой. Различные режимы обучения.



Лекция 12. Нейросети, обучение без учителя
(Павел Нестеров)

Нейросетейвой автоэнкодер. Стохастические и рекурентные нейронные сети. Машина Больцмана и ограниченная машина Больцмана. Распределение Гиббса. Алгоритм contrastive divergence для обучения РБМ. Сэмплирование данных из РБМ. Бинарная РБМ и гауссово-бинарная РБМ. Влияние регуляризации, нелинейное сжатие размерности, извлечение признаков. Semantic hashing.



Лекция 13. Нейросети, глубокие сети (Павел Нестеров)

Трудности обучения многослойного персептрона. Предобучение с использованием РБМ. Глубокий автоэнкодер, глубокая многослойная нейросеть. Deep belief network и deep Boltzmann machine. Устройство человеческого глаза и зрительной коры головного мозга. Сверточные сети.

Другие бесплатные видеокурсы
Все бесплатные видеокурсы, IT обучение
Пользовательское соглашение       Обратная связь       Карта сайта

© 2006—2024 Edumarket