Быстрые ссылки: Перейти на главную | Список курсов | Расписание | Заявка на курс | Ответы на вопросы экспертов
Ищите что-то конкретное?Контакты ↓

Наши контакты

☎ +7 (7172) 46 97 51
☎ +7 (777) 241 72 98
☎ +7 (747) 716 21 22
nataciscotrain.kz
asemciscotrain.kz
infociscotrain.kz
raushanciscotrain.kz
Гоголя 39, каб. 301
Казахстан, г. Астана, ул. Иманбаевой 8

Data Science: Машинное обучение в R / Data Science: Machine Learning in R город Астана

40
11 - 15.05.2020

        Данный курс предназначен для изучения  алгоритмов машинного обучения с практическим применением техник машинного обучения реализованных в R. Рассматриваются понятия data mining, измерения производительности и уменьшения размерности, регрессионные модели, байессовская модель, SVM и ассоциативные правила для анализа. После успешного завершения данного курса вы сможете понимать  и объяснять принципы работы алгоритмов машинного обучение , и применять данные алгоритмы на реальных задачах в больших данных.

Аудитория

Специалисты по работе с большими данными, бизнес аналитики и руководители желающие получить расширенную  теоретическую и практическую подготовку по методам Data Mining для участия в проектах анализа больших данных

Предварительная подготовка

·         Понимание основ статистики

·         Опыт работы c R-Studio  или  знание в рамках курса DataScience-DataAnalysis & Visualization: Data Science: Анализ данных и визуализация в R (ссылка)

Содержание курса

Программа

1. Основы статистики и простая линейная регрессия

Что такое ваши данные. Статистические выводы. Введение в машинное обучение. Простая линейная регрессия. Диагностика и трансформация. Коэффициент определенности

2. Множественная линейная регрессия и обобщенная линейная модель

Множественная линейная регрессия. Допущения и диагностика. Обобщенные линейные модели. Логистическая регрессия. Оценка максимального правдоподобия. Интерпретация модели. Оценка соответствия модели.

3. Алгоритм ближайших соседей, наивный байессовский анализ и "проклятие размерности"

Алгоритм K-ближайших соседей. Выбор К и меры расстояния. Условная вероятность: теорема Байеса.

Оценка Лапласа. Уменьшение размерности. Процедура PCA. Ridge и регрессия Лассо. Перекрестная проверка.

4. Метод опорных векторов и модели деревьев

Деревья решений. Bagging. Случайные леса. Boosting. Важность переменной. Сортировка полей и поддержка векторного классификатора. Метод опорных векторов.

5. Кластерный анализ и нейронные сети

Кластерный анализ. K-means кластеризация. Иерархическая кластеризация. Нейронные сети и персептроны

Сигмоидные нейроны. Сетевая топология и скрытые функции. Метод обратного распространения ошибки с градиентным спуском.

 Подходит? Подать заявку на этот курс