Быстрые ссылки: Перейти на главную | Список курсов | Расписание | Заявка на курс | Ответы на вопросы экспертов | Ищите что-то конкретное? | Контакты ↓ |
☎ +7 (7172) 46 97 51
☎ +7 (777) 241 72 98 ☎ +7 (747) 716 21 22 nataciscotrain.kz asemciscotrain.kz infociscotrain.kz raushanciscotrain.kz Казахстан, г. Астана, ул. Иманбаевой 8
|
Data Science: Машинное обучение в R / Data Science: Machine Learning in R город Астана
Данный курс предназначен для изучения алгоритмов машинного обучения с практическим применением техник машинного обучения реализованных в R. Рассматриваются понятия data mining, измерения производительности и уменьшения размерности, регрессионные модели, байессовская модель, SVM и ассоциативные правила для анализа. После успешного завершения данного курса вы сможете понимать и объяснять принципы работы алгоритмов машинного обучение , и применять данные алгоритмы на реальных задачах в больших данных. Аудитория Специалисты по работе с большими данными, бизнес аналитики и руководители желающие получить расширенную теоретическую и практическую подготовку по методам Data Mining для участия в проектах анализа больших данных Предварительная подготовка · Понимание основ статистики · Опыт работы c R-Studio или знание в рамках курса DataScience-DataAnalysis & Visualization: Data Science: Анализ данных и визуализация в R (ссылка) Содержание курса
Программа 1. Основы статистики и простая линейная регрессия Что такое ваши данные. Статистические выводы. Введение в машинное обучение. Простая линейная регрессия. Диагностика и трансформация. Коэффициент определенности 2. Множественная линейная регрессия и обобщенная линейная модель Множественная линейная регрессия. Допущения и диагностика. Обобщенные линейные модели. Логистическая регрессия. Оценка максимального правдоподобия. Интерпретация модели. Оценка соответствия модели. 3. Алгоритм ближайших соседей, наивный байессовский анализ и "проклятие размерности" Алгоритм K-ближайших соседей. Выбор К и меры расстояния. Условная вероятность: теорема Байеса. Оценка Лапласа. Уменьшение размерности. Процедура PCA. Ridge и регрессия Лассо. Перекрестная проверка. 4. Метод опорных векторов и модели деревьев Деревья решений. Bagging. Случайные леса. Boosting. Важность переменной. Сортировка полей и поддержка векторного классификатора. Метод опорных векторов. 5. Кластерный анализ и нейронные сети Кластерный анализ. K-means кластеризация. Иерархическая кластеризация. Нейронные сети и персептроны Сигмоидные нейроны. Сетевая топология и скрытые функции. Метод обратного распространения ошибки с градиентным спуском.
|