Що нового?

Набір учасників [[Ozone Masters] Data Science and Data Engineering, Business Intelligence. Семестр 1 - 2021

Інформація про покупку
Тип покупки: Складчина
Ціна: 55148 ГРН
Учасників: 0 з 345
Організатор: Відсутній
Статус: Набір учасників
Внесок: 166.2 ГРН
0%
Основний список
Резервний список

Gadzhi

Модератор

Про програму

Ozon Masters-це програма навчання в області аналізу даних.
Ми пропонуємо два напрямки: теоретичне з ухилом в програмування Data Science і Data Engineering і сфокусоване на практичних кейсах Business Intelligence.
Наша лінійка курсів відповідає програмам підготовки в області машинного навчання та бізнес-аналітики провідних університетів світу.

напрямки
1. Data Science and Data Engineering
Ця програма дає глибокі теоретичні та практичні навички в області аналізу даних. Фокус на тому, що реально працює. Жорстка математика і дуже багато практики.

2. Business Intelligence
Це програма з підготовки бізнес-аналітиків з глибоким знанням аналізу даних.

Модуль 1-Машинне навчання 1
Основне завдання програми-ознайомити студентів з теоретичними основами та основними принципами машинного навчання: з класами моделей (лінійні, логічні, нейромережеві), метриками та підходами до підготовки даних.
особлива увага в курсі приділяється питанням передобробки та підготовки даних, генерації та селекції ознак, розвідувального аналізу даних. В курсі багато прикладів і практичних порад. Крім класичних тем, приділяється час аналізу складних мереж, методам інтерпретації даних і моделей.

Блок 1-Вступна лекція
  1. Наука про дані (Data Sciense)
  2. Статистика (Statistics)
  3. штучний інтелект (Artificial Intelligence)
  4. аналіз даних (Data Mining)
  5. Машинне навчання (Machine learning)
  6. великі дані (Big Data)
Блок 2-Постановка основних завдань машинного навчання
  1. навчання з учителем (з розміченими даними/мітками)
  2. цільова функція
  3. Об'єкт
  4. мітка
  5. Класифікація
  6. прогнозування
  7. простір об'єктів
  8. Ознаковий простір
  9. Витяг ознак
  10. Візуалізація завдань
  11. функції помилки
  12. емпіричний ризик
  13. Навчальна вибірка
  14. завдання оптимізації в навчанні
  15. модель алгоритмів
  16. Алгоритм
  17. навчання
  18. узагальнююча здатність
  19. Схема розв'язання задачі машинного навчання
  20. як вирішуються завдання
  21. навчання без вчителя/C нерозміченими даними
  22. навчання з частково розміченими даними
  23. Трансдуктивне навчання
  24. навчання з підкріпленням
  25. структурний висновок
  26. активне навчання
  27. онлайн-навчання
  28. Transfer Learning
  29. Multitask Learning
  30. Feature Learning
  31. проблеми в машинному навчанні
  32. приклади модельних задач
Блок 3 - Математика в машинному навчанні: короткий огляд
  1. Бритва Оккама
  2. Теорема про безкоштовний сир
  3. футбольний оракул
  4. відомості з твімс
  5. Завдання розподілів
  6. середні та відхилення
  7. умовна щільність, маргіналізація і обумовлення
  8. точкове оцінювання
  9. оцінка максимальної правдоподібності
  10. дивергенція Кульбака-Лейблера
  11. Коваріація та кореляція
  12. оцінка щільності
  13. Гістограмного підходу
  14. парзенівський підхід
  15. нормальний розподіл
  16. Центральна гранична теорема
  17. теорія інформації
  18. прокляття розмірності
  19. сингулярне розкладання матриці (SVD)
  20. матричне диференціювання
Блок 4-оптимізація
  1. методи безумовної оптимізації
  2. методи нульового порядку
  3. методи першого порядку
  4. методи другого порядку
  5. градієнтний спуск
  6. найшвидший градієнтний спуск
  7. стохастичний градієнтний спуск
  8. навчання: Пакетне, онлайн, по мінібатчам
  9. метод градієнтного спуску в машинному обу-чении
  10. стаціонарні точки
  11. метод Ньютона
  12. квазі-ньютонівські методи
  13. Оптимізація з обмеженнями
Блок 5-метричні алгоритми
  1. метричні алгоритми (distance-based)
  2. найближчий Центроїд (Nearest centroid algorithm)
  3. підхід, заснований на близькості
  4. kNN в задачі класифікації
  5. kNN в задачі регресії
  6. обґрунтування 1NN
  7. ліниві (Lazy) і нетерплячі (Eager) алгоритми
  8. вагові Узагальнення kNN
  9. різні метрики: Мінковського, евклідова, Манхеттенська, Махалонобіса, Canberra distance, Хеммінга, косинусна, відстань Джаккарда, DTW, Левенштейна
  10. Додатки метричного підходу: нечіткий матчинг таблиць, Ленкор, в DL, Класифікація тек-стов
  11. ефективні методи пошуку найближчих сусідів
  12. регресія Надарая-Ватсона
Блок 6-Контроль якості та вибір моделі
  1. проблема контролю якості
  2. вибору моделі (Model Selection) в широкому сенсі
  3. правила розбиття вибірки
  4. Відкладений контроль (held-out data, hold-out set)
  5. ковзний контроль (cross-validation)
  6. Бутстреп (bootstrap)
  7. Контроль за часом (оut-of-time-контроль)
  8. локальний контроль
  9. криві навчання (Learning Curves)
  10. перебір параметрів
Блок 7-Лінійні методи
  1. лінійна регресія
  2. узагальнена лінійна регресія
  3. Проблема виродження матриці
  4. регуляризація. Основні види регуляризації
  5. гребенева регресія (Ridge Regression)
  6. LASSO (Least Absolute Selection and Shrinkage Operator)
  7. Elastic Net
  8. Селекція ознак
  9. помилка з вагами
  10. стійка регресія (Robust Regression)
  11. Лінійні скорингові моделі в задачі бінарної класифікації
  12. логістична регресія
  13. Probit-регресія
  14. Багатокласова логістична регресія
  15. лінійний класифіка-тор
  16. Персептрон
  17. оцінка функції помилок через гладку функцію
  18. SVM
Блок 8 - нелінійний методи
  1. проблема лінійності
  2. поліноміальна модель
  3. ядерні методи (Kernel Tricks)
  4. приклади ядер
  5. Використання в SVM
  6. Використання в регресії
  7. Кернализация
  8. Математика ядер
  9. RBF, RBF-мережі
Блок 9-дерева рішень
  1. дерева рішень (СART)
  2. предикати/розгалуження
  3. відповіді дерева
  4. Критерії розщеплення в задачах класифікації: Missclassification criteria, ентропійний, Джині
  5. Критерії зупинки при побудові дерев
  6. проблема перенавчання для дерев
  7. підрізування (post-pruning)
  8. класичні алгоритми побудови дерев рішень: ID3, C5.0
  9. важливості ознак
  10. проблема пропусків (Missing Values)
  11. категоріальні ознаки
  12. порівняння: дерева vs лінійні моделі
Блок 10-ансамблі
  1. ансамблі алгоритмів: приклади та обґрунтування
  2. комітети ( голосування)/усереднення
  3. Бэгинг
  4. кодування/перекодування відповідей, ECOC
  5. Стекінг і блендінг
  6. Бустинг: AdaBoost, Forward stagewise additive modeling (FSAM)
  7. "ручні методи"
  8. однорідні ансамблі
Блок 11-випадковий ліс
  1. універсальні методи
  2. випадковий ліс
  3. OOB (out of bag)
  4. налаштування параметрів методів
  5. області стійкості
  6. важливості ознак
  7. Boruta
  8. ACE
  9. близькості, обчислені за RF
  10. Extreme Random Trees
Блок 12-градієнтний бустинг
  1. градієнтний бустинг над деревами
  2. ітерація градієнтного бустингу
  3. Наискорейший спуск
  4. евристика скорочення-Shrinkage
  5. стохастичний градієнтний бустинг
  6. просунуті методи оптимізації
  7. Сучасні реалізації градієнтного бустингу
  8. вбудовані способи контролю
  9. параметри градієнтного бустингу
  10. Case: завдання скорингу (TKS)
  11. калібрування
  12. Case: передбачення відповідей на питання
Блок 13-складність алгоритмів, перенавчання, зміщення і розкид
  1. проблема Узагальнення
  2. перенавчання
  3. Недообучение
  4. складність алгоритмів
  5. зсув і розкид
  6. способи боротьби з перенавчанням
Блок 14-Байєсівський підхід
  1. Формула Байєса
  2. оптимальне рішення задач класифікації
  3. мінімізація середнього ризику
  4. наївний байес (naive Bayes)
  5. Байєсівський підхід в машинному навчанні
  6. метод максимальної правдоподібності
    + Байєсівський підхід у прикладі
  7. MAP
  8. особливості байєсівського підходу
  9. байєсівська теорія для лінійної регресії
  10. логістична регресія
  11. байєсівські точкові оцінки
  12. байєсівські інтервальні оцінки
  13. RVM
Блок 15-кластеризація
  1. Завдання кластеризації, типи кластеризації
  2. k-середніх (Lloyds algorithm)
  3. Узагальнення k-means
  4. модельні завдання кластеризації
  5. affinity propagation: кластеризація повідомленнями між точками
  6. зсув середнього (Mean Shift): виявлення мод щільності
  7. ієрархічна кластеризація (Hierarchical clustering)
  8. типи Linkage
  9. кластеризація на основі мінімального остовного дерева
  10. спектральна кластеризація
  11. DBSCAN
  12. BIRCH
  13. CURE
  14. генеративні моделі
  15. EM
  16. Gaussian Mixture Model (GMM)
Блок 16-навчання без вчителя
  1. Завдання UL
  2. зниження (скорочення) розмірності
  3. PCA
  4. нелінійне скорочення розмірності
  5. Kernel PCA
  6. t-SNE
  7. усунення шуму (Noise Reduction)
  8. генерація даних (Data Generation)
https://privatelink.de/?https://ozonmasters.ru/
 
Угорі