# Для кого
Підійде для початківців, хто тільки хоче освоїти Машинне навчання, не важливо, в якій сфері ви працювали. Також потрібні знання шкільної математики, базових принципів
# що отримуєте
Знання, як працюють алгоритми машинного навчання
Практика на реальних даних
Власний pet-project
# працевлаштування
Допомагаємо грамотно скласти резюме
Проведемо попередню співбесіду
основи Python
Кластерний аналіз
- Що таке Python?
- основні структури даних і типи змінних
- Anaconda & Jupyter Notebook
- алгоритми сортування
- основи синтаксису
- З'єднання таблиць
- віконні функції
- Ранжуючі функції
- функції зміщення
- графіки функцій
- межа і похідна
- Завдання знаходження екстремуму
- Інтеграл
- градієнт
- вектори та операції на них
- матриці та операції над ними
- системи лінійних рівнянь (СЛАУ)
- методи розв'язання систем лінійних алгебраїчних рівнянь
- матричні розкладання
- сингулярне розкладання матриць SVD
- основні визначення
- описові статистики
- параметри, що характеризують розкид
- нормальний розподіл
- Центральна гранична теорема
- довірчі інтервали
- перевірка гіпотез. Заходи відмінностей
- параметричні критерії. Одновибірковий критерій t-Стьюдента
- параметричні критерії. Двовибірковий критерій t-Стьюдента
- непараметричні критерії. Критерії Манна-Уїтні
- кореляція
- кореляція Пірсона
- кореляція Спірмена
- ведення
- основні статистичні критерії
- потужність і коректність
- що потрібно знати перед запуском тесту?
- метод підвищення чутливості cuped
- основні визначення
- властивості ймовірності
- умовна ймовірність
- Формула повної ймовірності та Теорема Байєса
- елементи комбінаторики
- градієнтний спуск
- стохастичний градієнтний спуск
- генетичні алгоритми
- Алгоритм диференціальної еволюції
- Що таке Data Science і для чого він потрібен?
- детальний процес розробки моделей
- розвідувальний аналіз даних (exploratory data analysis, EDA)
- Візуалізація: бібліотеки та методи
- навчання з учителем
- навчання без вчителя
- перетворення ознак
- методи масштабування ознак
- кодування категоріальних ознак
- лінійна регресія
- метод максимальної правдоподібності
- Метрики якості в задачах регресії
- Лінійні алгоритми. Класифікація
- лінійний Класифікатор
- помилка в задачах класифікації. Функція втрат
- SVM. Нелінійні ядра
- Спрямляющие простору
- логістична регресія
- Метрики якості в задачах класифікації
- Регуляризация
- оцінка роботи алгоритму
- відкладена вибірка
- крос-валідація
- крос-валідація зі стратифікованою вибіркою
- вирішальні дерева
- побудова дерев
- Критерії інформативності
- критерій інформативності для регресії
- критерій інформативності для класифікації
- ентропійний критерій інформативності
- критерій зупинки
- Стрижка дерев
- композиції дерев
- Бутстрап
- Бэггинг
- випадкові ліси
- визначення бустингу
- градієнтний бустинг
- XGBoost
- Метод k-найближчих сусідів
- Метрики
Кластерний аналіз
- Метрики якості кластеризації
- K-means
- графові методи. Spectral Clustering
- ієрархічна кластеризація
- DBSCAN
- метод головних компонент PCA
- Блендінг
- Стэкинг
- швидке занурення в лінгвістику
- перетворення тексту в вектор
- морфологічний аналіз
- порівняння текстів
- Завдання NLP
- Машинне навчання на текстах
- фічі на текстах
- Завдання машинного навчання на текстах
- Best practices
- альтернативні підходи до підготовки фичів на текстах
- Завдання виділення фактів
- У чому відмінності від класичного ML?
- чому це стало можливим?
- переваги глибокого навчання
- сфери застосування
- ключові компоненти алгоритму глибокого навчання
- основні глибокі архітектури
- підхід до вивчення: що повинен знати фахівець з DL?
https://privatelink.de/?https://pymagic.ru/