Що нового?

Набір учасників [PyMagic] Data Science для початківців (Нікуліна Анастасія, Петро Єрмаков)

Інформація про покупку
Тип покупки: Складчина
Ціна: 22059 ГРН
Учасників: 0 з 184
Організатор: Відсутній
Статус: Набір учасників
Внесок: 124.7 ГРН
0%
Основний список
Резервний список

Gadzhi

Модератор

# Для кого
Підійде для початківців, хто тільки хоче освоїти Машинне навчання, не важливо, в якій сфері ви працювали. Також потрібні знання шкільної математики, базових принципів

# що отримуєте
Знання, як працюють алгоритми машинного навчання
Практика на реальних даних
Власний pet-project

# працевлаштування
Допомагаємо грамотно скласти резюме
Проведемо попередню співбесіду

основи Python
  • Що таке Python?
  • основні структури даних і типи змінних
  • Anaconda & Jupyter Notebook
  • алгоритми сортування
SQL
  • основи синтаксису
  • З'єднання таблиць
  • віконні функції
  • Ранжуючі функції
  • функції зміщення
Математичний аналіз
  • графіки функцій
  • межа і похідна
  • Завдання знаходження екстремуму
  • Інтеграл
  • градієнт
Лінійна алгебра
  • вектори та операції на них
  • матриці та операції над ними
  • системи лінійних рівнянь (СЛАУ)
  • методи розв'язання систем лінійних алгебраїчних рівнянь
  • матричні розкладання
  • сингулярне розкладання матриць SVD
Статистика
  • основні визначення
  • описові статистики
  • параметри, що характеризують розкид
  • нормальний розподіл
  • Центральна гранична теорема
  • довірчі інтервали
  • перевірка гіпотез. Заходи відмінностей
  • параметричні критерії. Одновибірковий критерій t-Стьюдента
  • параметричні критерії. Двовибірковий критерій t-Стьюдента
  • непараметричні критерії. Критерії Манна-Уїтні
  • кореляція
  • кореляція Пірсона
  • кореляція Спірмена
А/Б тестування
  • ведення
  • основні статистичні критерії
  • потужність і коректність
  • що потрібно знати перед запуском тесту?
  • метод підвищення чутливості cuped
Теорія ймовірностей
  • основні визначення
  • властивості ймовірності
  • умовна ймовірність
  • Формула повної ймовірності та Теорема Байєса
  • елементи комбінаторики
методи оптимізації
  • градієнтний спуск
  • стохастичний градієнтний спуск
  • генетичні алгоритми
  • Алгоритм диференціальної еволюції
Машинне навчання. Введення
  • Що таке Data Science і для чого він потрібен?
  • детальний процес розробки моделей
  • розвідувальний аналіз даних (exploratory data analysis, EDA)
  • Візуалізація: бібліотеки та методи
  • навчання з учителем
  • навчання без вчителя
  • перетворення ознак
  • методи масштабування ознак
  • кодування категоріальних ознак
лінійні алгоритми
  • лінійна регресія
  • метод максимальної правдоподібності
  • Метрики якості в задачах регресії
  • Лінійні алгоритми. Класифікація
  • лінійний Класифікатор
  • помилка в задачах класифікації. Функція втрат
  • SVM. Нелінійні ядра
  • Спрямляющие простору
  • логістична регресія
  • Метрики якості в задачах класифікації
способи боротьби з перенавчанням
  • Регуляризация
  • оцінка роботи алгоритму
  • відкладена вибірка
  • крос-валідація
  • крос-валідація зі стратифікованою вибіркою
дерева
  • вирішальні дерева
  • побудова дерев
  • Критерії інформативності
  • критерій інформативності для регресії
  • критерій інформативності для класифікації
  • ентропійний критерій інформативності
  • критерій зупинки
  • Стрижка дерев
  • композиції дерев
  • Бутстрап
  • Бэггинг
  • випадкові ліси
  • визначення бустингу
  • градієнтний бустинг
  • XGBoost
метричні алгоритми
  • Метод k-найближчих сусідів
  • Метрики
Байєсівські моделі
Кластерний аналіз
  • Метрики якості кластеризації
  • K-means
  • графові методи. Spectral Clustering
  • ієрархічна кластеризація
  • DBSCAN
  • метод головних компонент PCA
Ансамблювання, стекінг і блендінг
  • Блендінг
  • Стэкинг
NLP
  • швидке занурення в лінгвістику
  • перетворення тексту в вектор
  • морфологічний аналіз
  • порівняння текстів
  • Завдання NLP
  • Машинне навчання на текстах
  • фічі на текстах
  • Завдання машинного навчання на текстах
  • Best practices
  • альтернативні підходи до підготовки фичів на текстах
  • Завдання виділення фактів
Deep Learning
  • У чому відмінності від класичного ML?
  • чому це стало можливим?
  • переваги глибокого навчання
  • сфери застосування
  • ключові компоненти алгоритму глибокого навчання
  • основні глибокі архітектури
  • підхід до вивчення: що повинен знати фахівець з DL?
https://privatelink.de/?https://pymagic.ru/
 
Угорі