Чого ви навчитеся:
- EDA: дослідницький аналіз даних
- точність, повнота, F1 і каппа метрики
- проста кластеризація даних
- логістична регресія: проста і багаторівнева
- метод найближчих сусідів: kNN
- наївний Байєс
- метод опорних векторів: SVM
- вирішальні дерева м випадковий ліс
- xgboost і градієнтний бустинг
- CatBoost і LightGBM
- Ансамбль голосування та стекінгу
- розширений Python
- основи математичної статистики
- основи машинного навчання
Ми розберемо прикладні підходи до кластеризації та класифікації даних за допомогою машинного навчання для страхового скорингу Prudential у змаганні на Kaggle аж до формування кінцевого результату.
у цьому курсі:
- Проведення дослідницького аналізу даних для пошуку залежностей: EDA.
- Метрики класифікації: точність, повнота, F1, квадратична каппа та матриця неточностей.
- очищення даних та оптимізація споживання пам'яті.
- кластеризація даних та метод найближчих сусідів.
- проста та ієрархічна логістична регресія.
- метод найближчих сусідів і пошук оптимальної моделі.
- метод опорних векторів: SVM.
- Дерево прийняття рішення та випадковий ліс (баггінг).
- XGBosot і градієнтний бустинг.
- LightGBM і CatBoost
- Ансамбль стекінгу для голосування та вибору найкращого результату.
- вивантаження результату для змагання на Kaggle.
- аналітики Python, які вивчають Машинне навчання
- програмісти великих даних
- дослідники великих даних
https://privatelink.de/?https://www.udemy.com/course/ittensive-python-machine-learning-classification/