Що нового?

Набір учасників [Udemy] кластерний аналіз та неконтрольоване Машинне навчання на Python

Інформація про покупку
Тип покупки: Складчина
Ціна: 4041 ГРН
Учасників: 0 з 56
Організатор: Відсутній
Статус: Набір учасників
Внесок: 75 ГРН
0%
Основний список
Резервний список

Gadzhi

Модератор

методи Data science для розпізнавання образів, видобутку даних, кластеризації k-середніх та ієрархічної кластеризації, а також KDE.

Кластерний аналіз є основою неконтрольованого машинного навчання та науки про дані.

Це дуже корисно для видобутку даних та великих даних, оскільки воно автоматично знаходить шаблони в даних, не потребуючи міток, на відміну від контрольованого машинного навчання.

У реальному середовищі ви можете уявити, що робот або штучний інтелект не завжди матимуть доступ до оптимальної відповіді, або, можливо, не існує оптимальної правильної відповіді. Ви б хотіли, щоб цей робот міг самостійно досліджувати світ і чогось вчитися, просто вишукуючи закономірності.

Ви коли-небудь замислювалися, як ми отримуємо дані, які ми використовуємо в наших керованих алгоритмах машинного навчання?

Здається, у нас завжди є хороший CSV або таблиця, доповнена Xs та відповідними Ys.

Якщо ви самі не брали участь у зборі даних, можливо, ви не думали про це, але хтось повинен створити ці дані!

Ці " И " повинні звідкись узятися, і більшу частину часу це пов'язано з ручною працею.

Іноді у вас немає доступу до такої інформації, або її отримання неможливе або дороге.

Але ви все одно хочете мати деяке уявлення про структуру даних. Якщо ви займаєтесь аналізом даних, Автоматизація розпізнавання образів у ваших даних була б безцінною.

Ось тут і вступає в гру неконтрольоване Машинне навчання.

У цьому курсі ми спочатку поговоримо про кластеризацію. Саме тут замість того, щоб тренуватися на етикетках, ми намагаємося створювати наші власні етикетки! Ми зробимо це, згрупувавши дані, які виглядають однаково.

Існує 2 методи кластеризації, про які ми поговоримо: кластеризація k-засобів та ієрархічна кластеризація.

Далі, оскільки в машинному навчанні ми любимо говорити про розподіл ймовірностей, ми перейдемо до моделей гауссової суміші та оцінки щільності ядра, де ми поговоримо про те, як "вивчити" розподіл ймовірностей набору даних.

Один цікавий факт полягає в тому, що за певних умов моделі гауссової суміші та кластеризація k-середніх абсолютно однакові! Ми доведемо, як це насправді.

Усі алгоритми, про які ми поговоримо на цьому курсі, є основними для машинного навчання та науки про дані, тому, якщо ви хочете знати, як автоматично знаходити закономірності у ваших даних за допомогою видобутку даних та вилучення шаблонів, не вимагаючи, щоб хтось виконував ручну роботу з маркування цих даних, тоді цей курс для вас.

Всі матеріали для цього курсу безкоштовні. Ви можете завантажити та встановити Python, Numpy та Scipy за допомогою простих команд у Windows, Linux або Mac.

Цей курс стосується "як створювати та розуміти", а не просто "як користуватися". Будь-хто може навчитися використовувати API за 15 хвилин після прочитання деякої документації. Йдеться не про" запам'ятовування фактів", а про те, щоб" побачити все своїми очима " за допомогою експериментів. Це навчить вас, як візуалізувати те, що відбувається всередині моделі. Якщо ви хочете більше, ніж просто поверхневий погляд на моделі машинного навчання, цей курс для вас.

Посилання https://privatelink.de/?https://www.udemy.com/cluster-analysis-unsupervised-machine-learning-python/
 
Угорі