Data Science для начинающих [PyMagic] [Никулина Анастасия, Петр Ермаков]
Курс Data Science для начинающих
Реальные задачи и проекты, разбор алгоритмов и методов машинного обучения, пробное собеседование
О курсе
Никулина Анастасия
С каждым годом растет число вакансий по машинному обучению, курсов, которые помогают вам приобрести знания в данной сфере, но и параллельно растет конкуренция. Чтобы оставаться конкурентным, повысить свои шансы на получение работы в Data Science, вы должны знать, что сейчас актуально, какие требования у компаний к специалистам.
Данный курс поможет вам обрести базис, понимание, как работают алгоритмы, что находится у них «под капотом», в каких случаях применять тот или иной метод, также он поможет вам применять полученные знания для собственного проекта, если вы хотите использовать машинное обучение, оставаясь на текущем месте работы.
Мы подготовили не просто программу по классическому машинному обучению, мы поделимся знаниями, какие результаты для компании дает применение модели ML, посмотрим, как проводятся А/Б тестирование на практике, познакомим вас с NLP и Deep Learning, возможно вы захотите в дальнейшем развиваться в одной из этих интереснейших сфер.
Помимо самого материала, подготовим с вами pet-project, поможем со сбором и обработкой данных, поделимся основными фишками, как учить материал, проведем митапы, чтобы лучше разобраться, как устроены алгоритмы, поработаем над soft-skills, а также, что очень важно, сделаем предварительное собеседование с актуальными вопросами на позицию Data Scientist. Это поможет вам в несколько раз увеличить вероятность прохождения собеседования в дальнейшем.
Программа
Курс Data Science для начинающих
Реальные задачи и проекты, разбор алгоритмов и методов машинного обучения, пробное собеседование
О курсе
Никулина Анастасия
С каждым годом растет число вакансий по машинному обучению, курсов, которые помогают вам приобрести знания в данной сфере, но и параллельно растет конкуренция. Чтобы оставаться конкурентным, повысить свои шансы на получение работы в Data Science, вы должны знать, что сейчас актуально, какие требования у компаний к специалистам.
Данный курс поможет вам обрести базис, понимание, как работают алгоритмы, что находится у них «под капотом», в каких случаях применять тот или иной метод, также он поможет вам применять полученные знания для собственного проекта, если вы хотите использовать машинное обучение, оставаясь на текущем месте работы.
Мы подготовили не просто программу по классическому машинному обучению, мы поделимся знаниями, какие результаты для компании дает применение модели ML, посмотрим, как проводятся А/Б тестирование на практике, познакомим вас с NLP и Deep Learning, возможно вы захотите в дальнейшем развиваться в одной из этих интереснейших сфер.
Помимо самого материала, подготовим с вами pet-project, поможем со сбором и обработкой данных, поделимся основными фишками, как учить материал, проведем митапы, чтобы лучше разобраться, как устроены алгоритмы, поработаем над soft-skills, а также, что очень важно, сделаем предварительное собеседование с актуальными вопросами на позицию Data Scientist. Это поможет вам в несколько раз увеличить вероятность прохождения собеседования в дальнейшем.
Программа
- Основы Python
- SQL
- Математический анализ
- Линейная алгебра
- Статистика
- А/Б тестирование
- Теория вероятностей
- Методы оптимизации
- Машинное обучение. Введение
- Линейные алгоритмы
- Способы борьбы с переобучением
- Деревья
- Метрические алгоритмы
- Байесовские модели
- Кластерный анализ
- Ансамблирование, стекинг и блендинг
- NLP
- Deep Learning
Основы Python
Кластерный анализ
- Что такое Python?
- Основные структуры данных и типы переменных
- Anaconda & Jupyter Notebook
- Алгоритмы сортировки
- Основы синтаксиса
- Соединение таблиц
- Оконные функции
- Ранжирующие функции
- Функции смещения
- Графики функций
- Предел и производная
- Задача нахождения экстремума
- Интеграл
- Градиент
- Векторы и операции на ними
- Матрицы и операции над ними
- Системы линейных уравнений (СЛАУ)
- Методы решения систем линейных алгебраических уравнений
- Матричные разложения
- Сингулярное разложение матриц SVD
- Основные определения
- Описательные статистики
- Параметры, характеризующие разброс
- Нормальное распределение
- Центральная предельная теорема
- Доверительные интервалы
- Проверка гипотез. Меры различий
- Параметрические критерии. Одновыборочный критерий t-Стьюдента
- Параметрические критерии. Двухвыборочный критерий t-Стьюдента
- Непараметрические критерии. Критерии Манна-Уитни
- Корреляция
- Корреляция Пирсона
- Корреляция Спирмена
- Ведение
- Основные статистические критерии
- Мощность и корректность
- Что нужно знать перед запуском теста?
- Метод повышения чувствительности CUPED
- Основные определения
- Свойства вероятности
- Условная вероятность
- Формула полной вероятности и Теорема Байеса
- Элементы комбинаторики
- Градиентный спуск
- Стохастический градиентный спуск
- Генетические алгоритмы
- Алгоритм дифференциальной эволюции
- Что такое Data Science и для чего он нужен?
- Подробный процесс разработки моделей
- Разведочный анализ данных (exploratory data analysis, EDA)
- Визуализация: библиотеки и методы
- Обучение с учителем
- Обучение без учителя
- Преобразования признаков
- Методы масштабирования признаков
- Кодирование категориальных признаков
- Линейная регрессия
- Метод максимального правдоподобия
- Метрики качества в задачах регрессии
- Линейные алгоритмы. Классификация
- Линейный классификатор
- Ошибка в задачах классификации. Функция потерь
- SVM. Нелинейные ядра
- Спрямляющие пространства
- Логистическая регрессия
- Метрики качества в задачах классификации
- Регуляризация
- Оценка работы алгоритма
- Отложенная выборка
- Кросс-валидация
- Кросс-валидация со стратифицированной выборкой
- Решающие деревья
- Построение деревьев
- Критерии информативности
- Критерий информативности для регрессии
- Критерий информативности для классификации
- Энтропийный критерий информативности
- Критерий останова
- Стрижка деревьев
- Композиции деревьев
- Бутстрап
- Бэггинг
- Случайные леса
- Определение бустинга
- Градиентный бустинг
- XGBoost
- Метод k-ближайших соседей
- Метрики
Кластерный анализ
- Метрики качества кластеризации
- K-means
- Графовые методы. Spectral Clustering
- Иерархическая кластеризация
- DBSCAN
- Метод главных компонент PCA
- Блендинг
- Стэкинг
- Быстрое погружение в лингвистику
- Превращение текста в вектор
- Морфологический анализ
- Сравнение текстов
- Задачи NLP
- Машинное обучение на текстах
- Фичи на текстах
- Задачи машинного обучения на текстах
- Best practices
- Альтернативные подходы к подготовке фичей на текстах
- Задачи выделения фактов
- В чем отличия от классического ML?
- Почему это стало возможным?
- Преимущества глубокого обучения
- Сферы применения
- Ключевые компоненты алгоритма глубокого обучения
- Основные глубокие архитектуры
- Подход к изучению: что должен знать специалист по DL?
https://pymagic.ru/
goto/post?id=8526997#post-8526997