[Udemy]Машинное обучение с Python + Big Data - (Курс 11 из 17)
Phyrshtadskaya4k, ты можешь записаться в эту складчину и получить инфопродукт сразу после оплаты, никого не дожидаясь.
---
Формат: транскрибация видео
Продолжительность: ~ 04:48
Перевод: Красный Кут
Тип перевода: Транскрибация с русским переводом
Всего: 39 видео лекции
Готовность: 18.03.19
Решил сделать перевод всех курсов Lazy Programmer Inc. о искусственном интеллекте, машинном обучении,- взяв за основу материалы из этой .
Вы также можете изучить на русском языке следующие курсы этого автора:
Спойлер
– понимать, что такое простой рекуррентный нейрон (нейрон Элмана);
– понимать, что такое GRU (управляемый рекуррентный нейрон);
– понимать, что такое LSTM (нейрон длинной краткосрочной памяти);
– создавать разнообразные рекуррентные нейронные сети в Theano;
– понимать метод обратного распространения во времени;
– понимать, как смягчить проблему исчезающего градиента;
– решать проблему XOR и проблему чётности с использованием рекуррентной нейронной сети;
– использовать рекуррентные нейронные сети для языкового моделирования;
– использовать рекуррентные нейронные сети для генерации текста, в частности стихов;
– наглядно показывать вложения слов и искать зависимости в векторных представлениях слов.
ТРЕБОВАНИЯ
Спойлер
– дифференциальное счисление;
– линейная алгебра;
– Python, Numpy, Matplotlib;
– создание нейронной сети в Theano;
– понимание метода обратного распространения ошибки;
– теория вероятностей (условное и совместное распределение);
– создание нейронной сети в TensorFlow.
ОПИСАНИЕ
Спойлер
Подобно недавно выпущенному мною курсу по скрытым марковским моделям, рекуррентные нейронные сети полностью посвящены изучению последовательностей, но тогда как марковские модели ограничены марковским допущением, рекуррентные нейронные сети – нет, и, как результат, они более выразительны и более мощны, чем что-либо виденное нами ранее, и позволяют решать задачи, в которых мы не могли добиться успеха в течение десятилетий.
Итак, что же представляет из себя данный курс и как он опирается на предыдущие курсы по нейронным сетям и скрытым марковским моделям?
В первом разделе курса мы добавим понятие времени применительно к нашим нейронным сетям.
Я познакомлю вас с простым рекуррентным нейроном, также известным как нейрон Элмана.
Мы пересмотрим проблему XOR, но при этом расширим её, так чтобы она стала проблемой чётности – вы увидите, что обычные нейронные сети прямого распространения сталкиваются с затруднениями при их решении, но рекуррентные сети будут работать. Хитрость тут в том, что входные данные обрабатываются как последовательности.
В следующем разделе курса мы вновь обратимся к одному из наиболее популярному приложению рекуррентных нейронных сетей – языковому моделированию.
При изучении марковских моделей вы видели, что у нас получалось делать такие вещи, как генерация стихов, и это даже неплохо выглядело. Мы могли даже различать двух разных поэтов лишь из последовательностей используемых ими частей речи.
В этом курсе мы расширим нашу языковую модель, чтобы больше не нуждаться в марковском предположении.
Ещё одно популярное приложение нейронных сетей применительно к языкам – слова-векторы или вложения слов. Наиболее общая методика называется Word2Vec, но я покажу, как рекуррентные нейронные сети также могут использоваться для создания слов-векторов.
В следующем разделе мы рассмотрим очень популярный LSMT, то есть нейрон долгой краткосрочной памяти, а также более современный и эффективный GRU, он же управляемый рекуррентный нейрон, который, как доказано, даёт сопоставимую производительность.
Мы используем их применительно к некоторым практическим задачам, таким как изучение языковой модели из Википедии и, как результат, визуализация вложений слов.
Все материалы, необходимые для этого курса, могут быть загружены и установлены БЕСПЛАТНО. Основную часть работы мы проделаем в Numpy, Matplotlib и Theano. Я всегда готов ответить на ваши вопросы и помочь в путешествии по науке об обработке данных.
Этот курс сконцентрирован на том, «как создавать и понимать», а не просто «как использовать». Любой может овладеть пользовательским интерфейсом за 15 минут после прочтения соответствующей документации. Речь идёт не о «запоминании фактов», а о «саморазвитии» посредством набора опыта. Курс научит вас, как наглядно видеть, что происходит внутри модели. Если хотите большего, чем просто поверхностного взгляда на модели машинного обучения, - этот курс для вас.
До встречи на занятиях!
Источник
Скрытое содержимое.
Phyrshtadskaya4k, ты можешь записаться в эту складчину и получить инфопродукт сразу после оплаты, никого не дожидаясь.
---
Глубокое обучение: рекуррентные нейронные сети на языке Python
Автор: Lazy Programmer Inc.
Формат: транскрибация видео
Продолжительность: ~ 04:48
Перевод: Красный Кут
Тип перевода: Транскрибация с русским переводом
Всего: 39 видео лекции
Готовность: 18.03.19
Решил сделать перевод всех курсов Lazy Programmer Inc. о искусственном интеллекте, машинном обучении,- взяв за основу материалы из этой .
Вы также можете изучить на русском языке следующие курсы этого автора:
- (Курс 1 из 17)
- (Курс 2 из 17)
- (Курс 3 из 17)
- (Курс 4 из 17)
- (Курс 5 из 17)
- (Курс 6 из 17)
- (Курс 7 из 17)
- (Курс 8 из 17)
- (Курс 9 из 17)
- (Курс 10 из 17)
Спойлер
– понимать, что такое простой рекуррентный нейрон (нейрон Элмана);
– понимать, что такое GRU (управляемый рекуррентный нейрон);
– понимать, что такое LSTM (нейрон длинной краткосрочной памяти);
– создавать разнообразные рекуррентные нейронные сети в Theano;
– понимать метод обратного распространения во времени;
– понимать, как смягчить проблему исчезающего градиента;
– решать проблему XOR и проблему чётности с использованием рекуррентной нейронной сети;
– использовать рекуррентные нейронные сети для языкового моделирования;
– использовать рекуррентные нейронные сети для генерации текста, в частности стихов;
– наглядно показывать вложения слов и искать зависимости в векторных представлениях слов.
ТРЕБОВАНИЯ
Спойлер
– дифференциальное счисление;
– линейная алгебра;
– Python, Numpy, Matplotlib;
– создание нейронной сети в Theano;
– понимание метода обратного распространения ошибки;
– теория вероятностей (условное и совместное распределение);
– создание нейронной сети в TensorFlow.
ОПИСАНИЕ
Спойлер
Подобно недавно выпущенному мною курсу по скрытым марковским моделям, рекуррентные нейронные сети полностью посвящены изучению последовательностей, но тогда как марковские модели ограничены марковским допущением, рекуррентные нейронные сети – нет, и, как результат, они более выразительны и более мощны, чем что-либо виденное нами ранее, и позволяют решать задачи, в которых мы не могли добиться успеха в течение десятилетий.
Итак, что же представляет из себя данный курс и как он опирается на предыдущие курсы по нейронным сетям и скрытым марковским моделям?
В первом разделе курса мы добавим понятие времени применительно к нашим нейронным сетям.
Я познакомлю вас с простым рекуррентным нейроном, также известным как нейрон Элмана.
Мы пересмотрим проблему XOR, но при этом расширим её, так чтобы она стала проблемой чётности – вы увидите, что обычные нейронные сети прямого распространения сталкиваются с затруднениями при их решении, но рекуррентные сети будут работать. Хитрость тут в том, что входные данные обрабатываются как последовательности.
В следующем разделе курса мы вновь обратимся к одному из наиболее популярному приложению рекуррентных нейронных сетей – языковому моделированию.
При изучении марковских моделей вы видели, что у нас получалось делать такие вещи, как генерация стихов, и это даже неплохо выглядело. Мы могли даже различать двух разных поэтов лишь из последовательностей используемых ими частей речи.
В этом курсе мы расширим нашу языковую модель, чтобы больше не нуждаться в марковском предположении.
Ещё одно популярное приложение нейронных сетей применительно к языкам – слова-векторы или вложения слов. Наиболее общая методика называется Word2Vec, но я покажу, как рекуррентные нейронные сети также могут использоваться для создания слов-векторов.
В следующем разделе мы рассмотрим очень популярный LSMT, то есть нейрон долгой краткосрочной памяти, а также более современный и эффективный GRU, он же управляемый рекуррентный нейрон, который, как доказано, даёт сопоставимую производительность.
Мы используем их применительно к некоторым практическим задачам, таким как изучение языковой модели из Википедии и, как результат, визуализация вложений слов.
Все материалы, необходимые для этого курса, могут быть загружены и установлены БЕСПЛАТНО. Основную часть работы мы проделаем в Numpy, Matplotlib и Theano. Я всегда готов ответить на ваши вопросы и помочь в путешествии по науке об обработке данных.
Этот курс сконцентрирован на том, «как создавать и понимать», а не просто «как использовать». Любой может овладеть пользовательским интерфейсом за 15 минут после прочтения соответствующей документации. Речь идёт не о «запоминании фактов», а о «саморазвитии» посредством набора опыта. Курс научит вас, как наглядно видеть, что происходит внутри модели. Если хотите большего, чем просто поверхностного взгляда на модели машинного обучения, - этот курс для вас.
До встречи на занятиях!
Источник
Скрытое содержимое.
https://www.udemy.com/deep-learning-recurrent-neural-networks-in-python/