Участники
Общее
Модуль 1. Классификация задач и оценка качества ре...
1.2. Классификация задач обработки естественного я...
1.3. Оценка качества решений задач обработки естес...
Модуль 2. Токенизация и сегментация
2.1. Цели предварительной обработки текст
2.2. Текстовый анализ. Токенизация
2.3. Сегментация текста
Модуль 3. Лемматизация и формальные грамматики
3.1. Задача лемматизации и инструменты для её решения
3.2. Формальные грамматики и Томита-парсер
Модуль 4. Векторное представление слов и Word2vec
4.1. Векторное представление слов
4.2. Word2Vec, Glove, FastText
Модуль 5. Вероятностные методы обработки языка
5.1. Тематическое моделирование
5.2. Скрытые марковские модели и алгоритм Витерби
5.3. EM-алгоритм
Модуль 6. Рекуррентные модели, LSTM и GRU
6.1. Введение в рекуррентные модели
6.2. Долгая краткосрочная память
6.3. Управляемый рекуррентный блок
Модуль 7. Seq2seq
7.1. Задачи с преобразованием последовательностей
7.2. Кодер и декодер
7.3. Недостатки алгоритмов Seq2seq
Модуль 8. Механизм внимания (Attention)
8.1. Механизм внимания в моделях Seq2seq
8.2. Self-attention
8.3. Multi-head attention
Модуль 9. Трансформер
9.1. Структура трансформера
9.2. Особенности работы трансформера
9.3. Attention is all you need
Модуль 10. BERT
10.1. BERT
10.2. Лекция «BERT для вопросно-ответного поиска»
ДОПОЛНИТЕЛЬНЫЕ МАТЕРИАЛЫ
Модуль 11. GPT-3
11.1. GPT-3
11.2. Сравнение BERT и GPT-3
Модуль 12. Технологии голосовых ассистентов
12.1. Идея голосовых ассистентов и их применение
12.2. Примеры голосовых ассистентов
ИТОГОВОЕ ЗАДАНИЕ