Введение в искусственный интеллект
- ISBN
- 978-5-9729-3022-7
- Кол-во страниц
- 288
- Формат
- 148х210
- Переплет
- Твердый; Полноцвет
- Год
- 2026 Библиографическая запись
К82 Введение в искусственный интеллект : учебник / М. Л. Кричевский. – Москва ; Вологда : Инфра-Инженерия, 2026. – 288 с. : ил., табл.
Приведены сведения о становлении и развитии искусственного интеллекта, проанализированы модели глубокого обучения, представлены методы векторного представления слов, описаны механизм внимания и архитектура трансформера, рассмотрены вопросы генеративного моделирования, указаны принципы создания и работы больших языковых моделей.
Адресован студентам, обучающимся по специальностям и направлениям подготовки высшего образования 09.04.01 «Информатика и вычислительная техника» и смежным направлениям подготовки. Кроме того, учебник окажется полезным преподавателям, которые ведут занятия по дисциплинам учебного плана, ориентированным на искусственный интеллект, аспирантам и лицам, заинтересованным в углублении своих знаний в области искусственного интеллекта.
Содержание
Список сокращений 5
Введение 7
Глава 1. ИСТОРИЯ РАЗВИТИЯ СОВРЕМЕННОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА 14
1.1. Определение искусственного интеллекта 14
1.2. Зарождение искусственного интеллекта – 1940–1960 гг. 16
1.3. Ранние годы: 1960–1980 гг. 25
1.4. Рождение нового интеллекта: 1980–2000 гг. 41
1.5. Трансформер – новая парадигма: 2000–2020 гг. 53
Контрольные вопросы 63
Дополнительные источники 64
Глава 2. МОДЕЛИ ГЛУБОКОГО ОБУЧЕНИЯ 65
2.1. Классификация моделей глубокого обучения 65
2.2. Многослойный персептрон 67
2.3. Сверточные нейронные сети 73
2.4. Остаточные сети 80
2.5. Рекуррентные нейронные сети 83
2.6. Долгая краткосрочная память 89
2.7. Управляемый рекуррентный блок 94
Краткие итоги главы 96
Контрольные вопросы 97
Дополнительные источники 97
Глава 3. ВЕКТОРНОЕ ПРЕДСТАВЛЕНИЕ СЛОВ 99
3.1. Основы векторизации слов 99
3.2. Модели на основе частоты слов 107
3.3. Статические плотные эмбеддинги 121
3.4. Контекстные эмбеддинги 129
Краткие итоги главы 134
Контрольные вопросы 135
Дополнительные источники 135
Глава 4. ТРАНСФОРМЕР – НОВАЯ ПАРАДИГМА НЕЙРОСЕТЕЙ 137
4.1. Механизм внимания в рекуррентных нейронных сетях 137
4.2. Эволюция механизма внимания 141
4.3. Принцип действия механизма внимания 148
4.4. Архитектура Transformer 162
Краткие итоги главы 169
Контрольные вопросы 170
Дополнительные источники 171
Глава 5. ОСНОВЫ ГЕНЕРАТИВНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА 173
5.1. От искусственного интеллекта к генеративному искусственному интеллекту 173
5.2. Генеративное моделирование 185
5.3. Генеративно-состязательная сеть 196
5.4. Вариационный автоэнкодер 201
5.5. Диффузионные модели 208
5.6. Нормализующие потоки 217
Краткие итоги главы 221
Контрольные вопросы 222
Дополнительные источники 222
Глава 6. БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ 225
6.1. История развития больших языковых моделей 225
6.2. Архитектуры больших языковых моделей 230
6.3. Семейства больших языковых моделей 233
6.4. Предварительное обучение 244
6.5. Тонкая настройка – инструкции 253
6.6. Тонкая настройка – выравнивание 260
6.7. Адаптация модели с помощью параметров 267
6.8. Генерация с дополненной выборкой 275
Краткие итоги главы 280
Контрольные вопросы 281
Дополнительные источники 282
Заключение 285