Главная/Курсы/LLM: Архитектура и применение
Продвинутый Популярная программа

Большие языковые модели: архитектура и практическое применение

Наиболее полная учебная программа центра Crosvia. Систематическое изучение LLM — от математических основ до production-развёртывания.

Обновлено: Март 2025 Автор: Редакция Crosvia Рейтинг: 4.9 / 5.0
Детальная архитектура GPT с блоками внимания слоями трансформера и механизмом self-attention на тёмном фоне с цифровой визуализацией

Что вы изучите

Программа охватывает полный спектр знаний, необходимых для понимания и работы с большими языковыми моделями. Материал основан на анализе более 50 ключевых академических публикаций, включая оригинальные статьи по архитектуре трансформеров (Vaswani et al., 2017), BERT, GPT и их производным.

Особое внимание уделяется практическим навыкам: работе с Hugging Face Transformers, fine-tuning предобученных моделей на собственных данных, построению RAG-систем (Retrieval-Augmented Generation) и оценке качества генерации.

Важное примечание: Данная программа является образовательным ресурсом для изучения теории и архитектуры LLM. Программа не включает коммерческий доступ к коммерческим API или сторонним платформам.

Содержание программы (12 модулей)

МОДУЛЬ 01
Введение в языковые модели: история и концептуальный обзор
~2.5 ч.

N-gram модели, RNN, LSTM, seq2seq — предшественники трансформеров. Почему понадобилась новая архитектура.

МОДУЛЬ 02
Механизм внимания (Attention): от концепции до математики
~3.5 ч.

Dot-product attention, scaled attention, multi-head attention. Визуализация матриц внимания и их интерпретация.

МОДУЛЬ 03
Архитектура трансформера: энкодер и декодер
~3 ч.

Позиционное кодирование, Feed-Forward слои, Layer Normalization, residual connections. Разбор оригинальной статьи "Attention is All You Need".

МОДУЛЬ 04
Токенизация и языковые эмбеддинги
~2 ч.
МОДУЛИ 05–07
BERT, GPT и их архитектурные различия
~9 ч.
МОДУЛИ 08–09
Fine-tuning и transfer learning
~7 ч.
МОДУЛЬ 10
Prompt Engineering: принципы и паттерны
~3 ч.
МОДУЛЬ 11
RAG-системы и интеграция с базами знаний
~3.5 ч.
МОДУЛЬ 12
Оценка LLM: метрики, бенчмарки, безопасность
~4 ч.

Связанные аналитические материалы

Статья
Анатомия большой языковой модели: как на самом деле работает GPT
Читать →
Глоссарий
Термины и определения: LLM, Transformer, Attention, RLHF
Открыть →