AI (Artificial Intelligence / ИИ, Искусственный Интеллект): Широкая область информатики, создающая системы, способные выполнять задачи, требующие человеческого интеллекта.
ML (Machine Learning / Машинное обучение): Область ИИ, которая позволяет системам автоматически обучаться и улучшаться на основе опыта (данных) без явного программирования.
NLP (Natural Language Processing / Обработка естественного языка): Направление в ИИ, которое занимается анализом, пониманием и генерацией человеческого языка.
AGI (Artificial General Intelligence / ОИИ, Общий Искусственный Интеллект): Гипотетический тип ИИ, обладающий способностью понимать, изучать и применять свой интеллект для решения любой задачи, с которой может справиться человек.
Нейросеть (Neural Network): Вычислительная модель, вдохновленная структурой человеческого мозга, состоящая из взаимосвязанных узлов ("нейронов"), организованных в слои.
Токен (Token): Минимальная единица текста, которую обрабатывает модель. Это может быть слово, часть слова или отдельный символ.
Self-Attention: Механизм, благодаря которому нейросеть вычисляет важность каждого токена для всех остальных слов в предложении.
Multi-Head Attention: Модель обрабатывает текст одновременно через множество attention heads, работающих параллельно.
Трансформер (Transformer): Архитектура нейронных сетей, использующая механизм Attention для эффективной обработки последовательностей данных, таких как текст.
Параметры (Parameters): Внутренние переменные нейросети, которые настраиваются в процессе обучения. Именно в них "записаны" все знания модели. Их количество определяет размер и сложность модели.
LLM (Large Language Model / БЯМ, Большая Языковая Модель): Тип нейросети, обученной на огромных объемах текстовых данных для понимания, генерации и обработки человеческого языка.
GPT (Generative Pre-trained Transformer / Генеративный предобученный трансформер): Семейство LLM на архитектуре Трансформер от компании OpenAI.
Процесс обучения
Датасет (Dataset): Структурированный набор данных (текстов, изображений и т.д.), используемый для обучения, тестирования и оценки моделей машинного обучения.
Обучение (Training): Общий процесс, в ходе которого модель анализирует большие объемы данных для выявления закономерностей и "приобретения" знаний.
Предобучение (Pre-training): Начальный, наиболее ресурсоемкий этап обучения модели на огромном, неструктурированном наборе данных (например, на значительной части интернета), в ходе которого она приобретает общие языковые знания.
Дообучение (Fine-tuning): Процесс дополнительного обучения предобученной модели на более узком, специализированном наборе данных для адаптации к конкретной задаче или стилю.
LoRA (Low-Rank Adaptation): Метод, который не изменяет исходные веса предобученной модели, а добавляет к ним небольшую «корректирующую» матрицу.
Процесс использования
Эмбеддинги (Embeddings): Числовые представления (векторы) слов, предложений или других данных, позволяющие моделям улавливать их семантическое значение и взаимосвязи. Похожие по смыслу элементы имеют близкие векторы.
Промпт (Prompt): Входные данные (инструкция, вопрос, текст), которые подаются LLM для получения ответа.
Инференс (Inference): Процесс использования обученной модели для генерации ответа на новый промпт.
Контекст (Context): Вся информация, предоставленная модели в рамках одного запроса, включая историю диалога, инструкции и примеры. "Краткосрочная память" модели.
Контекстное окно (Context Window): Максимальное количество токенов, которое модель может обрабатывать одновременно (включая входной промпт и сгенерированный ответ). Все, что выходит за его пределы, модель "забывает".
Температура (Temperature): Параметр, контролирующий степень случайности ответов модели. Низкая температура делает ответы более предсказуемыми и стандартными, высокая — более креативными и разнообразными. Оптимально от 0 до 1.2.
Top-K: Метод сэмплирования, который ограничивает выбор следующего токена только K наиболее вероятными вариантами.
Top-P: Метод сэмплирования, где выбор ограничивается "ядром" токенов, чья суммарная вероятность не меньше P (например, P=0.9).
Рассуждение (Reasoning): Процесс, при котором модель пошагово разбирает задачу для нахождения решения.
Галлюцинация (Hallucination): Ответ модели, который выглядит правдоподобно, но является фактически неверным или выдуманным.
Модальность (Modality): Тип или форма данных, с которыми работает модель (например, текст, изображение, звук).
Мультимодальность (Multimodality): Способность модели одновременно понимать и обрабатывать данные из нескольких модальностей (например, понимать текст и изображение в одном запросе).
Приложения и роли
Ассистент (Assistant): Прикладная реализация LLM, часто с заданной ролью, предназначенная для помощи пользователю в выполнении задач в диалоговом режиме.
Агент (Agent): Автономная система, использующая LLM для принятия решений и выполнения действий с помощью внешних инструментов (API, код, MCP) для достижения поставленной цели.
Вайб-кодинг (Vibe Coding): Неформальный термин, описывающий процесс написания кода с помощью LLM, когда разработчик задает желаемую функциональность на естественном языке ("вайб"), а модель генерирует код.
Фоновые агенты — это асинхронные AI-агенты, которые постоянно активны и выполняют задачи в фоне.
Облачные агенты — это фоновые ИИ-агенты, которые работают на удалённой инфраструктуре и имеют собственную среду выполнения.
BYOK (Bring Your Own Key) — возможность использовать свой личный API-ключ от поставщика ИИ-услуг, вместо того, чтобы платить за доступ к ИИ-функциям через разработчика AI-инструмента.
SOTA (State-of-the-Art) — наилучший достигнутый уровень производительности алгоритмов или моделей для конкретной задачи на данный момент времени.