Вебинар прошёл 29.07.2025
Практико-ориентированный вебинар о том, как ставить задачи и проектировать промпты для больших языковых моделей (LLM), чтобы получить не просто ответ, а бизнес-результат.
Ведущая разобрала на реальных кейсах, как LLM «думает», и почему от формата запроса зависит всё — от качества вывода до сроков выполнения задачи.
■ Тайм-код вебинара:
00:34 О спикере и вебинаре
01:34 План вебинара
02:45 Введение в основы NLP
03:47 Токенизация
07:56 Векторизация
11:35 Attention
17:05 Выводы
18:35 LLM API
19:46 Prompt: формат запроса
21:38 Prompt: техники/рекомендации
28:27 Переобучение LLM для внутренних процессов
31:25 Имплементация базы знаний (RAG)
33:34 Что такое агенты
36:13 Ключевые выводы
37:22 Рекомендации
37:47 Вопросы зрителей
01:34 План вебинара
02:45 Введение в основы NLP
03:47 Токенизация
07:56 Векторизация
11:35 Attention
17:05 Выводы
18:35 LLM API
19:46 Prompt: формат запроса
21:38 Prompt: техники/рекомендации
28:27 Переобучение LLM для внутренних процессов
31:25 Имплементация базы знаний (RAG)
33:34 Что такое агенты
36:13 Ключевые выводы
37:22 Рекомендации
37:47 Вопросы зрителей
■ На вебинаре разберём:
— как LLM «видит» текст: общее представление о токенах, embeddings и механизме attention (без deep-dive, но с прикладным смыслом)
— что такое промпт, какие бывают техники и как выбирать нужную (multishot, XML, chain-of-thought и др.)
— примеры удачных и неудачных промптов: как влияет формулировка на результат
— что такое RAG (Retrieval-Augmented Generation): как он устроен, чем полезен и когда его применять
— что такое AI-агенты и как они помогают выстраивать масштабируемую работу с LLM
— что такое промпт, какие бывают техники и как выбирать нужную (multishot, XML, chain-of-thought и др.)
— примеры удачных и неудачных промптов: как влияет формулировка на результат
— что такое RAG (Retrieval-Augmented Generation): как он устроен, чем полезен и когда его применять
— что такое AI-агенты и как они помогают выстраивать масштабируемую работу с LLM
■ Кому будет полезен вебинар?
— аналитикам, работающим с пользовательскими сценариями и требованиями
— разработчикам, интегрирующим LLM в реальные продукты
— продуктологам, которым важно не просто «добавить ИИ», а сделать его полезным
— техлидам, автоматизирующим ручной анализ и обработку данных
— всем, кто хочет понять, как говорить с LLM на одном языке
— разработчикам, интегрирующим LLM в реальные продукты
— продуктологам, которым важно не просто «добавить ИИ», а сделать его полезным
— техлидам, автоматизирующим ручной анализ и обработку данных
— всем, кто хочет понять, как говорить с LLM на одном языке
■ Ведущая вебинара
Элина Гильманова, Software Engineer в Amazon, специалист по AI/MLOps