Как работают AI-агенты: MCP, Function Calling, архитектура и примеры
Мой Telegram-канал: https://t.me/gmoreva Статья на хабре: https://habr.com/ru/articles/926548/ Ролик на канале Владилена Минина про запуск ИИ-агента на TS: https://youtu.be/9oJIU6A5Z70?si=fsTISnUYHsfbJ0jQ В этом видео я разбираю теоретическую архитектуру AI-агентов и MCP-серверов, без демо, без маркетинга и без «волшебных кнопок». О чём видео: — что такое AI-агент и чем он отличается от обычной LLM — как работает Function Calling / Tool Calling — зачем появился Model Context Protocol (MCP) — почему MCP — это стандарт интерфейса, а не способ “сделать модель умнее” — роль третьей системы-исполнителя между пользователем и LLM — как LLM принимает решение о вызове инструментов — structured output vs Function Calling — как передаётся контекст и история диалога — почему агент — это система, а не промпт Также затрагиваю: — локальный запуск LLM (Ollama, vLLM) — облако vs on-prem — ограничения контекста, токены и стоимость — типовые архитектурные заблуждения вокруг AI-агентов и MCP Видео рассчитано на техническую аудиторию: backend-разработчиков, AI-инженеров, архитекторов и тех, кто проектирует системы с LLM. Таймкоды: 01:22 Как работает ИИ? 06:27 Кто такой ИИ-агент? 09:18 Способы реализации ИИ-агента 12:37 Заблуждения про ИИ-агентов 19:19 Что такое MCP? 23:54 Виды MCP и способы общения с ними 27:11 Что нам дает MCP? 27:56 Архитектура с MCP 29:30 Примеры ИИ-агентов 31:55 Как запустить ИИ-агента? 35:20 Ресурсы для локального запуска ИИ-агента 38:06 Полезные ссылки #mcp #mcpservers #modelcontextprotocol #aiagents #llm #functioncalling #toolcalling #aiarchitecture #localai #ollama #vllm #backend #typescript #искусственныйинтеллект #ииагенты
Мой Telegram-канал: https://t.me/gmoreva Статья на хабре: https://habr.com/ru/articles/926548/ Ролик на канале Владилена Минина про запуск ИИ-агента на TS: https://youtu.be/9oJIU6A5Z70?si=fsTISnUYHsfbJ0jQ В этом видео я разбираю теоретическую архитектуру AI-агентов и MCP-серверов, без демо, без маркетинга и без «волшебных кнопок». О чём видео: — что такое AI-агент и чем он отличается от обычной LLM — как работает Function Calling / Tool Calling — зачем появился Model Context Protocol (MCP) — почему MCP — это стандарт интерфейса, а не способ “сделать модель умнее” — роль третьей системы-исполнителя между пользователем и LLM — как LLM принимает решение о вызове инструментов — structured output vs Function Calling — как передаётся контекст и история диалога — почему агент — это система, а не промпт Также затрагиваю: — локальный запуск LLM (Ollama, vLLM) — облако vs on-prem — ограничения контекста, токены и стоимость — типовые архитектурные заблуждения вокруг AI-агентов и MCP Видео рассчитано на техническую аудиторию: backend-разработчиков, AI-инженеров, архитекторов и тех, кто проектирует системы с LLM. Таймкоды: 01:22 Как работает ИИ? 06:27 Кто такой ИИ-агент? 09:18 Способы реализации ИИ-агента 12:37 Заблуждения про ИИ-агентов 19:19 Что такое MCP? 23:54 Виды MCP и способы общения с ними 27:11 Что нам дает MCP? 27:56 Архитектура с MCP 29:30 Примеры ИИ-агентов 31:55 Как запустить ИИ-агента? 35:20 Ресурсы для локального запуска ИИ-агента 38:06 Полезные ссылки #mcp #mcpservers #modelcontextprotocol #aiagents #llm #functioncalling #toolcalling #aiarchitecture #localai #ollama #vllm #backend #typescript #искусственныйинтеллект #ииагенты
