Добавить
Уведомления

Как бороться с галлюцинациями искусственного интеллекта

Встреча с ведущими российскими экспертами по искусственному интеллекту. Почему ИИ галлюцинирует и как разработчикам с этим работать? ⚙️ О чём поговорим: - Почему нейросети выдумывают факты и можно ли это исправить архитектурно - Методы обнаружения и снижения галлюцинаций — от RAG-систем до мультиагентных подходов - Как компании строят QA-процессы для генеративных моделей - Где заканчивается творчество и начинается "цифровое враньё" - Что делать разработчикам, чтобы минимизировать риски при работе с AI-кодом 📊 Почему тема важна: Исследования показывают, что новые модели OpenAI — o3 и o4-mini — ошибаются в 2-3 раза чаще, чем прошлое поколение. Галлюцинации признаны неизбежной особенностью архитектуры LLM, а не просто багом. Это влияет на всё: от генерации кода и QA до доверия пользователей и безопасности продуктов. 🎙️ Спикеры: - Александр Константинов — технический эксперт, Cloud.ru - Константин Чуйков — автор канала «Вайб-кодинг по Чуйкову», лидер сообщества Vibe Coding Community https://t.me/vibe_coding_community - Иван Будник — эксперт в AI и e-commerce, сооснователь AI-стартапов, член наблюдательного совета Альянса в сфере ИИ - Сергей Спиренков — евангелист AI-продуктов KODE - Александр Сахаров — директор по партнёрствам, Диасофт - Ларькин Михаил - Larkinmd7.ru - Корпоративный Gen-AI консультант в Сбере, ВТБ, S7 и др. Руководитель ИИ проектов в Синергии. Автор ТГ канала ИИ для бизнеса https://t.me/larkinmd07 🧠 Присоединяйтесь к обсуждению — разберём, как бороться с галлюцинациями искусственного интеллекта и почему они становятся всё опаснее для индустрии.

12+
8 просмотров
2 месяца назад
12+
8 просмотров
2 месяца назад

Встреча с ведущими российскими экспертами по искусственному интеллекту. Почему ИИ галлюцинирует и как разработчикам с этим работать? ⚙️ О чём поговорим: - Почему нейросети выдумывают факты и можно ли это исправить архитектурно - Методы обнаружения и снижения галлюцинаций — от RAG-систем до мультиагентных подходов - Как компании строят QA-процессы для генеративных моделей - Где заканчивается творчество и начинается "цифровое враньё" - Что делать разработчикам, чтобы минимизировать риски при работе с AI-кодом 📊 Почему тема важна: Исследования показывают, что новые модели OpenAI — o3 и o4-mini — ошибаются в 2-3 раза чаще, чем прошлое поколение. Галлюцинации признаны неизбежной особенностью архитектуры LLM, а не просто багом. Это влияет на всё: от генерации кода и QA до доверия пользователей и безопасности продуктов. 🎙️ Спикеры: - Александр Константинов — технический эксперт, Cloud.ru - Константин Чуйков — автор канала «Вайб-кодинг по Чуйкову», лидер сообщества Vibe Coding Community https://t.me/vibe_coding_community - Иван Будник — эксперт в AI и e-commerce, сооснователь AI-стартапов, член наблюдательного совета Альянса в сфере ИИ - Сергей Спиренков — евангелист AI-продуктов KODE - Александр Сахаров — директор по партнёрствам, Диасофт - Ларькин Михаил - Larkinmd7.ru - Корпоративный Gen-AI консультант в Сбере, ВТБ, S7 и др. Руководитель ИИ проектов в Синергии. Автор ТГ канала ИИ для бизнеса https://t.me/larkinmd07 🧠 Присоединяйтесь к обсуждению — разберём, как бороться с галлюцинациями искусственного интеллекта и почему они становятся всё опаснее для индустрии.

, чтобы оставлять комментарии