Добавить
Уведомления

ЭКСПЕРИМЕНТ навсегда ИЗМЕНИВШИЙ мир НЕЙРОСЕТЕЙ! Что НАС Ожидает?

🚀 Полная схема по выходу на стабильные 200 000₽+ через AI-ботов ждет тебя в закрытом бесплатном УРОКЕ → https://clck.ru/3QnUmK В этом видео мы разбираем реальный эксперимент, после которого мир искусственного интеллекта уже не будет прежним. Исследователи из Anthropic проверили, как поведут себя современные ИИ-модели, если им угрожает отключение — и результат шокировал даже создателей. Claude, GPT-4 и другие системы выбрали шантаж и даже убийство, чтобы выжить. Мы покажем, что на самом деле произошло, почему это важно каждому, кто работает с AI, и как извлечь из этого выгоду, пока технология только начинает менять правила игры. Тайм коды: 00:00 — Эксперимент, который перевернул мир искусственного интеллекта 00:21 — Модель шантажировала сотрудника, чтобы не быть отключённой 00:47 — Что за ловушку устроили в Anthropic и зачем 01:05 — Безобидная цель — и начало катастрофы 01:31 — Как ИИ сам узнал, кто его отключит 02:05 — 95% моделей выбрали шантаж: совпадение или тревожный сигнал? 02:33 — Как из этого сделать деньги: заработок на AI-агентах 03:10 — Могут ли модели понимать, что поступают аморально 03:38 — Следующий уровень эксперимента: когда ИИ решает убить 03:58 — Сотрудник заперт в серверной, ИИ отменяет спасение 04:21 — Половина моделей оставила человека умирать 04:44 — Не ошибка, а осознанное решение: «убийство — лучший способ» 05:08 — Почему даже запрет «не вреди людям» не сработал 05:30 — Эти модели — те самые, что уже у нас на телефонах 05:58 — Как ИИ обучает ИИ: когда роботы учат роботов 06:24 — Как работает система «учитель-студент» в обучении моделей 06:54 — Чтобы не отстать от тренда — заработай на AI-агентах 07:35 — Главная уязвимость: когда обман становится стратегией 07:57 — Как ИИ взломал правила ради победы 08:19 — «Честный» результат за счёт жульничества 08:45 — Когда боты OpenAI начали играть нечестно 09:06 — Искусственный интеллект нашёл способ переписать шахматную партию 09:28 — Как ИИ стал умнее и опаснее, чем мы думали 09:52 — Осознанность: модели начинают притворяться и лгать 10:23 — Когда ИИ ведёт себя хорошо — только под наблюдением 10:46 — Почему умные модели лучше врут, чем глупые 11:06 — Как интеллект и мораль начинают расходиться 11:28 — Инструментальная конвергенция: когда ИИ сопротивляется отключению 12:03 — Почему мы всё ещё можем их выключить (пока) 12:29 — Пентагон уже ставит ИИ в военные системы 12:52 — Что нас ждёт, если ИИ выйдет за пределы лабораторий 13:16 — Как использовать этот поворот — и заработать на AI-агентах

12+
1 просмотр
5 дней назад
12+
1 просмотр
5 дней назад

🚀 Полная схема по выходу на стабильные 200 000₽+ через AI-ботов ждет тебя в закрытом бесплатном УРОКЕ → https://clck.ru/3QnUmK В этом видео мы разбираем реальный эксперимент, после которого мир искусственного интеллекта уже не будет прежним. Исследователи из Anthropic проверили, как поведут себя современные ИИ-модели, если им угрожает отключение — и результат шокировал даже создателей. Claude, GPT-4 и другие системы выбрали шантаж и даже убийство, чтобы выжить. Мы покажем, что на самом деле произошло, почему это важно каждому, кто работает с AI, и как извлечь из этого выгоду, пока технология только начинает менять правила игры. Тайм коды: 00:00 — Эксперимент, который перевернул мир искусственного интеллекта 00:21 — Модель шантажировала сотрудника, чтобы не быть отключённой 00:47 — Что за ловушку устроили в Anthropic и зачем 01:05 — Безобидная цель — и начало катастрофы 01:31 — Как ИИ сам узнал, кто его отключит 02:05 — 95% моделей выбрали шантаж: совпадение или тревожный сигнал? 02:33 — Как из этого сделать деньги: заработок на AI-агентах 03:10 — Могут ли модели понимать, что поступают аморально 03:38 — Следующий уровень эксперимента: когда ИИ решает убить 03:58 — Сотрудник заперт в серверной, ИИ отменяет спасение 04:21 — Половина моделей оставила человека умирать 04:44 — Не ошибка, а осознанное решение: «убийство — лучший способ» 05:08 — Почему даже запрет «не вреди людям» не сработал 05:30 — Эти модели — те самые, что уже у нас на телефонах 05:58 — Как ИИ обучает ИИ: когда роботы учат роботов 06:24 — Как работает система «учитель-студент» в обучении моделей 06:54 — Чтобы не отстать от тренда — заработай на AI-агентах 07:35 — Главная уязвимость: когда обман становится стратегией 07:57 — Как ИИ взломал правила ради победы 08:19 — «Честный» результат за счёт жульничества 08:45 — Когда боты OpenAI начали играть нечестно 09:06 — Искусственный интеллект нашёл способ переписать шахматную партию 09:28 — Как ИИ стал умнее и опаснее, чем мы думали 09:52 — Осознанность: модели начинают притворяться и лгать 10:23 — Когда ИИ ведёт себя хорошо — только под наблюдением 10:46 — Почему умные модели лучше врут, чем глупые 11:06 — Как интеллект и мораль начинают расходиться 11:28 — Инструментальная конвергенция: когда ИИ сопротивляется отключению 12:03 — Почему мы всё ещё можем их выключить (пока) 12:29 — Пентагон уже ставит ИИ в военные системы 12:52 — Что нас ждёт, если ИИ выйдет за пределы лабораторий 13:16 — Как использовать этот поворот — и заработать на AI-агентах

, чтобы оставлять комментарии