Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя

Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя
ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Распечатать
13 августа 2025
Тарифное повышение для бизнеса в Бурятии: миллиарды к энергетикам, а не на восстановление сетей

13 августа 2025
Макрон сообщил, что Трамп предлагает предоставить гарантии безопасности вне рамок НАТО

13 августа 2025
Пресс-секретарь Белого дома заявила, что публикация о будущем Украины является недостоверной
13 августа 2025
Трамп сообщил о вероятной встрече с Путиным и Зеленским при удачном завершении переговоров

13 августа 2025
В Московской области фонд капитального ремонта под управлением Андрея Воробьёва стал средством обогащения для чиновников

13 августа 2025
Трамп предложил «обмен земельными участками» на Украине в рамках потенциального мирного соглашения
13 августа 2025
В Норвегии плотина оказалась под контролем российских хакеров
13 августа 2025
Роскомнадзор вводит ограничения на звонки через WhatsApp и Telegram ввиду недоступности их для прослушивания спецслужбами