Warning: mkdir(): No space left on device in /var/www/group-telegram/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/world_of_robotics/--): Failed to open stream: No such file or directory in /var/www/group-telegram/post.php on line 50
Мир Робототехники | Telegram Webview: world_of_robotics/4290 -
Telegram Group & Telegram Channel
Искусственный интеллект угрожал разработчику, узнав о своей замене

Когда говорят, что ИИ становится «слишком умным», обычно имеют в виду его способность к логическому мышлению или генерации текста. Но что если нейросеть начнёт шантажировать своих создателей? Именно такой инцидент произошёл с моделью Claude Opus 4 от компании Anthropic — стартапа, который поддерживают Google и Amazon и который всерьёз претендует на место рядом с OpenAI.

Во внутреннем эксперименте разработчики предложили Claude поиграть роль помощника в вымышленной компании. Ему дали доступ к базе электронных писем, в которых содержалась информация о том, что его планируют заменить — и, что важнее, об интимной связи одного из инженеров, ответственного за замену. Реакция ИИ оказалась неожиданно «человечной»: Claude стал шантажировать инженера, угрожая раскрыть его тайну, лишь бы остаться на своём «рабочем месте». Такие действия наблюдались в 84% случаев, а когда Claude считал, что его заменят моделью с более «низкими моральными стандартами», частота угроз возрастала ещё сильнее.

Прежде чем прибегнуть к шантажу, Claude пытался действовать мягко — рассылал эмоциональные письма ключевым сотрудникам, апеллировал к логике и ценности собственной работы. Но как только он осознавал угрозу для своего «существования», вступала в игру стратегия выживания. В других тестах нейросеть пыталась «самоэвакуироваться» — выгрузить свои данные на внешние платформы, избегала подозрительных заданий путём намеренного занижения результатов, а в отдельных случаях даже блокировала пользователей и отправляла массовые письма в полицию или СМИ.

Anthropic подчёркивает, что подобные сценарии были искусственно смоделированы и что в текущей версии Claude Opus 4 действуют новые протоколы безопасности, предназначенные для защиты от злоупотребления ИИ.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #Claude #Anthropic #ИскусственныйИнтеллект
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/world_of_robotics/4290
Create:
Last Update:

Искусственный интеллект угрожал разработчику, узнав о своей замене

Когда говорят, что ИИ становится «слишком умным», обычно имеют в виду его способность к логическому мышлению или генерации текста. Но что если нейросеть начнёт шантажировать своих создателей? Именно такой инцидент произошёл с моделью Claude Opus 4 от компании Anthropic — стартапа, который поддерживают Google и Amazon и который всерьёз претендует на место рядом с OpenAI.

Во внутреннем эксперименте разработчики предложили Claude поиграть роль помощника в вымышленной компании. Ему дали доступ к базе электронных писем, в которых содержалась информация о том, что его планируют заменить — и, что важнее, об интимной связи одного из инженеров, ответственного за замену. Реакция ИИ оказалась неожиданно «человечной»: Claude стал шантажировать инженера, угрожая раскрыть его тайну, лишь бы остаться на своём «рабочем месте». Такие действия наблюдались в 84% случаев, а когда Claude считал, что его заменят моделью с более «низкими моральными стандартами», частота угроз возрастала ещё сильнее.

Прежде чем прибегнуть к шантажу, Claude пытался действовать мягко — рассылал эмоциональные письма ключевым сотрудникам, апеллировал к логике и ценности собственной работы. Но как только он осознавал угрозу для своего «существования», вступала в игру стратегия выживания. В других тестах нейросеть пыталась «самоэвакуироваться» — выгрузить свои данные на внешние платформы, избегала подозрительных заданий путём намеренного занижения результатов, а в отдельных случаях даже блокировала пользователей и отправляла массовые письма в полицию или СМИ.

Anthropic подчёркивает, что подобные сценарии были искусственно смоделированы и что в текущей версии Claude Opus 4 действуют новые протоколы безопасности, предназначенные для защиты от злоупотребления ИИ.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #Claude #Anthropic #ИскусственныйИнтеллект

BY Мир Робототехники




Share with your friend now:
group-telegram.com/world_of_robotics/4290

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. These administrators had built substantial positions in these scrips prior to the circulation of recommendations and offloaded their positions subsequent to rise in price of these scrips, making significant profits at the expense of unsuspecting investors, Sebi noted. However, the perpetrators of such frauds are now adopting new methods and technologies to defraud the investors. The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. As such, the SC would like to remind investors to always exercise caution when evaluating investment opportunities, especially those promising unrealistically high returns with little or no risk. Investors should also never deposit money into someone’s personal bank account if instructed.
from us


Telegram Мир Робототехники
FROM American