group-telegram.com/edtexno/3513
Create:
Last Update:
Last Update:
В OpenAI свернули подразделение, которое изучало риски развития ИИ. Команда проработала меньше года.
Решение было принято после того, как об уходе из компании объявили соучредители Илья Суцкевер и Ян Лейке. Последний в соцсети X объяснил своё решение разногласиями с руководством OpenAI, которые сейчас достигли критической точки.
I have been disagreeing with OpenAI leadership about the company’s core priorities for quite some time, until we finally reached a breaking point.
По мнению Лейке, компании следовало отдавать приоритет безопасности и прогнозированию рисков. Он отметил, что создание более умных, чем человек, технологий — опасное занятие, но исследования команды наталкивались на сопротивление внутри компании.
В ноябре 2023 глава компании Сэм Альтман объявил о цели компании — создать сначала общий (равный человеку), а затем супер-ИИ, т.е. превосходящий человеческий разум. Через пару дней его уволили, но затем вернули в компанию.
В осеннем увольнении Альтмана одним из главных действующих лиц был как раз Илья Суцкевер. Писали, что он сообщил гендиру об увольнении. Шептались, что именно смелые планы Альтмана входили в противоречие с видением научного блока OpenAI, что и послужило конфликту.
Увольнение научных локомотивов компании — признак окончательной победы Альтмана. С другой стороны, масштабное обновление нейросети до версии GPT-4o у многих вызвало опасения. Но видимо, именно в процессе подготовки и этой модели научный блок окончательно понял, что проиграл корпоративную войну.
Ранее OpenAI планировал направить 20% ресурсов на изучение долгосрочных рисков ИИ. Теперь сотрудников этого подразделения распределяют в другие отделы. Альтман публично выразил сожаления в связи с уходом коллег.
BY Эдтехно | образование
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/edtexno/3513