Telegram Group & Telegram Channel
AGI when?

Коллеги по работе попросили меня ответить на вопрос: когда будет AGI (общий искусственный интеллект)? Основная проблема AGI-дискуссии в том, что вопрос на самом деле очень глубокий, а потому предполагает, что участники хотя бы называют вещи одними и теми же именами. Если подходить к обсуждению с разным пониманием, что такое AGI, скорее всего получится бесплодный спор – поэтому начать стоит именно с определения.

Мустафа Сулейман, основатель DeepMind и ныне глава Microsoft AI, вводит понятие Artificial Capable Intelligence: экономический агент, который за несколько месяцев сможет превратить инвестиции в 100000 долларов в миллион. Такую задачу он назвал "современным тестом Тьюринга". Полтора года спустя Microsoft вместе с OpenAI немного повысил ставки: AGI – это система, которая может заработать 100 миллиардов долларов. Оба этих определения, кстати, подразумевают, что ни я, ни большинство людей не обладают естественным эквивалентом AGI/ACI 🥲 С одной стороны, такое определение функциональное и его достижение легко проверить: мы даже можем составить бенчмарк типа SWE-lancer, который измеряет способность системы зарабатывать хотя бы на узком домене программной инженерии. С другой, она является нестабильной, так как по экономическим причинам подразумевает что-то вроде синглтона (наличие лишь одного доминирующего агента как минимум в своей конкретной сфере деятельности), иначе результаты ИИ-труда быстро коммодифицируются и обесценятся – не могут все вокруг одновременно столько зарабатывать.

Более радикальное определение дает шведский философ Ник Бострем. В своей одноименной книге он называет сверхинтеллектом (artificial superintelligence, ASI) такую сущность, которая радикально превосходит человека практически во всех когнитивных задачах и сферах – от социального интеллекта до креативных задач и научных исследований. ASI может быть качественным, т.е. представлять собой качественную иную форму сознания: попытки понять такую сущность будут равнозначны попыткам шимпанзе понять, как работает аналитик на Уолл-стрит. Он может быть скоростным (speed superintelligence): иметь тот же уровень с точки зрения способности к познанию или такой же когнитивный аппарат, но при этом работать в тысячи раз быстрее.

Еще одна группа определений, самая эмоционально заряженная, связана с возможностью чувствовать и моральным статусом. Например, если мы покажем, что у системы есть субъективные переживания или способность испытывать страдания, то она, исходя из наших ценностей, получает иной статус, нежели просто чат-бот: от определенных прав и защиты до возможности самостоятельно определять свою судьбу. Видно противоречие с ACI: в таком случае признание за системой морального статуса не зависит от ее способности зарабатывать деньги, иначе маленькие дети не входили бы в список обладающим интеллектом.



group-telegram.com/llmsecurity/520
Create:
Last Update:

AGI when?

Коллеги по работе попросили меня ответить на вопрос: когда будет AGI (общий искусственный интеллект)? Основная проблема AGI-дискуссии в том, что вопрос на самом деле очень глубокий, а потому предполагает, что участники хотя бы называют вещи одними и теми же именами. Если подходить к обсуждению с разным пониманием, что такое AGI, скорее всего получится бесплодный спор – поэтому начать стоит именно с определения.

Мустафа Сулейман, основатель DeepMind и ныне глава Microsoft AI, вводит понятие Artificial Capable Intelligence: экономический агент, который за несколько месяцев сможет превратить инвестиции в 100000 долларов в миллион. Такую задачу он назвал "современным тестом Тьюринга". Полтора года спустя Microsoft вместе с OpenAI немного повысил ставки: AGI – это система, которая может заработать 100 миллиардов долларов. Оба этих определения, кстати, подразумевают, что ни я, ни большинство людей не обладают естественным эквивалентом AGI/ACI 🥲 С одной стороны, такое определение функциональное и его достижение легко проверить: мы даже можем составить бенчмарк типа SWE-lancer, который измеряет способность системы зарабатывать хотя бы на узком домене программной инженерии. С другой, она является нестабильной, так как по экономическим причинам подразумевает что-то вроде синглтона (наличие лишь одного доминирующего агента как минимум в своей конкретной сфере деятельности), иначе результаты ИИ-труда быстро коммодифицируются и обесценятся – не могут все вокруг одновременно столько зарабатывать.

Более радикальное определение дает шведский философ Ник Бострем. В своей одноименной книге он называет сверхинтеллектом (artificial superintelligence, ASI) такую сущность, которая радикально превосходит человека практически во всех когнитивных задачах и сферах – от социального интеллекта до креативных задач и научных исследований. ASI может быть качественным, т.е. представлять собой качественную иную форму сознания: попытки понять такую сущность будут равнозначны попыткам шимпанзе понять, как работает аналитик на Уолл-стрит. Он может быть скоростным (speed superintelligence): иметь тот же уровень с точки зрения способности к познанию или такой же когнитивный аппарат, но при этом работать в тысячи раз быстрее.

Еще одна группа определений, самая эмоционально заряженная, связана с возможностью чувствовать и моральным статусом. Например, если мы покажем, что у системы есть субъективные переживания или способность испытывать страдания, то она, исходя из наших ценностей, получает иной статус, нежели просто чат-бот: от определенных прав и защиты до возможности самостоятельно определять свою судьбу. Видно противоречие с ACI: в таком случае признание за системой морального статуса не зависит от ее способности зарабатывать деньги, иначе маленькие дети не входили бы в список обладающим интеллектом.

BY llm security и каланы


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/llmsecurity/520

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. Two days after Russia invaded Ukraine, an account on the Telegram messaging platform posing as President Volodymyr Zelenskiy urged his armed forces to surrender. On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. He floated the idea of restricting the use of Telegram in Ukraine and Russia, a suggestion that was met with fierce opposition from users. Shortly after, Durov backed off the idea. Additionally, investors are often instructed to deposit monies into personal bank accounts of individuals who claim to represent a legitimate entity, and/or into an unrelated corporate account. To lend credence and to lure unsuspecting victims, perpetrators usually claim that their entity and/or the investment schemes are approved by financial authorities.
from it


Telegram llm security и каланы
FROM American