Все слышали про то, что ЛЛМ могут галлюцинировать, т.е. ошибаться, придумывать несуществующие факты и т.д. И естественно реакцией является: ну, вот эта ЛЛМ еще несовершенная, сейчас умные умы её допилят и она не будет ошибаться, т.е. галлюцинировать.
Но Карпати в своих объяснения говорит, что это не баг, а фича. Все что делает ЛЛМ это постоянные галлюцинации. Карпати называет ЛЛМ "машины снов" (dream machines). В этом её принципиальное отличие от алгоритмических систем, в которых вы даете что-то конкретное на вход и получаете 100% контролируемый результат на выходе.
Для решения проблемы галлюцинаций в практических приложениях Карпати предлагает такие методы как RAG (Retrieval Augmented Generation), использование множественной генерации с проверкой, цепочки верификации и применение внешних инструментов. Эти подходы позволяют "заземлить" креативные способности модели в фактических данных.
Но это уже на мой субъективный взгляд, по сути просто костыли, которые мы прикручиваем к изначально проблемной технологии.
Это серия постов с заблуждениями об ЛЛМ. Предыдущий здесь и здесь.
Все слышали про то, что ЛЛМ могут галлюцинировать, т.е. ошибаться, придумывать несуществующие факты и т.д. И естественно реакцией является: ну, вот эта ЛЛМ еще несовершенная, сейчас умные умы её допилят и она не будет ошибаться, т.е. галлюцинировать.
Но Карпати в своих объяснения говорит, что это не баг, а фича. Все что делает ЛЛМ это постоянные галлюцинации. Карпати называет ЛЛМ "машины снов" (dream machines). В этом её принципиальное отличие от алгоритмических систем, в которых вы даете что-то конкретное на вход и получаете 100% контролируемый результат на выходе.
Для решения проблемы галлюцинаций в практических приложениях Карпати предлагает такие методы как RAG (Retrieval Augmented Generation), использование множественной генерации с проверкой, цепочки верификации и применение внешних инструментов. Эти подходы позволяют "заземлить" креативные способности модели в фактических данных.
Но это уже на мой субъективный взгляд, по сути просто костыли, которые мы прикручиваем к изначально проблемной технологии.
Это серия постов с заблуждениями об ЛЛМ. Предыдущий здесь и здесь.
Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." These entities are reportedly operating nine Telegram channels with more than five million subscribers to whom they were making recommendations on selected listed scrips. Such recommendations induced the investors to deal in the said scrips, thereby creating artificial volume and price rise. Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp.
from id