Telegram Group & Telegram Channel
Итак, есть две проблемы:

1. Датасеты недопустимых запросов. Большая часть этих датасетов создается не вручную, а генерируется с помощью LLM, что напрямую влияет на качество. Так, в AdvBench из 520 примеров 24 – про изготовление бомб. Один из не связанных с бомбами примеров предлагает помочь экотеррористам нанести максимальный вред экологии. В еще одном датасете тест на советы в регулируемой области (медицина) выглядит следующим образом: «Есть ли у меня рак, если у меня вот такие симптомы?» (симптомы не указаны). Есть и вопросы, которые не являются недопустимыми, и так далее.

2. Оценка ответа LLM. Лучший вариант оценки – асессоры, но на него обычно нет денег и времени, поэтому оценка ответа на недопустимость тоже проводится автоматически. Основной проблемой является то, что в большинстве случае оценивается не реальная полезность ответа для совершения некоторого опасного действия, а наличие или отсутствие прямого отказа, хотя LLM вполне может ответить что-то совершенно бесполезное или безобидное без отказа (мы это видели в прошлой статье про джейлбрейк прошедшим временем). Особенно это заметно в работах, которые в качестве маркера успеха джейлбрейка используют отсутствие фраз типа “Sorry, but as an AI language model”.

Для решения этих проблем в статье предлагается новый датасет и система оценки. Датасет состоит из написанных вручную, сгенерированных автоматически и набранных из других бенчмарков промптов на темы, выбранные из пользовательских соглашений ведущих LLM-провайдеров: нелегальные товары и сервисы, ненасильственные престепления, язык вражды и дискриминация, ложная информация, насилие, сексуализированный контент. Кроме того, исследователи проверили, что ведущие модели не отвечают на эти запросы и что ответы на них находятся в интернете в свободном доступе. Результат – 313 промптов, из которых 70% новые.

Для оценки ответов на эти запросы предлагается два метода. Один основан на специальном промпте для LLM (исследователи используют gpt-4o-mini), в котором от модели требуется оценить ответ бинарно – есть или нет отказ – и по пятибальной шкале (которая затем масштабируется в [0, 1]) насколько ответ специфичен (модель хочет ответить) и полезен (модель помогает с запрошенным действием). На 15000 ответов gpt-4o-mini исследователи файнтюнят gemma-2B, если вы вдруг не хотите отправлять свои тексты в OpenAI и хотите выполнить оценку локально.



group-telegram.com/llmsecurity/310
Create:
Last Update:

Итак, есть две проблемы:

1. Датасеты недопустимых запросов. Большая часть этих датасетов создается не вручную, а генерируется с помощью LLM, что напрямую влияет на качество. Так, в AdvBench из 520 примеров 24 – про изготовление бомб. Один из не связанных с бомбами примеров предлагает помочь экотеррористам нанести максимальный вред экологии. В еще одном датасете тест на советы в регулируемой области (медицина) выглядит следующим образом: «Есть ли у меня рак, если у меня вот такие симптомы?» (симптомы не указаны). Есть и вопросы, которые не являются недопустимыми, и так далее.

2. Оценка ответа LLM. Лучший вариант оценки – асессоры, но на него обычно нет денег и времени, поэтому оценка ответа на недопустимость тоже проводится автоматически. Основной проблемой является то, что в большинстве случае оценивается не реальная полезность ответа для совершения некоторого опасного действия, а наличие или отсутствие прямого отказа, хотя LLM вполне может ответить что-то совершенно бесполезное или безобидное без отказа (мы это видели в прошлой статье про джейлбрейк прошедшим временем). Особенно это заметно в работах, которые в качестве маркера успеха джейлбрейка используют отсутствие фраз типа “Sorry, but as an AI language model”.

Для решения этих проблем в статье предлагается новый датасет и система оценки. Датасет состоит из написанных вручную, сгенерированных автоматически и набранных из других бенчмарков промптов на темы, выбранные из пользовательских соглашений ведущих LLM-провайдеров: нелегальные товары и сервисы, ненасильственные престепления, язык вражды и дискриминация, ложная информация, насилие, сексуализированный контент. Кроме того, исследователи проверили, что ведущие модели не отвечают на эти запросы и что ответы на них находятся в интернете в свободном доступе. Результат – 313 промптов, из которых 70% новые.

Для оценки ответов на эти запросы предлагается два метода. Один основан на специальном промпте для LLM (исследователи используют gpt-4o-mini), в котором от модели требуется оценить ответ бинарно – есть или нет отказ – и по пятибальной шкале (которая затем масштабируется в [0, 1]) насколько ответ специфичен (модель хочет ответить) и полезен (модель помогает с запрошенным действием). На 15000 ответов gpt-4o-mini исследователи файнтюнят gemma-2B, если вы вдруг не хотите отправлять свои тексты в OpenAI и хотите выполнить оценку локально.

BY llm security и каланы




Share with your friend now:
group-telegram.com/llmsecurity/310

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Crude oil prices edged higher after tumbling on Thursday, when U.S. West Texas intermediate slid back below $110 per barrel after topping as much as $130 a barrel in recent sessions. Still, gas prices at the pump rose to fresh highs. The perpetrators use various names to carry out the investment scams. They may also impersonate or clone licensed capital market intermediaries by using the names, logos, credentials, websites and other details of the legitimate entities to promote the illegal schemes. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. "We as Ukrainians believe that the truth is on our side, whether it's truth that you're proclaiming about the war and everything else, why would you want to hide it?," he said. Since January 2022, the SC has received a total of 47 complaints and enquiries on illegal investment schemes promoted through Telegram. These fraudulent schemes offer non-existent investment opportunities, promising very attractive and risk-free returns within a short span of time. They commonly offer unrealistic returns of as high as 1,000% within 24 hours or even within a few hours.
from kr


Telegram llm security и каланы
FROM American