Notice: file_put_contents(): Write of 18487 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50
Слово защите | Telegram Webview: endoflaw/757 -
Telegram Group & Telegram Channel
Высокий суд Англии и Уэльса поймал юристов на использовании фальшивых прецедентов, сгенерированных ИИ

Высокий суд Англии и Уэльса выявил случаи, когда адвокаты ссылались на вымышленные решения судов, созданные ИИ, — сообщает The New York Times. Суд предупредил юристов: за использование в судебных документах данных, сгенерированных искусственным интеллектом, может грозить уголовная ответственность.

Один из рассмотренных случаев касался мужчины, который подал иск против банков и требовал компенсации в миллионы. Позже он признал, что использовал ИИ и интернет для сбора ссылок на судебную практику, приняв их за достоверные. Его адвокат заявил, что полагался на материалы, собранные клиентом, и не стал проверять их.

В другом деле юрист, представлявшая интересы выселенного жителя Лондона, привела в жалобе фальшивые прецеденты, происхождение которых объяснить не смогла. Суд заметил использование ИИ из-за американского написания и шаблонных формулировок. Хотя сама юрист отрицала обвинения в этом деле, она призналась, что делала это ранее — и тогда также добавляла вымышленные данные, полученные через поисковики с ИИ-анализом.

Судья Виктория Шарп предупредила: неправильное использование ИИ в юридической практике может повлечь серьёзные последствия — вплоть до уголовной ответственности или лишения адвокатского статуса. Она подчеркнула, что такие инструменты, как ChatGPT, не подходят для юридических исследований, поскольку часто выдают убедительно звучащие, но вымышленные данные.

Она также сослалась на случаи из США, Австралии, Канады и Новой Зеландии, где искусственный интеллект либо неправильно трактовал законодательство, либо придумывал несуществующие цитаты из судебных решений.
😁13



group-telegram.com/endoflaw/757
Create:
Last Update:

Высокий суд Англии и Уэльса поймал юристов на использовании фальшивых прецедентов, сгенерированных ИИ

Высокий суд Англии и Уэльса выявил случаи, когда адвокаты ссылались на вымышленные решения судов, созданные ИИ, — сообщает The New York Times. Суд предупредил юристов: за использование в судебных документах данных, сгенерированных искусственным интеллектом, может грозить уголовная ответственность.

Один из рассмотренных случаев касался мужчины, который подал иск против банков и требовал компенсации в миллионы. Позже он признал, что использовал ИИ и интернет для сбора ссылок на судебную практику, приняв их за достоверные. Его адвокат заявил, что полагался на материалы, собранные клиентом, и не стал проверять их.

В другом деле юрист, представлявшая интересы выселенного жителя Лондона, привела в жалобе фальшивые прецеденты, происхождение которых объяснить не смогла. Суд заметил использование ИИ из-за американского написания и шаблонных формулировок. Хотя сама юрист отрицала обвинения в этом деле, она призналась, что делала это ранее — и тогда также добавляла вымышленные данные, полученные через поисковики с ИИ-анализом.

Судья Виктория Шарп предупредила: неправильное использование ИИ в юридической практике может повлечь серьёзные последствия — вплоть до уголовной ответственности или лишения адвокатского статуса. Она подчеркнула, что такие инструменты, как ChatGPT, не подходят для юридических исследований, поскольку часто выдают убедительно звучащие, но вымышленные данные.

Она также сослалась на случаи из США, Австралии, Канады и Новой Зеландии, где искусственный интеллект либо неправильно трактовал законодательство, либо придумывал несуществующие цитаты из судебных решений.

BY Слово защите




Share with your friend now:
group-telegram.com/endoflaw/757

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice. "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into." Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores.
from us


Telegram Слово защите
FROM American