Telegram Group & Telegram Channel
​​В результате почти полугодовой забастовки, WGA удалось добиться «выдающейся» сделки, обеспечив защиту своим авторам в той или иной степени по всем ключевым пунктам, в том числе в вопросе использования ИИ.

• Сценаристам гарантируется вознаграждение и компенсация за работу над сценариями, даже если при их создании использовался искусственный интеллект.

• Сгенерированные ИИ материалы не считаются «исходным материалом».

• Компания не может обязать сценариста использовать ИИ и должна информировать, если этот инструмент использовался.

Но есть в договоре одна интересная оговорка:

«Гильдия оставляет за собой право утверждать, что использование материалов писателей для обучения искусственного интеллекта запрещено минимальным базовым соглашением или другим законом».

«Оставляет за собой право»
. Не «использование материалов писателей для обучения ИИ запрещено», а «Гильдия оставляет за собой право утверждать, что это запрещено». Улавливаете разницу?

Гильдии может быть и хотелось бы запретить использование материалов писателей для обучения ИИ, но у нее нет для этого юридических инструментов — существующие правовые нормы не дают определенности в вопросе нарушения авторских прав искусственным интеллектом. А когда появятся новые — неизвестно.

Вероятно, множественные индивидуальные иски к большим компаниям от авторов, которых не устраивает использование их материалов для обучения ИИ, ускорят модернизацию законодательства, но важно понимать, что этот вопрос гораздо шире одной только юридической плоскости. Потому что проблема не в том, как именно компании используют материалы авторов для обучения нейросетей. А в том, что они делают это тайно.

Мы все уже давно уяснили, что ChatGPT, например, учится на условном множестве загруженных в нее текстов из Интернета. «Нейросеть не придумывает ничего нового, а обрабатывает уже имеющуюся информацию». Но какую именно? Какие именно тексты в нее были загружены? Ведь кажется довольно очевидным, что для обучения настолько продвинутых инструментов нужны не мои правки «Википедии», а более качественный материал.

И вот я наткнулся сегодня совершенно случайно на статью, которая и заставила меня написать этот пост: 183 000 спираченных книг (и еще 8 000, информация о которых отсутствует в книжной базе данных), которые были использованы для обучения GPT-J, EleutherAI, BloombergGPT, LLaMA и, вероятно, других генеративных ИИ-программ, внедренных в сайты по всему Интернету.

Точнее, это даже не одна статья, а серия материалов про Books3 — довольно известную, как выяснилось, в кругах разработчиков (Books1 была опубликована еще в 2020-м году), но скрытую от глаз обывателей базу данных из книг для обучения генеративных ИИ-программ. Нобелевские лауреаты, «Подземелья и драконы», христианская литература и эротика — все это служит точками отсчета для машины.

Вот здесь можно почитать про историю этой базы данных и тех, что были до нее, с комментариями от ее разработчика и компаний, которые ее использовали. Вот здесь — чуть подробней про ее содержание с конкретными цифрами (236 инструкций от Шекспира, не менее 175 из Библии и 46 книг Буковски).

А вот здесь самому проверить, нет ли вдруг в этой базе вашей книги (или просто поиграться и проверить любую другую).

#essay | #read



group-telegram.com/lookmomicanscript/780
Create:
Last Update:

​​В результате почти полугодовой забастовки, WGA удалось добиться «выдающейся» сделки, обеспечив защиту своим авторам в той или иной степени по всем ключевым пунктам, в том числе в вопросе использования ИИ.

• Сценаристам гарантируется вознаграждение и компенсация за работу над сценариями, даже если при их создании использовался искусственный интеллект.

• Сгенерированные ИИ материалы не считаются «исходным материалом».

• Компания не может обязать сценариста использовать ИИ и должна информировать, если этот инструмент использовался.

Но есть в договоре одна интересная оговорка:

«Гильдия оставляет за собой право утверждать, что использование материалов писателей для обучения искусственного интеллекта запрещено минимальным базовым соглашением или другим законом».

«Оставляет за собой право»
. Не «использование материалов писателей для обучения ИИ запрещено», а «Гильдия оставляет за собой право утверждать, что это запрещено». Улавливаете разницу?

Гильдии может быть и хотелось бы запретить использование материалов писателей для обучения ИИ, но у нее нет для этого юридических инструментов — существующие правовые нормы не дают определенности в вопросе нарушения авторских прав искусственным интеллектом. А когда появятся новые — неизвестно.

Вероятно, множественные индивидуальные иски к большим компаниям от авторов, которых не устраивает использование их материалов для обучения ИИ, ускорят модернизацию законодательства, но важно понимать, что этот вопрос гораздо шире одной только юридической плоскости. Потому что проблема не в том, как именно компании используют материалы авторов для обучения нейросетей. А в том, что они делают это тайно.

Мы все уже давно уяснили, что ChatGPT, например, учится на условном множестве загруженных в нее текстов из Интернета. «Нейросеть не придумывает ничего нового, а обрабатывает уже имеющуюся информацию». Но какую именно? Какие именно тексты в нее были загружены? Ведь кажется довольно очевидным, что для обучения настолько продвинутых инструментов нужны не мои правки «Википедии», а более качественный материал.

И вот я наткнулся сегодня совершенно случайно на статью, которая и заставила меня написать этот пост: 183 000 спираченных книг (и еще 8 000, информация о которых отсутствует в книжной базе данных), которые были использованы для обучения GPT-J, EleutherAI, BloombergGPT, LLaMA и, вероятно, других генеративных ИИ-программ, внедренных в сайты по всему Интернету.

Точнее, это даже не одна статья, а серия материалов про Books3 — довольно известную, как выяснилось, в кругах разработчиков (Books1 была опубликована еще в 2020-м году), но скрытую от глаз обывателей базу данных из книг для обучения генеративных ИИ-программ. Нобелевские лауреаты, «Подземелья и драконы», христианская литература и эротика — все это служит точками отсчета для машины.

Вот здесь можно почитать про историю этой базы данных и тех, что были до нее, с комментариями от ее разработчика и компаний, которые ее использовали. Вот здесь — чуть подробней про ее содержание с конкретными цифрами (236 инструкций от Шекспира, не менее 175 из Библии и 46 книг Буковски).

А вот здесь самому проверить, нет ли вдруг в этой базе вашей книги (или просто поиграться и проверить любую другую).

#essay | #read

BY look mom i can script




Share with your friend now:
group-telegram.com/lookmomicanscript/780

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Additionally, investors are often instructed to deposit monies into personal bank accounts of individuals who claim to represent a legitimate entity, and/or into an unrelated corporate account. To lend credence and to lure unsuspecting victims, perpetrators usually claim that their entity and/or the investment schemes are approved by financial authorities. DFR Lab sent the image through Microsoft Azure's Face Verification program and found that it was "highly unlikely" that the person in the second photo was the same as the first woman. The fact-checker Logically AI also found the claim to be false. The woman, Olena Kurilo, was also captured in a video after the airstrike and shown to have the injuries. Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. Telegram Messenger Blocks Navalny Bot During Russian Election The next bit isn’t clear, but Durov reportedly claimed that his resignation, dated March 21st, was an April Fools’ prank. TechCrunch implies that it was a matter of principle, but it’s hard to be clear on the wheres, whos and whys. Similarly, on April 17th, the Moscow Times quoted Durov as saying that he quit the company after being pressured to reveal account details about Ukrainians protesting the then-president Viktor Yanukovych.
from ms


Telegram look mom i can script
FROM American