Telegram Group & Telegram Channel
آینده هوش مصنوعی مولد (۲)

هوش مصنوعی مولد الان داره خودش رو با محتوای روی اینترنت تغذیه میکنه. بخشی از این خوراک، رایگان و در دسترسه. بخشی هم به شکل غیرقانونی داره استفاده میشه (کتابهایی که نسخه‌ی دزدی‌شون هست و ...).

این خوراک فعلی محتوایی، هر چه هست، روش تهیه‌اش چه اخلاقی باشه و چه غیراخلاقی، یه ویژگی مهم داره: بخش زیادی از اون، انسانیه.

یعنی محتوای اصیل (authentic) هست نه محتوای ساخته‌شده (synthetic).

اگر تعداد کاربران هوش مصنوعی مولد زیاد بشه، طی چند سال، بخش بزرگی از محتوای آنلاین، سینتتیک و ساختگی میشه و سهم محتوای تولیدی انسان در برابر محتوای تولیدی هوش مصنوعی تقریباً به صفر می‌رسه. و این گاوهایی که ما به "چراگاه محتوا" می‌فرستیم، عملاً به جای خوراک خوب، چیزی رو میخورن که قبلاً خودشون دفع کرده‌ان.

همهٔ ضعف‌ها، ایرادها، توهم‌های زبانی (که اجتناب‌ناپذیر و لازمهٔ خلاقیت مدل‌های زبانیه) نهایتاً اون‌قدر زیاد تکثیر میشن که خود مدل زبانی هم تحت تاثیر همون‌ها قرار می‌گیره.

اگر بخواهیم اسم عام برای این پدیده بذاریم، میشه بگیم saturation effect.

اگر اسم خاص‌تر رو می‌پسندید، میشه بگیم model collapse.

اصطلاحی که - اگر اشتباه نکنم - اولین بار ایلیا شومایلوف به کار برد.

اگر با دنیای الگوریتم آشنا باشید، احتمالاً اصطلاح The curse of recursion رو بیشتر دوست خواهید داشت (نفرین ناشی از حلقه‌های تو در توی ریکرسیو).

آیا این مشکل رو می‌شه حل کرد؟ در کوتاه‌مدت، عملاً این مشکل حس نخواهد شد.
در بلندمدت هم احتمالاً راه‌حل‌هایی پیدا میشه. اما در میان‌مدت، قطعاً یه چالش جدیه.

به هر حال، چیزی که مهمه اینه که حل این مشکل، سخت‌تر از چیزیه که در نگاه نخست به‌نظر میاد.
چون آدم‌ها خروجی مدل‌های زبانی رو ادیت میکنن و تمیز میشه. و ممکنه مدلها به سادگی متوجه نشن که با خروجی خودشون مواجه هستن.

اما قطعا ایده‌هایی هم هست که دیگه نوشتن از اونا، در حوصلهٔ نویسندهٔ خسته و وارفتهٔ این کانال تلگرامی نیست. 😉

اگر دوست داشتید، مقالهٔ شومایلوف و رفقاش رو هم ببینید:

AI models collapse when trained on recursively generated data.

#هوش_مصنوعی
156👍67🤔20🐳7



group-telegram.com/bamotamem/51
Create:
Last Update:

آینده هوش مصنوعی مولد (۲)

هوش مصنوعی مولد الان داره خودش رو با محتوای روی اینترنت تغذیه میکنه. بخشی از این خوراک، رایگان و در دسترسه. بخشی هم به شکل غیرقانونی داره استفاده میشه (کتابهایی که نسخه‌ی دزدی‌شون هست و ...).

این خوراک فعلی محتوایی، هر چه هست، روش تهیه‌اش چه اخلاقی باشه و چه غیراخلاقی، یه ویژگی مهم داره: بخش زیادی از اون، انسانیه.

یعنی محتوای اصیل (authentic) هست نه محتوای ساخته‌شده (synthetic).

اگر تعداد کاربران هوش مصنوعی مولد زیاد بشه، طی چند سال، بخش بزرگی از محتوای آنلاین، سینتتیک و ساختگی میشه و سهم محتوای تولیدی انسان در برابر محتوای تولیدی هوش مصنوعی تقریباً به صفر می‌رسه. و این گاوهایی که ما به "چراگاه محتوا" می‌فرستیم، عملاً به جای خوراک خوب، چیزی رو میخورن که قبلاً خودشون دفع کرده‌ان.

همهٔ ضعف‌ها، ایرادها، توهم‌های زبانی (که اجتناب‌ناپذیر و لازمهٔ خلاقیت مدل‌های زبانیه) نهایتاً اون‌قدر زیاد تکثیر میشن که خود مدل زبانی هم تحت تاثیر همون‌ها قرار می‌گیره.

اگر بخواهیم اسم عام برای این پدیده بذاریم، میشه بگیم saturation effect.

اگر اسم خاص‌تر رو می‌پسندید، میشه بگیم model collapse.

اصطلاحی که - اگر اشتباه نکنم - اولین بار ایلیا شومایلوف به کار برد.

اگر با دنیای الگوریتم آشنا باشید، احتمالاً اصطلاح The curse of recursion رو بیشتر دوست خواهید داشت (نفرین ناشی از حلقه‌های تو در توی ریکرسیو).

آیا این مشکل رو می‌شه حل کرد؟ در کوتاه‌مدت، عملاً این مشکل حس نخواهد شد.
در بلندمدت هم احتمالاً راه‌حل‌هایی پیدا میشه. اما در میان‌مدت، قطعاً یه چالش جدیه.

به هر حال، چیزی که مهمه اینه که حل این مشکل، سخت‌تر از چیزیه که در نگاه نخست به‌نظر میاد.
چون آدم‌ها خروجی مدل‌های زبانی رو ادیت میکنن و تمیز میشه. و ممکنه مدلها به سادگی متوجه نشن که با خروجی خودشون مواجه هستن.

اما قطعا ایده‌هایی هم هست که دیگه نوشتن از اونا، در حوصلهٔ نویسندهٔ خسته و وارفتهٔ این کانال تلگرامی نیست. 😉

اگر دوست داشتید، مقالهٔ شومایلوف و رفقاش رو هم ببینید:

AI models collapse when trained on recursively generated data.

#هوش_مصنوعی

BY با متمم | هایلایت | محمدرضا شعبانعلی


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/bamotamem/51

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Update March 8, 2022: EFF has clarified that Channels and Groups are not fully encrypted, end-to-end, updated our post to link to Telegram’s FAQ for Cloud and Secret chats, updated to clarify that auto-delete is available for group and channel admins, and added some additional links. The regulator took order for the search and seizure operation from Judge Purushottam B Jadhav, Sebi Special Judge / Additional Sessions Judge. It is unclear who runs the account, although Russia's official Ministry of Foreign Affairs Twitter account promoted the Telegram channel on Saturday and claimed it was operated by "a group of experts & journalists." False news often spreads via public groups, or chats, with potentially fatal effects. The Securities and Exchange Board of India (Sebi) had carried out a similar exercise in 2017 in a matter related to circulation of messages through WhatsApp.
from tw


Telegram با متمم | هایلایت | محمدرضا شعبانعلی
FROM American