group-telegram.com/bamotamem/51
Last Update:
آینده هوش مصنوعی مولد (۲)
هوش مصنوعی مولد الان داره خودش رو با محتوای روی اینترنت تغذیه میکنه. بخشی از این خوراک، رایگان و در دسترسه. بخشی هم به شکل غیرقانونی داره استفاده میشه (کتابهایی که نسخهی دزدیشون هست و ...).
این خوراک فعلی محتوایی، هر چه هست، روش تهیهاش چه اخلاقی باشه و چه غیراخلاقی، یه ویژگی مهم داره: بخش زیادی از اون، انسانیه.
یعنی محتوای اصیل (authentic) هست نه محتوای ساختهشده (synthetic).
اگر تعداد کاربران هوش مصنوعی مولد زیاد بشه، طی چند سال، بخش بزرگی از محتوای آنلاین، سینتتیک و ساختگی میشه و سهم محتوای تولیدی انسان در برابر محتوای تولیدی هوش مصنوعی تقریباً به صفر میرسه. و این گاوهایی که ما به "چراگاه محتوا" میفرستیم، عملاً به جای خوراک خوب، چیزی رو میخورن که قبلاً خودشون دفع کردهان.
همهٔ ضعفها، ایرادها، توهمهای زبانی (که اجتنابناپذیر و لازمهٔ خلاقیت مدلهای زبانیه) نهایتاً اونقدر زیاد تکثیر میشن که خود مدل زبانی هم تحت تاثیر همونها قرار میگیره.
اگر بخواهیم اسم عام برای این پدیده بذاریم، میشه بگیم saturation effect.
اگر اسم خاصتر رو میپسندید، میشه بگیم model collapse.
اصطلاحی که - اگر اشتباه نکنم - اولین بار ایلیا شومایلوف به کار برد.
اگر با دنیای الگوریتم آشنا باشید، احتمالاً اصطلاح The curse of recursion رو بیشتر دوست خواهید داشت (نفرین ناشی از حلقههای تو در توی ریکرسیو).
آیا این مشکل رو میشه حل کرد؟ در کوتاهمدت، عملاً این مشکل حس نخواهد شد.
در بلندمدت هم احتمالاً راهحلهایی پیدا میشه. اما در میانمدت، قطعاً یه چالش جدیه.
به هر حال، چیزی که مهمه اینه که حل این مشکل، سختتر از چیزیه که در نگاه نخست بهنظر میاد.
چون آدمها خروجی مدلهای زبانی رو ادیت میکنن و تمیز میشه. و ممکنه مدلها به سادگی متوجه نشن که با خروجی خودشون مواجه هستن.
اما قطعا ایدههایی هم هست که دیگه نوشتن از اونا، در حوصلهٔ نویسندهٔ خسته و وارفتهٔ این کانال تلگرامی نیست. 😉
اگر دوست داشتید، مقالهٔ شومایلوف و رفقاش رو هم ببینید:
AI models collapse when trained on recursively generated data.
#هوش_مصنوعی
BY با متمم | هایلایت | محمدرضا شعبانعلی
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/bamotamem/51