مدل IBM برای اسناد تصویری با حفظ ساختار
یکی از مشکلات اصلی کار با
نقطهی قوت اصلی
@silicon_brain I از هوش مصنوعی عقب نمانید
یکی از مشکلات اصلی کار با
LLM
ها خوندن اسناد با حفظ ساختار اصلیشون هست مدل Granite-Docling
یه مدل کمحجم و فوقالعاده هوشمنده که اسناد تصویری رو به متون دقیق و ساختاربندی شده تبدیل میکنه جداول، معادلات، چینش صفحه و همه چی رو حفظ میکنه. دیگه لازم نیست بعد از OCR
کلی اصلاح دستی بکنی! نقطهی قوت اصلی
Granite-Docling
در فرمت خروجی منحصربهفردش به اسم DocTags هست. این یه زبان نشانهگذاریه که خود IBM توسعه داده تا تمام المانهای صفحه رو به صورت ساختاریافته توصیف کنه. DocTags محتوای متنی رو از ساختار سند جدا میکنه و روابط بین المانها، مثلاً اینکه یک کپشن مربوط به کدوم شکله، رو هم مشخص میکنه. این فرمت برای پردازش توسط LLM ها بهینه شده و میشه بهراحتی اون رو به Markdown، JSON یا HTML تبدیل کرد.ارزش اصلی Granite-Docling برای اندازهی کوچیک و تخصص بالای اونه. این مدل همچنین قابلیتهای آزمایشی برای زبانهای غیرلاتین مثل چینی، ژاپنی و عربی هم داره که نشوندهندهی مسیر توسعهی آیندهشه.لینک هاگینگ فیس
@silicon_brain I از هوش مصنوعی عقب نمانید
👍9❤4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
در ادامه این پژوهش خفن بگم که...
وقتی یک عامل (Agent) تنها باشه، همهچیز رو باید خودش انجام بده.
اما در Multi-Agent هر عامل در یک حوزه متخصص میشه (مثل تیمی از افراد با مهارتهای مختلف).
این تقسیم وظایف + همکاری بین عاملها، باعث میشه سیستم بتونه مسائل پیچیدهتر رو حل کنه.
آیا استفاده از Multi Agent سیستم رو باهوش تر میکنه؟ نه لزوما!
اینا مباحث خیلی گسترده هم از نظر فنی و هم فلسفی هستن که در آینده تیتر خیلی از تحقیقات خواهد بود
@silicon_brain I از هوش مصنوعی عقب نمانید
وقتی یک عامل (Agent) تنها باشه، همهچیز رو باید خودش انجام بده.
اما در Multi-Agent هر عامل در یک حوزه متخصص میشه (مثل تیمی از افراد با مهارتهای مختلف).
این تقسیم وظایف + همکاری بین عاملها، باعث میشه سیستم بتونه مسائل پیچیدهتر رو حل کنه.
آیا استفاده از Multi Agent سیستم رو باهوش تر میکنه؟ نه لزوما!
در واقع Multi-Agent به جای اینکه "هوش" ذاتی سیستم رو افزایش بده، بیشتر باعث میشه هوش موجود بهینهتر سازماندهی و استفاده بشه. چیزی که الان با مفاهیمی مثل MOE و MCP داریم سمتش میریم
اینا مباحث خیلی گسترده هم از نظر فنی و هم فلسفی هستن که در آینده تیتر خیلی از تحقیقات خواهد بود
@silicon_brain I از هوش مصنوعی عقب نمانید
👍4🔥4👎1👏1🤗1
تیکتاک برای هوش مصنوعی!
متا بهتازگی پلفرم Vibes رو راهاندازی کرده، یک فید ویدیویی جدید مبتنی بر هوش مصنوعیه داخل اپ Meta AI. ظاهرش شبیه Reels هست، اما هر کلیپ کاملاً مصنوعی است.
متا این قابلیت رو نه به عنوان یک ابزار جداگانه، بلکه به عنوان یک فید اصلی در دل پلتفرمهای اجتماعی خودش وارد کرده تا نشون بده که ویدیوی ساختهشده توسط هوش مصنوعی، فرمت اصلی آینده محتوا خواهد بود. Vibes این امکان رو میده که:
متا گفته
@silicon_brain I از هوش مصنوعی عقب نمانید
متا بهتازگی پلفرم Vibes رو راهاندازی کرده، یک فید ویدیویی جدید مبتنی بر هوش مصنوعیه داخل اپ Meta AI. ظاهرش شبیه Reels هست، اما هر کلیپ کاملاً مصنوعی است.
متا این قابلیت رو نه به عنوان یک ابزار جداگانه، بلکه به عنوان یک فید اصلی در دل پلتفرمهای اجتماعی خودش وارد کرده تا نشون بده که ویدیوی ساختهشده توسط هوش مصنوعی، فرمت اصلی آینده محتوا خواهد بود. Vibes این امکان رو میده که:
متا گفته
با Vibes موانع ساخت ویدیو به شدت کاهش پیدا میکنه و دیگه لازم نیست دوربین داشته باشید یا مهارتهای پیچیده تدوین بلد باشید؛ فقط کافیه ایده داشته باشید. این موضوع باعث میشه که خلاقیت بالا بره و بینهایت محتوا ایجاد بشه.
@silicon_brain I از هوش مصنوعی عقب نمانید
❤6🤡3👍1
Anthropic مدل Claude Sonnet 4.5 رو معرفی کرد
این قویترین مدل کدنویسیشونه تا حالا. تو coding، reasoning و math از نسخههای قبلی جلوتره و برای ساخت complex agentها و استفاده طولانی روی کامپیوتر بهینه شده.
🔹Best-in-class coding
تو SWE-bench Verified عملکرد عالی داره.
🔹Agent building:
بهینه شده برای مدیریت multi-step workflows پیچیده.
🔹Extended use:
میتونه 30+ ساعت کار کدنویسی مستمر انجام بده.
🔹Reasoning gains:
پیشرفت قابل توجه تو math و logic benchmarks.
این مدل الان تو coding و reasoning tests Anthropic رتبهی اوله.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
این قویترین مدل کدنویسیشونه تا حالا. تو coding، reasoning و math از نسخههای قبلی جلوتره و برای ساخت complex agentها و استفاده طولانی روی کامپیوتر بهینه شده.
ویژگیهای اصلی
🔹Best-in-class coding
تو SWE-bench Verified عملکرد عالی داره.
🔹Agent building:
بهینه شده برای مدیریت multi-step workflows پیچیده.
🔹Extended use:
میتونه 30+ ساعت کار کدنویسی مستمر انجام بده.
🔹Reasoning gains:
پیشرفت قابل توجه تو math و logic benchmarks.
این مدل الان تو coding و reasoning tests Anthropic رتبهی اوله.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
❤5👍2🔥1
Thinking Machines Lab اولین محصولش به اسم Tinker رو معرفی کرد
این همون استارتاپیه که Mira Murati (مدیر فنی سابق OpenAI) هم همبنیانگذاره.
این یه managed API برای training و fine-tuning روی LLM هست که بدون درگیری با مسائل زیر ساختی کارتو راه میندازه
در واقع Tinker اینطوری طراحی شده که هم دستت باز باشه، هم دردسر زیرساخت رو نداشته باشی و همینطور با کلی open models مثل Llama-3.x و Qwen3 کار کنی و یه سری API primitives مثل forward_backward، optim_step، sample و save_state بهت میده که راحت بتونی training loop خودتو بسازی.
از طرف دیگه، به جای اینکه بخواد همه وزنهای مدل رو آپدیت کنه، با LoRA adapters کار میکنه که سبکتر و کمهزینهتره. همه چیزای سنگین مثل scheduling، resource allocation، failure recovery و cluster orchestration هم خودش مدیریت میکنه. مهمتر از همه اینکه کنترل کامل روی دیتا و الگوریتم اجرایی داری و حتی میتونی وزنهای میانی و نهایی مدل رو دانلود کنی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
این همون استارتاپیه که Mira Murati (مدیر فنی سابق OpenAI) هم همبنیانگذاره.
این یه managed API برای training و fine-tuning روی LLM هست که بدون درگیری با مسائل زیر ساختی کارتو راه میندازه
در واقع Tinker اینطوری طراحی شده که هم دستت باز باشه، هم دردسر زیرساخت رو نداشته باشی و همینطور با کلی open models مثل Llama-3.x و Qwen3 کار کنی و یه سری API primitives مثل forward_backward، optim_step، sample و save_state بهت میده که راحت بتونی training loop خودتو بسازی.
از طرف دیگه، به جای اینکه بخواد همه وزنهای مدل رو آپدیت کنه، با LoRA adapters کار میکنه که سبکتر و کمهزینهتره. همه چیزای سنگین مثل scheduling، resource allocation، failure recovery و cluster orchestration هم خودش مدیریت میکنه. مهمتر از همه اینکه کنترل کامل روی دیتا و الگوریتم اجرایی داری و حتی میتونی وزنهای میانی و نهایی مدل رو دانلود کنی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍8❤2🔥1😍1
تخمين زده شده كه تا سال ۲۰۲۸ با كمبود داده هاى متنى مورد نياز در خصوص آموزش مدل هاى زبانى بزرگ تر و بهتر روبرو میشیم.
اين نمودار توسط pablo villalobos منتشر شده نشون ميده كه نرخ نياز داده هاى آموزش مدل ها (رنگ آبى) خيلى سریع تر از نرخ داده هاى ايجاد شده (سبز) رشد میکنه و تا سال ۲۰۲۸ با كمبود داده جهت آموزش مدل هاى جديدتر و قویتر روبرو میشیم و احتمالا ديگه بايد رو داده هاى موجود تنها كار كرد!
@silicon_brain I از هوش مصنوعی عقب نمانید
اين نمودار توسط pablo villalobos منتشر شده نشون ميده كه نرخ نياز داده هاى آموزش مدل ها (رنگ آبى) خيلى سریع تر از نرخ داده هاى ايجاد شده (سبز) رشد میکنه و تا سال ۲۰۲۸ با كمبود داده جهت آموزش مدل هاى جديدتر و قویتر روبرو میشیم و احتمالا ديگه بايد رو داده هاى موجود تنها كار كرد!
@silicon_brain I از هوش مصنوعی عقب نمانید
❤4👍3👎1
مدل GPT-5 برق یک کشور را میبلعد!
برآوردها نشون میده که GPT-5 سالانه حدود ۱۶.۴ تراواتساعت (TWh) برق مصرف میکنه — یعنی بیشتر از کل مصرف سالانه کشور اسلوونی
@silicon_brain I از هوش مصنوعی عقب نمانید
برآوردها نشون میده که GPT-5 سالانه حدود ۱۶.۴ تراواتساعت (TWh) برق مصرف میکنه — یعنی بیشتر از کل مصرف سالانه کشور اسلوونی
اما اگه این روند ادامه پیدا کنه، نسل بعدی مدلهای هوش مصنوعی نهفقط مغز دیجیتال دنیا، بلکه بزرگترین مصرفکننده انرژی هم میشن.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍9❤4🔥1😢1
شرکت OpenAI از AgentKit رونمایی کرد! خفن و Game Changer!
داریم به سمت یک تغییر بنیادی تو نحوهی ساخت و استقرار ایجنتها میریم.
ویژگی های اصلی:
یک محیط بصری (Visual Canvas) برای طراحی گردشکارهای چندایجنتی با منطق شرطی، جریان داده، نسخهسازی و امکان همکاری تیمی و ایجنتهای مختلف که با هم ترکیب و تست کنی.
مرکز داده متمرکز برای مدیریت تمام اتصالها و APIها.
از طریق این بخش میتونی اتصال سرویسهایی مثل Google Drive، Dropbox، SharePoint و سایر ابزارهای سازمانی رو از یک داشبورد واحد مدیریت کنی.
ماژولی برای افزودن ایجنتهای چتمحور به اپلیکیشنها و وبسایتها.
در عرض چند دقیقه میتونی یک چتبات با طراحی سفارشی، رنگ برند خودت و استریم زندهی پاسخها رو به محصولت اضافه کنی.
ابزار ارزیابی عملکرد ایجنتها.
به کمک دیتاستها، نمرهدهی خودکار و Reinforcement Fine-Tuning میتونی عملکرد ایجنتات رو مثل مدلهای بزرگ زبانی (LLMs) بهصورت مداوم بهبود بدی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
داریم به سمت یک تغییر بنیادی تو نحوهی ساخت و استقرار ایجنتها میریم.
و احتمالا n8n دیگه به رحمت الهی میره :)
ویژگی های اصلی:
ویژگی Agent Builder
یک محیط بصری (Visual Canvas) برای طراحی گردشکارهای چندایجنتی با منطق شرطی، جریان داده، نسخهسازی و امکان همکاری تیمی و ایجنتهای مختلف که با هم ترکیب و تست کنی.
ویژگی Connector Registry
مرکز داده متمرکز برای مدیریت تمام اتصالها و APIها.
از طریق این بخش میتونی اتصال سرویسهایی مثل Google Drive، Dropbox، SharePoint و سایر ابزارهای سازمانی رو از یک داشبورد واحد مدیریت کنی.
ویژگی ChatKit
ماژولی برای افزودن ایجنتهای چتمحور به اپلیکیشنها و وبسایتها.
در عرض چند دقیقه میتونی یک چتبات با طراحی سفارشی، رنگ برند خودت و استریم زندهی پاسخها رو به محصولت اضافه کنی.
ویژگی Evals 2.0
ابزار ارزیابی عملکرد ایجنتها.
به کمک دیتاستها، نمرهدهی خودکار و Reinforcement Fine-Tuning میتونی عملکرد ایجنتات رو مثل مدلهای بزرگ زبانی (LLMs) بهصورت مداوم بهبود بدی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍10❤4🔥1
تو این ویدئو کار با AgentKit رو نشون دادن که میشه در قالب workflow پیادش کرد
https://www.youtube.com/watch?v=44eFf-tRiSg
@silicon_brain | از هوش مصنوعی عقب نمانید
https://www.youtube.com/watch?v=44eFf-tRiSg
@silicon_brain | از هوش مصنوعی عقب نمانید
YouTube
Intro to Agent Builder
Christina Huang from OpenAI guides you through Agent Builder—a new visual tool to create agentic workflows.
Drag and drop nodes, connect tools, and publish your workflows with ChatKit and the Agents SDK.
https://platform.openai.com/agent-builder
Drag and drop nodes, connect tools, and publish your workflows with ChatKit and the Agents SDK.
https://platform.openai.com/agent-builder
👍4❤2🔥2
Mysql vs Mariadb vs Postgresql
دیتابیس
دیتابیس
دیتابیس
@silicon_brain | از هوش مصنوعی عقب نمانید
دیتابیس
MySQL
رابطهای هست که خیلی رو وب استفاده شده. سرعتش برای پروژههایی که بیشتر خوندن دادهها مهمه (read-heavy workloads) خوبه و مدیریت replication و clustering رو راحت انجام میده. ولی قابلیتهای پیشرفته SQL مثل CTEs محدود هستن و پشتیبانی از دادههای JSON یا کار با سبک NoSQL چندان قوی نیست.دیتابیس
MariaDB
یه fork از MySQL محسوب میشه که توسط توسعهدهندههای MySQL ساخته شده. این سیستم سریعتره و تو عملکرد SQL پیشرفته، قابلیتهایی مثل CTEs، window functions و dynamic columns داره و امنیت و authentication plugins بهتری داره. ولی جامعه کاربریش کوچیکتره.دیتابیس
PostgreSQL
یه object-relational حرفهایه و برای کارهای پیچیده، تحلیل دادهها و مدیریت complex queries عالیه. این دیتابیس از ACID transactions و MVCC پشتیبانی میکنه و همینطور JSON/NoSQL support، custom data types، window functions و full-text search رو ارائه میده. ولی برای پروژههای ساده بعضاً بیش از حد سنگینه و ممکنه برای insert-heavy workloads کمی کندتر از MySQL عمل کنه.@silicon_brain | از هوش مصنوعی عقب نمانید
❤4👍1😍1
مدلهای رایگان برای تست و استفاده با OpenRouter
در بخش Free Models پلتفرم OpenRouter میشه به دهها مدل هوش مصنوعی از شرکتهای مختلف بهصورت کاملاً رایگان دسترسی داشت. برای مکالمه، کدنویسی، ترجمه، تصویرسازی و تست API.
• فهرست مدلهای رایگان از Anthropic، Google, Mistral, Cohere, Nous و غیره
• امکان استفاده مستقیم در محیط وب یا از طریق API
• گزینهی فیلتر با max_price=0 برای نمایش فقط مدلهای رایگان
• مناسب برای تست عملکرد مدلها پیش از خرید پلنهای پولی
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
در بخش Free Models پلتفرم OpenRouter میشه به دهها مدل هوش مصنوعی از شرکتهای مختلف بهصورت کاملاً رایگان دسترسی داشت. برای مکالمه، کدنویسی، ترجمه، تصویرسازی و تست API.
ویژگیها:
• فهرست مدلهای رایگان از Anthropic، Google, Mistral, Cohere, Nous و غیره
• امکان استفاده مستقیم در محیط وب یا از طریق API
• گزینهی فیلتر با max_price=0 برای نمایش فقط مدلهای رایگان
• مناسب برای تست عملکرد مدلها پیش از خرید پلنهای پولی
لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
❤4👍2😍1
Agent vs. Workflow
وقتی میگیم Workflow یعنی یک مسیر روشن و از پیش تعیینشده داریم؛ یعنی میدونی قدم اول چی باید بشه، بعدش قدم دوم، بعدش سوم، و اگر شرطی پیش بیاد، شاخههایی تعریف کردی.
ولی Agent مثل یه عامل هوشمند که وقتی کار رو شروع میکنه، نمیدونی دقیقاً چه مسیرهایی ممکنه بره. یعنی وقتی با وضعیت پیچیده یا غیرمعمول روبهرو بشه، خودش تصمیم میگیره چه مرحلهای بیاره، چه ابزاری استفاده کنه، حتی ممکنه وسط کار مسیرش رو عوض کنه. Agent مستقل عمل میکنه، خودش “فکر” میکنه، تصمیم میگیره.
@silicon_brain I از هوش مصنوعی عقب نمانید
وقتی میگیم Workflow یعنی یک مسیر روشن و از پیش تعیینشده داریم؛ یعنی میدونی قدم اول چی باید بشه، بعدش قدم دوم، بعدش سوم، و اگر شرطی پیش بیاد، شاخههایی تعریف کردی.
ولی Agent مثل یه عامل هوشمند که وقتی کار رو شروع میکنه، نمیدونی دقیقاً چه مسیرهایی ممکنه بره. یعنی وقتی با وضعیت پیچیده یا غیرمعمول روبهرو بشه، خودش تصمیم میگیره چه مرحلهای بیاره، چه ابزاری استفاده کنه، حتی ممکنه وسط کار مسیرش رو عوض کنه. Agent مستقل عمل میکنه، خودش “فکر” میکنه، تصمیم میگیره.
خلاصه که Workflow مثل یه دستور پخت آش هست، گام به گام تعریف شده. اما Agent مثل یه آشپزه که مواد رو میبینه، بوی آش رو حس میکنه، شاید ادویه بیشتری بزنه یا سبزی کم کنه، بر اساس تجربه و شرایط، تغییر میده روش خودشو.اگه کاری ثابت و تکراری باشه (مثلاً پردازش فاکتورها، ورود دادهها، تأیید مدارک) Workflow گزینه خوبیه چون قابل کنترل، ساده و قابل پیشبینی است. اما اگه کاری هست که ورودیها متنوعاند، باید تصمیمگیری پویا انجام بشه، یا ممکنه شرایط غیرمنتظره پیش بیاد، اینجا Agent مناسبتره
@silicon_brain I از هوش مصنوعی عقب نمانید
👍10❤2🔥1😍1
دقت ماشین لرنینگ کلاسیک یا خلاقیت ایجنت های امروزی؟!
الگوریتمهای کلاسیک مثل XGBoost هنوز تو پردازش دادههای Tabular یا ساختاریافته برجسته هستن. یکی از برتریهای اصلی این روش ها اینه که وقتی ویژگیها (features) مهندسی شدن و روابط پیچیده ولی با تعداد محدود متغیر داریم، این روشها سریع، پایدار و قابل تبیین (interpretable) عمل میکنن.
اما وقتی مدلهای بزرگ مبتنی بر شبکههای عصبی عمیق و به ویژه LLM وارد میدان شدن تواناییهایی اضافه پیدا کردن که مدلهای کلاسیک ندارن: کار با متن طبیعی، درک زبان، خلاقیت تولیدی، ارتباط با ابزارها، و امکان تعامل با محیط. این مدلها قادرن چند وظیفه رو همزمان مدیریت کنن و در مسائلی که نیاز به فهم موضوع (context) و زمینهسازی دارن، بهتر عمل کنن.
در ادامه این تحول، چیزی که بهتدریج بیشتر توجه را جلب کرده، مفهوم Agent / Agentic AI است: یعنی سیستمهایی که صرفاً پیشبینی نمیکنه بلکه هدفمحور رفتار میکنه تصمیم میگیره و از ابزار استفاده میکنه، حافظه داره و میتونه چند مرحله رو طی کنه تا به نتیجه برسه.
اما این به معنی حذف کاربرد الگوریتمهای کلاسیک نیست. در حقیقت، روشهای مدرن اغلب از مدلهای کلاسیک به عنوان ابزار کمکی یا مؤلفه در ساختار بزرگتر استفاده میکنن.
مثلاً برای فیلتر مقدماتی دادها، یا ایجاد معیارهای اصل سیستم تصمیمگیری. در ترکیب با شبکههای بزرگ، مدل های کلاسیک میتونن سرعت و هزینه رو خیلی کاهش بدن و خیلی مفید تر خودشونو نشون بدن
در نهایت این ذهنیت رو باید داشته باشیم که در راه رسیدن به AGI ما الان تو مرحله Agentic AI هستیم و تو این مسیر هر جا مولفه های اصلی ما مصرف منابع، شفافیت، امنیت و هماهنگی و در نهایت دقت بالاست. میخواد با هر روش و ابزاری باشه
@silicon_brain I از هوش مصنوعی عقب نمانید
الگوریتمهای کلاسیک مثل XGBoost هنوز تو پردازش دادههای Tabular یا ساختاریافته برجسته هستن. یکی از برتریهای اصلی این روش ها اینه که وقتی ویژگیها (features) مهندسی شدن و روابط پیچیده ولی با تعداد محدود متغیر داریم، این روشها سریع، پایدار و قابل تبیین (interpretable) عمل میکنن.
اما وقتی مدلهای بزرگ مبتنی بر شبکههای عصبی عمیق و به ویژه LLM وارد میدان شدن تواناییهایی اضافه پیدا کردن که مدلهای کلاسیک ندارن: کار با متن طبیعی، درک زبان، خلاقیت تولیدی، ارتباط با ابزارها، و امکان تعامل با محیط. این مدلها قادرن چند وظیفه رو همزمان مدیریت کنن و در مسائلی که نیاز به فهم موضوع (context) و زمینهسازی دارن، بهتر عمل کنن.
در ادامه این تحول، چیزی که بهتدریج بیشتر توجه را جلب کرده، مفهوم Agent / Agentic AI است: یعنی سیستمهایی که صرفاً پیشبینی نمیکنه بلکه هدفمحور رفتار میکنه تصمیم میگیره و از ابزار استفاده میکنه، حافظه داره و میتونه چند مرحله رو طی کنه تا به نتیجه برسه.
تلاقی ماشین لرنینگ کلاسیک و مدرن
اما این به معنی حذف کاربرد الگوریتمهای کلاسیک نیست. در حقیقت، روشهای مدرن اغلب از مدلهای کلاسیک به عنوان ابزار کمکی یا مؤلفه در ساختار بزرگتر استفاده میکنن.
مثلاً برای فیلتر مقدماتی دادها، یا ایجاد معیارهای اصل سیستم تصمیمگیری. در ترکیب با شبکههای بزرگ، مدل های کلاسیک میتونن سرعت و هزینه رو خیلی کاهش بدن و خیلی مفید تر خودشونو نشون بدن
در نهایت این ذهنیت رو باید داشته باشیم که در راه رسیدن به AGI ما الان تو مرحله Agentic AI هستیم و تو این مسیر هر جا مولفه های اصلی ما مصرف منابع، شفافیت، امنیت و هماهنگی و در نهایت دقت بالاست. میخواد با هر روش و ابزاری باشه
@silicon_brain I از هوش مصنوعی عقب نمانید
❤9👍5🔥1👌1
پارامترهایی که در کنترل رفتار و تولید LLM استفاده میشن
کنترل میزان تصادفی بودن خروجی. هرچه مقدار دما پایینتر باشد، مدل خروجی مطمئنتر و قابلپیشبینیتری تولید میکند.
مدل از کوچکترین مجموعه ممکن از توکنهایی انتخاب میکند که احتمال تجمعی آنها از آستانهی مشخصشدهی p بیشتر است.
انتخاب مدل را به k توکنی محدود میکند که بالاترین احتمال را برای انتخاب بعدی دارند.
حد بالایی برای مجموع توکنهای ورودی و خروجی در یک فراخوانی API تعیین میکند.
احتمال انتخاب توکنهایی را که قبلاً در متن تولیدی ظاهر شدهاند کاهش میدهد تا از تکرار جلوگیری شود.
به توکنهایی که حداقل یکبار در متن آمدهاند، جریمهای اعمال میکند تا مدل را به معرفی مفاهیم جدید تشویق کند.
رشتهای از کاراکترها که اگر مدل آن را تولید کند، خروجی بلافاصله متوقف میشود.
@silicon_brain | از هوش مصنوعی عقب نمانید
Temperature
کنترل میزان تصادفی بودن خروجی. هرچه مقدار دما پایینتر باشد، مدل خروجی مطمئنتر و قابلپیشبینیتری تولید میکند.
Top-p
مدل از کوچکترین مجموعه ممکن از توکنهایی انتخاب میکند که احتمال تجمعی آنها از آستانهی مشخصشدهی p بیشتر است.
Top-k
انتخاب مدل را به k توکنی محدود میکند که بالاترین احتمال را برای انتخاب بعدی دارند.
Max Tokens
حد بالایی برای مجموع توکنهای ورودی و خروجی در یک فراخوانی API تعیین میکند.
Frequency Penalty
احتمال انتخاب توکنهایی را که قبلاً در متن تولیدی ظاهر شدهاند کاهش میدهد تا از تکرار جلوگیری شود.
Presence Penalty
به توکنهایی که حداقل یکبار در متن آمدهاند، جریمهای اعمال میکند تا مدل را به معرفی مفاهیم جدید تشویق کند.
Stop Sequences
رشتهای از کاراکترها که اگر مدل آن را تولید کند، خروجی بلافاصله متوقف میشود.
@silicon_brain | از هوش مصنوعی عقب نمانید
👍6❤2
مدلهای فشرده و کمحجم Qwen3-VL 4B/8B توسط Alibaba با قابلیتهای پیشرفته
تیم Qwen از Alibaba مدلهای جدید Qwen3-VL 4B و 8B را با دو نسخه Instruct و Thinking معرفی کرده که با استفاده از FP8، مصرف حافظه کمتری دارن. این مدلها با حفظ قابلیتهای گستردهای مانند درک تصویر و ویدئو، OCR چندزبانه، مکانیابی فضایی و کنترل رابط کاربری، امکان پردازش متون طولانی تا یک میلیون کلمه رو ساپورت میکنن
این نسخهها برای استفاده در دستگاههای با حافظه محدود و محیطهای خاص بهینه شدن و با راهنماییهای فنی برای اجرا در vLLM و SGLang عرضه شدن.
@silicon_brain I از هوش مصنوعی عقب نمانید
تیم Qwen از Alibaba مدلهای جدید Qwen3-VL 4B و 8B را با دو نسخه Instruct و Thinking معرفی کرده که با استفاده از FP8، مصرف حافظه کمتری دارن. این مدلها با حفظ قابلیتهای گستردهای مانند درک تصویر و ویدئو، OCR چندزبانه، مکانیابی فضایی و کنترل رابط کاربری، امکان پردازش متون طولانی تا یک میلیون کلمه رو ساپورت میکنن
این نسخهها برای استفاده در دستگاههای با حافظه محدود و محیطهای خاص بهینه شدن و با راهنماییهای فنی برای اجرا در vLLM و SGLang عرضه شدن.
این پیشرفت امکان بهرهبرداری آسانتر از هوش مصنوعی چندرسانهای رو برای توسعهدهنده ها فراهم میکنه.
@silicon_brain I از هوش مصنوعی عقب نمانید
❤7👍3🔥1
مدل کوچک Claude Haiku 4.5 از Anthropic
این یه مدل کوچیک و جدید از خانوادهی Claude 4.5 هست. هدفش اینه که با هزینه و latency پایینتر، کارایی خوبی تو کارهای coding ارائه بده. این مدل در واقع یه گزینهی سبکتر در کنار مدلهای Sonnet و Opus محسوب میشه اما از نظر feature parity، امکاناتش روی همهی پلتفرمها یکیه.
این مدل از نظر کیفیت کدنویسی تقریباً به سطح frontier models نزدیکه اما هزینهی خیلی پایینتری داره. تو بعضی از تسکهای مربوط به UI و computer use حتی از Sonnet 4 هم بهتر عمل میکنه. این مدل طوری طراحی شده که تو parallel orchestration خیلی خوب کار کنه؛ یعنی مثلاً Sonnet 4.5 بتونه plan کنه و Haiku 4.5 اون subtaskها رو خیلی سریع اجرا کنه.
قیمتش هم برای هر یه میلیون input و output tokens حدود ۱ دلار و ۵ دلاره.
از نظر معماری، Haiku 4.5 ساختاری مشابه Sonnet داره ولی بهینهسازی شده تا هم سرعت بالا بره و هم هزینه بیاد پایین. از tool-enabled pipelines مثل bash و file edits پشتیبانی میکنه تا کارهای واقعی برنامهنویسی رو راحتتر انجام بده.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
این یه مدل کوچیک و جدید از خانوادهی Claude 4.5 هست. هدفش اینه که با هزینه و latency پایینتر، کارایی خوبی تو کارهای coding ارائه بده. این مدل در واقع یه گزینهی سبکتر در کنار مدلهای Sonnet و Opus محسوب میشه اما از نظر feature parity، امکاناتش روی همهی پلتفرمها یکیه.
این مدل از نظر کیفیت کدنویسی تقریباً به سطح frontier models نزدیکه اما هزینهی خیلی پایینتری داره. تو بعضی از تسکهای مربوط به UI و computer use حتی از Sonnet 4 هم بهتر عمل میکنه. این مدل طوری طراحی شده که تو parallel orchestration خیلی خوب کار کنه؛ یعنی مثلاً Sonnet 4.5 بتونه plan کنه و Haiku 4.5 اون subtaskها رو خیلی سریع اجرا کنه.
قیمتش هم برای هر یه میلیون input و output tokens حدود ۱ دلار و ۵ دلاره.
از نظر معماری، Haiku 4.5 ساختاری مشابه Sonnet داره ولی بهینهسازی شده تا هم سرعت بالا بره و هم هزینه بیاد پایین. از tool-enabled pipelines مثل bash و file edits پشتیبانی میکنه تا کارهای واقعی برنامهنویسی رو راحتتر انجام بده.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
❤4👍1
🏐 تحلیل داده با استفاده از نرم افزار jmp
📊 تحلیل داده امروز یکی از پرتقاضاترین مهارتها در بازار کار ایران و جهان است. سازمانها برای تصمیمگیریهای دقیقتر و افزایش بهرهوری به متخصصانی نیاز دارند که توانایی جمعآوری، تحلیل و تفسیر دادهها را داشته باشند
🎙 مدرس: دکتر مجید ایوزیان _ مشاور تخصصی توسعه دانش و مهارت مهندسین صنایع
🗓 تاریخ: یکشنبه | 27 مهر | ساعت 20
🚀 آموزش کاربردی با مثالهای واقعی + پرسش و پاسخ
☄️ ثبت نام رایگان در وبینار از لینک زیر:
🔗 www.group-telegram.com/tiheac_bot?start=1
🔗 www.group-telegram.com/tiheac_bot?start=1
➖➖➖➖➖➖➖➖➖
🌐 https://tihe.ac.ir
📞 021-88933620
📞 021-86741
📊 تحلیل داده امروز یکی از پرتقاضاترین مهارتها در بازار کار ایران و جهان است. سازمانها برای تصمیمگیریهای دقیقتر و افزایش بهرهوری به متخصصانی نیاز دارند که توانایی جمعآوری، تحلیل و تفسیر دادهها را داشته باشند
🎙 مدرس: دکتر مجید ایوزیان _ مشاور تخصصی توسعه دانش و مهارت مهندسین صنایع
🗓 تاریخ: یکشنبه | 27 مهر | ساعت 20
🚀 آموزش کاربردی با مثالهای واقعی + پرسش و پاسخ
☄️ ثبت نام رایگان در وبینار از لینک زیر:
🔗 www.group-telegram.com/tiheac_bot?start=1
🔗 www.group-telegram.com/tiheac_bot?start=1
➖➖➖➖➖➖➖➖➖
🌐 https://tihe.ac.ir
📞 021-88933620
📞 021-86741
❤3
چرا Transformerها حذف نشدن؟
راز این ماندگاری چیه؟
1. انقلاب در درک توالی دادهها
مهمترین نوآوری ترنسفورمر، جایگزینی کامل ساختارهای تکرارشونده با مکانیسم توجه خودکار بود. این مکانیسم به مدل اجازه میده تا هنگام پردازش یک کلمه، به طور همزمان به اهمیت و ارتباط تمام کلمات دیگر در دنباله ورودی توجه کنه.
2. مقیاسپذیری و کارایی سختافزاری
ترنسفورمر به شکلی طراحی شده که هرچقدر داده، پارامتر و محاسبات رو زیاد کنید عملکردش بهتر میشه. همین ویژگی باعث شده مدلهایی مثلGPT بتونن با صدها میلیارد پارامتر، همچنان قابل آموزش و کاربردی باشند.
3. معماری ماژولار و سازگار
ترنسفورمر چارچوبی منعطف هست که میتونه برای انواع دادهها مثل متن، تصویر، صدا و حتی ویدیو بهکار گرفته بشه.
این ویژگیها باعث شده که هنوز بهترین گزینه برای مدلهای مولد باقی بمونه و تا به امروز رقیب خیلی جدی هم نداشته
@silicon_brain | از هوش مصنوعی عقب نمانید
از سال ۲۰۱۷ معماری ترنسفورمر با حذف شبکههای عصبی بازگشتی (RNN) و حافظه کوتاهمدت طولانی (LSTM)، مسیر توسعه مدلهای قدرتمندی مثل GPT رو هموار کرد و به قلب تمام LLMها و تکنولوژی های امروزی تبدیل شد.
راز این ماندگاری چیه؟
1. انقلاب در درک توالی دادهها
مهمترین نوآوری ترنسفورمر، جایگزینی کامل ساختارهای تکرارشونده با مکانیسم توجه خودکار بود. این مکانیسم به مدل اجازه میده تا هنگام پردازش یک کلمه، به طور همزمان به اهمیت و ارتباط تمام کلمات دیگر در دنباله ورودی توجه کنه.
2. مقیاسپذیری و کارایی سختافزاری
ترنسفورمر به شکلی طراحی شده که هرچقدر داده، پارامتر و محاسبات رو زیاد کنید عملکردش بهتر میشه. همین ویژگی باعث شده مدلهایی مثلGPT بتونن با صدها میلیارد پارامتر، همچنان قابل آموزش و کاربردی باشند.
3. معماری ماژولار و سازگار
ترنسفورمر چارچوبی منعطف هست که میتونه برای انواع دادهها مثل متن، تصویر، صدا و حتی ویدیو بهکار گرفته بشه.
این ویژگیها باعث شده که هنوز بهترین گزینه برای مدلهای مولد باقی بمونه و تا به امروز رقیب خیلی جدی هم نداشته
@silicon_brain | از هوش مصنوعی عقب نمانید
❤9⚡1👍1🫡1
FAISS اساس جستجوی کارآمد در سیستم های RAG
کتابخانهی FAISS ( Facebook AI Similarity Search) یه ابزار open-source خفنه که توسط Meta توسعه داده شده و برای جستوجوی سریع و کارآمد بین بردارها (vector search) طراحی شده. این ابزار یکی از اصلیترین گزینهها برای ساخت سیستمهای RAG، موتورهای جستوجوی برداری، و بازیابی اطلاعات معنایی در پروژههای هوش مصنوعی هستش.
وقتی دادهها (مثل متن، تصویر یا صدا) رو به بردارهای عددی (embeddings) تبدیل میکنی، برای پیدا کردن نزدیکترین داده باید بتونی بین میلیونها بردار به سرعت جستوجو کنی و FAISS اینکارو توسط روش پیدا کردن نزدیکترین همسایهها (Nearest Neighbors) با سرعت بالا حتی روی دیتاست های عظیم (میلیونها یا میلیاردها بردار) انجام میده
🔹پشتیبانی از CPU و GPU (با CUDA)
🔹جستوجوی بسیار سریعتر از جستوجوی brute force
🔹مناسب برای سیستمهایی با مقادیر عظیم داده (مثلا اگر ۱۰۰ میلیون بردار داشته باشی، FAISS میتونه در کسری از ثانیه نزدیکترین همسایهها رو پیدا کنه)
به طور پیشفرض از دو نوع معیار فاصله پشتیبانی داره که
فاصلهی اقلیدسی (L2)
شباهت کسینوسی (Cosine Similarity) هستن
حالا اگه میخوای دیتا رو به بردار تبدیل کنی (که بعدش از FAISS استفاده کنی) بهتره از مدل های هاگینگ فیس برای این کار استفاده کنی:
sentence-transformers/all-MiniLM-L6-v2 → خیلی سریع و سبک (384 بُعد)
sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 → پشتیبانی از زبان فارسی
BAAI/bge-m3 → جدید و بسیار قوی برای RAG
intfloat/multilingual-e5-large → دقت بالا در زبانهای مختلف از جمله فارسی
@silicon_brain | از هوش مصنوعی عقب نمانید
کتابخانهی FAISS ( Facebook AI Similarity Search) یه ابزار open-source خفنه که توسط Meta توسعه داده شده و برای جستوجوی سریع و کارآمد بین بردارها (vector search) طراحی شده. این ابزار یکی از اصلیترین گزینهها برای ساخت سیستمهای RAG، موتورهای جستوجوی برداری، و بازیابی اطلاعات معنایی در پروژههای هوش مصنوعی هستش.
هدف اصلی FAISS
وقتی دادهها (مثل متن، تصویر یا صدا) رو به بردارهای عددی (embeddings) تبدیل میکنی، برای پیدا کردن نزدیکترین داده باید بتونی بین میلیونها بردار به سرعت جستوجو کنی و FAISS اینکارو توسط روش پیدا کردن نزدیکترین همسایهها (Nearest Neighbors) با سرعت بالا حتی روی دیتاست های عظیم (میلیونها یا میلیاردها بردار) انجام میده
سرعت و عملکرد بالا
🔹پشتیبانی از CPU و GPU (با CUDA)
🔹جستوجوی بسیار سریعتر از جستوجوی brute force
🔹مناسب برای سیستمهایی با مقادیر عظیم داده (مثلا اگر ۱۰۰ میلیون بردار داشته باشی، FAISS میتونه در کسری از ثانیه نزدیکترین همسایهها رو پیدا کنه)
به طور پیشفرض از دو نوع معیار فاصله پشتیبانی داره که
فاصلهی اقلیدسی (L2)
شباهت کسینوسی (Cosine Similarity) هستن
تبدیل دیتا به بردار
حالا اگه میخوای دیتا رو به بردار تبدیل کنی (که بعدش از FAISS استفاده کنی) بهتره از مدل های هاگینگ فیس برای این کار استفاده کنی:
sentence-transformers/all-MiniLM-L6-v2 → خیلی سریع و سبک (384 بُعد)
sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 → پشتیبانی از زبان فارسی
BAAI/bge-m3 → جدید و بسیار قوی برای RAG
intfloat/multilingual-e5-large → دقت بالا در زبانهای مختلف از جمله فارسی
@silicon_brain | از هوش مصنوعی عقب نمانید
❤7❤🔥1👍1🔥1