Telegram Group Search
لاری الیسون، هم بنیانگذار اوراکل ثروتمند ترین مرد جهان

این موضوع نشون میده که دنیا به سمت دیتا سنترها حرکت میکنه و احتمالا سرمایه گذاری و رشد روی دیتابیس و دیتاسنترها رو تو آینده بیشتر ببینیم


@silicon_brain I از هوش مصنوعی عقب نمانید
👍122👎2
‌‏ xAI مدل جدید Grok 4 Fast رو معرفی کرد

این یه مدل Multimodal Reasoning هست که حدود 98% ارزون‌تر از Grok 4 اجرا میشه.

به جای اینکه الکی Token زیاد مصرف کنه، با Refined Reasoning Chain کیفیت رو نگه می‌داره. از xAI Tool Integration مثل مرورگر و اجرای کد برای Multi-step Reasoning استفاده می‌کنه.

ویژگی ها اصلی

🔹مصرف 40% Thinking Token کمتر در عین حفظ Accuracy.
🔹کاهش Compute Cost تا 98% نسبت به Grok 4.
🔹پشتیبانی از Multimodal Input (Text + Image).
🔹ابزار داخلی برای Browsing و Code Execution.
🔹موجود در حالت‌های Fast و Auto روی همه پلتفرم‌ها.
لینک

@silicon_brain | از هوش مصنوعی عقب نمانید
4👍4🔥1👏1
هوش مصنوعی آینده از کجا تغذیه میکنه؟

داده‌های اینترنت برای آموزش مدل‌های هوش مصنوعی رو به پایانه! اما شاید این موضوع خبر خوبی باشه!
تحقیقات جدید نشون می‌دن که نگاه ما به داده‌های آموزشی هوش مصنوعی شاید از پایه اشتباه بوده.
با رسیدن به دیوار داده جایی که متن باکیفیت اینترنتی کمیاب می‌شه دیگه نمی‌شه صرفاً با اضافه کردن داده بیشتر پیش رفت.

مدل‌ها به تریلیون‌ها توکن متن نیاز دارن، اما اینترنت محدوده. جمع‌آوری بیشتر وب‌سایت‌ها بازدهی کاهشی داره و تکرار داده‌ها باعث overfit بیشتر مدل‌ها می‌شه.

موضوع مهم دیگه اینه که شکاف بزرگی بین محتوای اینترنت (بلاگ‌ها، خبرها و..) و نحوه استفاده واقعی ما از هوش مصنوعی (پرسش‌ها و دستورالعمل‌ها) وجود داره.

حالا تحقیقات جدید میگن که به‌جای استفاده خام از محتوای اینترنت، اون رو بازنویسی کنیم تا به شکل‌های جفت پرسش‌وپاسخ، محتوای آموزشی و قالب‌های مکالمه‌ای تبدیل بشن یعنی آموزش از کتاب درسی به‌جای صفحات پراکنده وب.
داریم وارد دوره‌ای می‌شیم که انتخاب و دگرگون‌سازی داده‌ها از جمع‌آوری داده مهم‌تره.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍83👏2👎1
قابلیت جدید Chrome به اسم DevTools MCP

این ویژگی باعث میشه AI Agentها بتونن مستقیم توی مرورگر Chrome کد رو تست، دیباگ و آنالیز کنن. دیگه لازم نیست فقط کد بسازن، الان می‌تونن مثل یه برنامه‌نویس واقعی همه‌چیز رو Real-time ببینن و بررسی کنن.

ویژگی‌ها

🔹ایجنت می‌تونه کد رو مستقیم توی Chrome تست کنه.
🔹26 تا ابزار داخلی برای Debugging، Performance Tracing و Network Analysis.
🔹شبیه‌سازی اکشن‌های واقعی کاربر مثل کلیک یا پر کردن فرم.
🔹ساپورت Automated Performance Audit با داده‌های Trace.
🔹همه چی توی یه محیط امن Sandboxed Chrome اجرا میشه.

چجوری کار میکنه؟

🔹ایجنت AI Agent از طریق MCP به Chrome وصل میشه.
🔹می‌تونه دستورایی مثل performance_start_trace بده تا داده‌های زنده Performance جمع بشه.
🔹خروجی میاد توی Agent → خطاها رو آنالیز می‌کنه، فیکس رو چک می‌کنه و حتی پیشنهاد Optimization میده.
🔹با AI Assistantهایی مثل Claude، Cursor، Copilot یا Gemini CLI هم کار می‌کنه.
لینک

@silicon_brain | از هوش مصنوعی عقب نمانید
👍113🔥1
مدل IBM برای اسناد تصویری با حفظ ساختار

یکی از مشکلات اصلی کار با LLM ها خوندن اسناد با حفظ ساختار اصلیشون هست مدل Granite-Docling یه مدل کم‌حجم و فوق‌العاده هوشمنده که اسناد تصویری رو به متون دقیق و ساختاربندی شده تبدیل می‌کنه جداول، معادلات، چینش صفحه و همه چی رو حفظ می‌کنه. دیگه لازم نیست بعد از OCR کلی اصلاح دستی بکنی!

نقطه‌ی قوت اصلی Granite-Docling در فرمت خروجی منحصربه‌فردش به اسم DocTags هست. این یه زبان نشانه‌گذاریه که خود IBM توسعه داده تا تمام المان‌های صفحه رو به صورت ساختاریافته توصیف کنه. DocTags محتوای متنی رو از ساختار سند جدا می‌کنه و روابط بین المان‌ها، مثلاً اینکه یک کپشن مربوط به کدوم شکله، رو هم مشخص می‌کنه. این فرمت برای پردازش توسط LLM ها بهینه شده و می‌شه به‌راحتی اون رو به Markdown، JSON یا HTML تبدیل کرد.
ارزش اصلی Granite-Docling برای اندازه‌ی کوچیک و تخصص بالای اونه. این مدل همچنین قابلیت‌های آزمایشی برای زبان‌های غیرلاتین مثل چینی، ژاپنی و عربی هم داره که نشون‌دهنده‌ی مسیر توسعه‌ی آینده‌شه.
لینک هاگینگ فیس
@silicon_brain I از هوش مصنوعی عقب نمانید
👍94🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
در ادامه این پژوهش خفن بگم که...

وقتی یک عامل (Agent) تنها باشه، همه‌چیز رو باید خودش انجام بده.
اما در Multi-Agent هر عامل در یک حوزه متخصص میشه (مثل تیمی از افراد با مهارت‌های مختلف).

این تقسیم وظایف + همکاری بین عامل‌ها، باعث میشه سیستم بتونه مسائل پیچیده‌تر رو حل کنه.

آیا استفاده از Multi Agent سیستم رو باهوش تر میکنه؟ نه لزوما!
در واقع Multi-Agent به جای اینکه "هوش" ذاتی سیستم رو افزایش بده، بیشتر باعث میشه هوش موجود بهینه‌تر سازماندهی و استفاده بشه. چیزی که الان با مفاهیمی مثل MOE و MCP داریم سمتش میریم

اینا مباحث خیلی گسترده هم از نظر فنی و هم فلسفی هستن که در آینده تیتر خیلی از تحقیقات خواهد بود

@silicon_brain I از هوش مصنوعی عقب نمانید
👍4🔥4👎1👏1🤗1
تیک‌تاک برای هوش مصنوعی!

متا به‌تازگی پلفرم Vibes رو راه‌اندازی کرده، یک فید ویدیویی جدید مبتنی بر هوش مصنوعیه داخل اپ Meta AI. ظاهرش شبیه Reels هست، اما هر کلیپ کاملاً مصنوعی است.

متا این قابلیت رو نه به عنوان یک ابزار جداگانه، بلکه به عنوان یک فید اصلی در دل پلتفرم‌های اجتماعی خودش وارد کرده تا نشون بده که ویدیوی ساخته‌شده توسط هوش مصنوعی، فرمت اصلی آینده محتوا خواهد بود. Vibes این امکان رو می‌ده که:

متا گفته
با Vibes موانع ساخت ویدیو به شدت کاهش پیدا می‌کنه و دیگه لازم نیست دوربین داشته باشید یا مهارت‌های پیچیده تدوین بلد باشید؛ فقط کافیه ایده داشته باشید. این موضوع باعث می‌شه که خلاقیت بالا بره و بی‌نهایت محتوا ایجاد بشه.

@silicon_brain I از هوش مصنوعی عقب نمانید
6🤡3👍1
‏Anthropic مدل Claude Sonnet 4.5 رو معرفی کرد

این قوی‌ترین مدل کدنویسی‌شونه تا حالا. تو coding، reasoning و math از نسخه‌های قبلی جلوتره و برای ساخت complex agentها و استفاده طولانی روی کامپیوتر بهینه شده.

ویژگی‌های اصلی

🔹Best-in-class coding
تو SWE-bench Verified عملکرد عالی داره.

🔹Agent building:
بهینه شده برای مدیریت multi-step workflows پیچیده.

🔹Extended use:
می‌تونه 30+ ساعت کار کدنویسی مستمر انجام بده.

🔹Reasoning gains:
پیشرفت قابل توجه تو math و logic benchmarks.

این مدل الان تو coding و reasoning tests Anthropic رتبه‌ی اوله.

لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
5👍2🔥1
‏ Thinking Machines Lab اولین محصولش به اسم Tinker رو معرفی کرد

این همون استارتاپیه که Mira Murati (مدیر فنی سابق OpenAI) هم هم‌بنیانگذاره.
این یه managed API برای training و fine-tuning روی LLM هست که بدون درگیری با مسائل زیر ساختی کارتو راه میندازه

در واقع Tinker اینطوری طراحی شده که هم دستت باز باشه، هم دردسر زیرساخت رو نداشته باشی و همینطور با کلی open models مثل Llama-3.x و Qwen3 کار کنی و یه سری API primitives مثل forward_backward، optim_step، sample و save_state بهت می‌ده که راحت بتونی training loop خودتو بسازی.

از طرف دیگه، به جای اینکه بخواد همه وزن‌های مدل رو آپدیت کنه، با LoRA adapters کار می‌کنه که سبک‌تر و کم‌هزینه‌تره. همه چیزای سنگین مثل scheduling، resource allocation، failure recovery و cluster orchestration هم خودش مدیریت می‌کنه. مهم‌تر از همه اینکه کنترل کامل روی دیتا و الگوریتم اجرایی داری و حتی می‌تونی وزن‌های میانی و نهایی مدل رو دانلود کنی.

لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍82🔥1😍1
تخمين زده شده كه تا سال ۲۰۲۸ با كمبود داده هاى متنى مورد نياز در خصوص آموزش مدل هاى زبانى بزرگ تر و بهتر روبرو میشیم.

اين نمودار توسط pablo villalobos منتشر شده نشون ميده كه نرخ نياز داده هاى آموزش مدل ها (رنگ آبى) خيلى سریع تر از نرخ داده هاى ايجاد شده (سبز) رشد میکنه و تا سال ۲۰۲۸ با كمبود داده جهت آموزش مدل هاى جديدتر و قویتر روبرو میشیم و احتمالا ديگه بايد رو داده هاى موجود تنها كار كرد!

@silicon_brain I از هوش مصنوعی عقب نمانید
4👍3👎1
مدل GPT-5 برق یک کشور را می‌بلعد!

برآوردها نشون میده که GPT-5 سالانه حدود ۱۶.۴ تراوات‌ساعت (TWh) برق مصرف میکنه — یعنی بیشتر از کل مصرف سالانه کشور اسلوونی

اما اگه این روند ادامه پیدا کنه، نسل بعدی مدل‌های هوش مصنوعی نه‌فقط مغز دیجیتال دنیا، بلکه بزرگ‌ترین مصرف‌کننده انرژی هم میشن.


@silicon_brain I از هوش مصنوعی عقب نمانید
👍94🔥1😢1
شرکت OpenAI از AgentKit رونمایی کرد! خفن و Game Changer!

داریم به سمت یک تغییر بنیادی تو نحوه‌ی ساخت و استقرار ایجنت‌ها میریم.
و احتمالا n8n دیگه به رحمت الهی میره :)

ویژگی های اصلی:
ویژگی Agent Builder

یک محیط بصری (Visual Canvas) برای طراحی گردش‌کارهای چندایجنتی با منطق شرطی، جریان داده، نسخه‌سازی و امکان همکاری تیمی و ایجنت‌های مختلف که با هم ترکیب و تست کنی.
ویژگی Connector Registry

مرکز داده متمرکز برای مدیریت تمام اتصال‌ها و APIها.
از طریق این بخش می‌تونی اتصال سرویس‌هایی مثل Google Drive، Dropbox، SharePoint و سایر ابزارهای سازمانی رو از یک داشبورد واحد مدیریت کنی.
ویژگی ChatKit

ماژولی برای افزودن ایجنت‌های چت‌محور به اپلیکیشن‌ها و وب‌سایت‌ها.
در عرض چند دقیقه میتونی یک چت‌بات با طراحی سفارشی، رنگ برند خودت و استریم زنده‌ی پاسخ‌ها رو به محصولت اضافه کنی.
ویژگی Evals 2.0

ابزار ارزیابی عملکرد ایجنت‌ها.
به کمک دیتاست‌ها، نمره‌دهی خودکار و Reinforcement Fine-Tuning می‌تونی عملکرد ایجنت‌ات رو مثل مدل‌های بزرگ زبانی (LLMs) به‌صورت مداوم بهبود بدی.
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍104🔥1
Mysql vs Mariadb vs Postgresql

دیتابیس MySQL رابطه‌ای هست که خیلی رو وب استفاده شده. سرعتش برای پروژه‌هایی که بیشتر خوندن داده‌ها مهمه (read-heavy workloads) خوبه و مدیریت replication و clustering رو راحت انجام می‌ده. ولی قابلیت‌های پیشرفته SQL مثل CTEs محدود هستن و پشتیبانی از داده‌های JSON یا کار با سبک NoSQL چندان قوی نیست.

دیتابیس MariaDB یه fork از MySQL محسوب می‌شه که توسط توسعه‌دهنده‌های MySQL ساخته شده. این سیستم سریع‌تره و تو عملکرد SQL پیشرفته، قابلیت‌هایی مثل CTEs، window functions و dynamic columns داره و امنیت و authentication plugins بهتری داره. ولی جامعه کاربریش کوچیک‌تره.
دیتابیسPostgreSQL یه object-relational حرفه‌ایه و برای کارهای پیچیده، تحلیل داده‌ها و مدیریت complex queries عالیه. این دیتابیس از ACID transactions و MVCC پشتیبانی میکنه و همینطور JSON/NoSQL support، custom data types، window functions و full-text search رو ارائه می‌ده. ولی برای پروژه‌های ساده بعضاً بیش از حد سنگینه و ممکنه برای insert-heavy workloads کمی کندتر از MySQL عمل کنه.

@silicon_brain | از هوش مصنوعی عقب نمانید
4👍1😍1
مدل‌های رایگان برای تست و استفاده با OpenRouter

در بخش Free Models پلتفرم OpenRouter میشه به ده‌ها مدل هوش مصنوعی از شرکت‌های مختلف به‌صورت کاملاً رایگان دسترسی داشت. برای مکالمه، کدنویسی، ترجمه، تصویرسازی و تست API.
ویژگی‌ها:

• فهرست مدل‌های رایگان از Anthropic، Google, Mistral, Cohere, Nous و غیره
• امکان استفاده مستقیم در محیط وب یا از طریق API
• گزینه‌ی فیلتر با max_price=0 برای نمایش فقط مدل‌های رایگان
• مناسب برای تست عملکرد مدل‌ها پیش از خرید پلن‌های پولی

لینک
@silicon_brain I از هوش مصنوعی عقب نمانید
4👍2😍1
Agent vs. Workflow

وقتی می‌گیم Workflow یعنی یک مسیر روشن و از پیش تعیین‌شده داریم؛ یعنی می‌دونی قدم اول چی باید بشه، بعدش قدم دوم، بعدش سوم، و اگر شرطی پیش بیاد، شاخه‌هایی تعریف کردی.

ولی Agent مثل یه عامل هوشمند که وقتی کار رو شروع می‌کنه، نمی‌دونی دقیقاً چه مسیرهایی ممکنه بره. یعنی وقتی با وضعیت پیچیده یا غیرمعمول روبه‌رو بشه، خودش تصمیم می‌گیره چه مرحله‌ای بیاره، چه ابزاری استفاده کنه، حتی ممکنه وسط کار مسیرش رو عوض کنه. Agent مستقل عمل می‌کنه، خودش “فکر” می‌کنه، تصمیم می‌گیره.

خلاصه که Workflow مثل یه دستور پخت آش هست، گام به گام تعریف شده. اما Agent مثل یه آشپزه که مواد رو می‌بینه، بوی آش رو حس می‌کنه، شاید ادویه بیشتری بزنه یا سبزی کم کنه، بر اساس تجربه و شرایط، تغییر می‌ده روش خودشو.
اگه کاری ثابت و تکراری باشه (مثلاً پردازش فاکتورها، ورود داده‌ها، تأیید مدارک) Workflow گزینه خوبیه چون قابل کنترل، ساده و قابل پیش‌بینی است. اما اگه کاری هست که ورودی‌ها متنوع‌اند، باید تصمیم‌گیری پویا انجام بشه، یا ممکنه شرایط غیرمنتظره پیش بیاد، اینجا Agent مناسب‌تره

@silicon_brain I از هوش مصنوعی عقب نمانید
👍92🔥1😍1
دقت ماشین لرنینگ کلاسیک یا خلاقیت ایجنت های امروزی؟!

الگوریتم‌های کلاسیک مثل XGBoost هنوز تو پردازش داده‌های Tabular یا ساختاریافته برجسته‌ هستن. یکی از برتری‌های اصلی این روش ها اینه که وقتی ویژگی‌‌ها (features) مهندسی شدن و روابط پیچیده ولی با تعداد محدود متغیر داریم، این روش‌ها سریع، پایدار و قابل تبیین (interpretable) عمل می‌کنن.

اما وقتی مدل‌های بزرگ مبتنی بر شبکه‌های عصبی عمیق و به ویژه LLM وارد میدان شدن توانایی‌هایی اضافه پیدا کردن که مدل‌های کلاسیک ندارن: کار با متن طبیعی، درک زبان، خلاقیت تولیدی، ارتباط با ابزارها، و امکان تعامل با محیط. این مدل‌ها قادرن چند وظیفه رو همزمان مدیریت کنن و در مسائلی که نیاز به فهم موضوع (context) و زمینه‌سازی دارن، بهتر عمل کنن.

در ادامه این تحول، چیزی که به‌تدریج بیشتر توجه را جلب کرده، مفهوم Agent / Agentic AI است: یعنی سیستم‌هایی که صرفاً پیش‌بینی نمیکنه بلکه هدف‌محور رفتار میکنه تصمیم میگیره و از ابزار استفاده میکنه، حافظه داره و میتونه چند مرحله رو طی کنه تا به نتیجه برسه.

تلاقی ماشین لرنینگ کلاسیک و مدرن

اما این به معنی حذف کاربرد الگوریتم‌های کلاسیک نیست. در حقیقت، روش‌های مدرن اغلب از مدل‌های کلاسیک به عنوان ابزار کمکی یا مؤلفه در ساختار بزرگ‌تر استفاده میکنن.
مثلاً برای فیلتر مقدماتی دادها، یا ایجاد معیارهای اصل سیستم تصمیم‌گیری. در ترکیب با شبکه‌های بزرگ، مدل های کلاسیک میتونن سرعت و هزینه رو خیلی کاهش بدن و خیلی مفید تر خودشونو نشون بدن

در نهایت این ذهنیت رو باید داشته باشیم که در راه رسیدن به AGI ما الان تو مرحله Agentic AI هستیم و تو این مسیر هر جا مولفه های اصلی ما مصرف منابع، شفافیت، امنیت و هماهنگی و در نهایت دقت بالاست. میخواد با هر روش و ابزاری باشه
@silicon_brain I از هوش مصنوعی عقب نمانید
9👍5🔥1👌1
پارامترهایی که در کنترل رفتار و تولید LLM استفاده میشن

Temperature
کنترل میزان تصادفی بودن خروجی. هرچه مقدار دما پایین‌تر باشد، مدل خروجی مطمئن‌تر و قابل‌پیش‌بینی‌تری تولید می‌کند.

Top-p
مدل از کوچک‌ترین مجموعه ممکن از توکن‌هایی انتخاب می‌کند که احتمال تجمعی آن‌ها از آستانه‌ی مشخص‌شده‌ی p بیشتر است.

Top-k
انتخاب مدل را به k توکنی محدود می‌کند که بالاترین احتمال را برای انتخاب بعدی دارند.

Max Tokens
حد بالایی برای مجموع توکن‌های ورودی و خروجی در یک فراخوانی API تعیین می‌کند.

Frequency Penalty
احتمال انتخاب توکن‌هایی را که قبلاً در متن تولیدی ظاهر شده‌اند کاهش می‌دهد تا از تکرار جلوگیری شود.

Presence Penalty
به توکن‌هایی که حداقل یک‌بار در متن آمده‌اند، جریمه‌ای اعمال می‌کند تا مدل را به معرفی مفاهیم جدید تشویق کند.

Stop Sequences
رشته‌ای از کاراکترها که اگر مدل آن را تولید کند، خروجی بلافاصله متوقف می‌شود.

@silicon_brain | از هوش مصنوعی عقب نمانید
👍42
مدل‌های فشرده و کم‌حجم Qwen3-VL 4B/8B توسط Alibaba با قابلیت‌های پیشرفته

تیم Qwen از Alibaba مدل‌های جدید Qwen3-VL 4B و 8B را با دو نسخه Instruct و Thinking معرفی کرده که با استفاده از FP8، مصرف حافظه کمتری دارن. این مدل‌ها با حفظ قابلیت‌های گسترده‌ای مانند درک تصویر و ویدئو، OCR چندزبانه، مکان‌یابی فضایی و کنترل رابط کاربری، امکان پردازش متون طولانی تا یک میلیون کلمه رو ساپورت میکنن

این نسخه‌ها برای استفاده در دستگاه‌های با حافظه محدود و محیط‌های خاص بهینه شدن و با راهنمایی‌های فنی برای اجرا در vLLM و SGLang عرضه شدن.
این پیشرفت‌ امکان بهره‌برداری آسان‌تر از هوش مصنوعی چندرسانه‌ای رو برای توسعه‌دهنده ها فراهم میکنه.

@silicon_brain I از هوش مصنوعی عقب نمانید
6👍3🔥1
2025/10/16 17:33:08
Back to Top
HTML Embed Code: