TG Telegram Group & Channel
Tensorflow(@CVision) | United States America (US)
Create: Update:

شاید بهتره که بپذیریم چیزی ‌بنام مدل‌های استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل ‌های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ‌ای بیشتری در اختیار خود قرار میدن.

حلقه‌ استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه‌ بیشتری از این نوع خاص رو در نظر بگیر».

در واقع چیزی ‌بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ‌ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه‌ ای ، نه چیز دیگه.

شرکت‌های بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سال‌ها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.

قبلاً اینجا به صورت مفصل دربارش نوشتم:

https://hottg.com/cvision/3770

Tensorflow(@CVision)
این مقاله از محققیق اپل میگه در مسائل ساده، مدل‌ های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل ‌های استدلال ‌محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه‌ تنها…
شاید بهتره که بپذیریم چیزی ‌بنام مدل‌های استدلالی بزرگ (LRMs) اساسا وجود نداره.LRM ها در واقع همون مدل ‌های زبانی بزرگ هستن که فقط بیشتر روی پاسخ خودشون تکرار و بازاندیشی میکنن، یا اطلاعات زمینه ‌ای بیشتری در اختیار خود قرار میدن.

حلقه‌ استدلال معادل اینه که به یک مدل زبانی معمولی بگیم «پاسخت رو اصلاح کن» یا «زمینه‌ بیشتری از این نوع خاص رو در نظر بگیر».

در واقع چیزی ‌بنام استدلال (reasoning) وجود نداره، همیشه صرفا راهکاری بوده برای کاهش پاسخ‌ های ساختگی(hallucination) یا افزودن خودکار اطلاعات زمینه‌ ای ، نه چیز دیگه.

شرکت‌های بزرگ یکی از ترفندهای ابتدایی مهندسی پرامپت رو که سال‌ها پیش بوجود اومده بود، در مدل هاشون تعبیه کردن، و در نهایت برای سود های کلان اون رو برند کردن.

قبلاً اینجا به صورت مفصل دربارش نوشتم:

https://hottg.com/cvision/3770


>>Click here to continue<<

Tensorflow(@CVision)




Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)