TG Telegram Group & Channel
Tensorflow(@CVision) | United States America (US)
Create: Update:

این مقاله از محققیق اپل میگه در مسائل ساده، مدل‌ های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل ‌های استدلال ‌محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه‌ تنها لازم نیست، بلکه ممکنه منجر به تفکر بیش از حد شه و دقت یا سرعت پاسخ رو کاهش بده.

در مسائل با پیچیدگی متوسط، الگوی عملکرد معکوس میشه، مدل‌های استدلال ‌محور با بهره‌ گیری از زنجیره‌های تفکر طولانی‌تر (COT)، میتونن بهتر از مدل‌های ساده، اجزای مسئله رو گام ‌به ‌گام تجزیه کنن و به نتیجه درست برسن. اما در مسائل بسیار پیچیده، تمام مدل‌ها دچار فروپاشی عملکردی میشن. نه مدل‌ های ساده، نه مدل‌ های پیشرفته استدلالی قادر به مدیریت این دسته از مسائل نیستن. این سقوط عملکرد نشون میده که محدودیت‌های بنیادی در حافظه، ظرفیت برنامه‌ ریزی و پیوستگی منطق در مدل‌ های فعلی وجود داره.

همچنین به طرز غیرمنتظره‌ای، با افزایش پیچیدگی مسائل، تلاش استدلالی مدل ‌ها کاهش پیدا میکنه. این یافته که با استفاده از معیارهایی مانند تعداد توکن‌های تولید شده برای تفکر اندازه‌ گیری شده، بیانگر این واقعیته که مدل‌ها در مواجهه با مسائل دشوارتر، نه‌ تنها ناتوان ‌تر میشن، بلکه حتی کمتر سعی می‌کنند فکر کنن.

زنجیره تفکر (CoT) یکی از روش‌های مهم برای تقویت استدلال در مدل‌های زبانی هست. با این حال، مقاله نشون میده که کارایی CoT محدود به دامنه‌ خاص از پیچیدگی هست. در حالی که CoT میتونه در مسائل متوسط کمک ‌کننده باشه، در مسائل پیچیده ‌تر نه‌ تنها اثربخش نیست، بلکه منجر به افزایش زمان پاسخ ‌دهی و ناکارآمدی محاسباتی میشه. این یافته نشون میده که زنجیره تفکر بدون نظارت یا هدایت ساختاریافته میتونه به نوعی پراکنده‌ گویی بی‌ هدف تبدیل شه.

https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

این مقاله از محققیق اپل میگه در مسائل ساده، مدل‌ های زبانی معمولی که فاقد ساختارهای استدلالی پیشرفته هستن،عملکرد بهتری نسبت به مدل ‌های استدلال ‌محور (LRMs) دارن. علت این پدیده به احتمال زیاد در سادگی ساختار مسئله نهفته ست، جایی که استدلال پیچیده نه‌ تنها لازم نیست، بلکه ممکنه منجر به تفکر بیش از حد شه و دقت یا سرعت پاسخ رو کاهش بده.

در مسائل با پیچیدگی متوسط، الگوی عملکرد معکوس میشه، مدل‌های استدلال ‌محور با بهره‌ گیری از زنجیره‌های تفکر طولانی‌تر (COT)، میتونن بهتر از مدل‌های ساده، اجزای مسئله رو گام ‌به ‌گام تجزیه کنن و به نتیجه درست برسن. اما در مسائل بسیار پیچیده، تمام مدل‌ها دچار فروپاشی عملکردی میشن. نه مدل‌ های ساده، نه مدل‌ های پیشرفته استدلالی قادر به مدیریت این دسته از مسائل نیستن. این سقوط عملکرد نشون میده که محدودیت‌های بنیادی در حافظه، ظرفیت برنامه‌ ریزی و پیوستگی منطق در مدل‌ های فعلی وجود داره.

همچنین به طرز غیرمنتظره‌ای، با افزایش پیچیدگی مسائل، تلاش استدلالی مدل ‌ها کاهش پیدا میکنه. این یافته که با استفاده از معیارهایی مانند تعداد توکن‌های تولید شده برای تفکر اندازه‌ گیری شده، بیانگر این واقعیته که مدل‌ها در مواجهه با مسائل دشوارتر، نه‌ تنها ناتوان ‌تر میشن، بلکه حتی کمتر سعی می‌کنند فکر کنن.

زنجیره تفکر (CoT) یکی از روش‌های مهم برای تقویت استدلال در مدل‌های زبانی هست. با این حال، مقاله نشون میده که کارایی CoT محدود به دامنه‌ خاص از پیچیدگی هست. در حالی که CoT میتونه در مسائل متوسط کمک ‌کننده باشه، در مسائل پیچیده ‌تر نه‌ تنها اثربخش نیست، بلکه منجر به افزایش زمان پاسخ ‌دهی و ناکارآمدی محاسباتی میشه. این یافته نشون میده که زنجیره تفکر بدون نظارت یا هدایت ساختاریافته میتونه به نوعی پراکنده‌ گویی بی‌ هدف تبدیل شه.

https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf


>>Click here to continue<<

Tensorflow(@CVision)




Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)