TG Telegram Group & Channel
Geek Alerts | United States America (US)
Create: Update:

نقد مقاله‌ جدید اپل با عنوان «توهم تفکر» (The Illusion of Thinking)

این مقاله میگه حتی پیشرفته‌ترین مدل‌های AI مثل Claude و DeepSeek-R1، واقعا «فکر» نمیکنن و فقط استدلال رو شبیه‌سازی می‌کنن. به عبارتی میگه مدل‌های AI حتی نزدیک به تفکر انسانی هم نیستن و توی تست‌های درست دقتشون به صفر میرسه.

عنوان و لحن مقاله، شکست مدل‌ها را به عنوان «توهمی از تفکر» تفسیر میکنه که این یک نتیجه‌گیری غلیظ و کمی ناعادلانه هست. حتی یک انسان هم ممکنه در حل برج هانوی با ۱۵ دیسک شکست بخوره (تستی که معیار مقاله هست)، اما به معنی این نیست که انسان فکر نمیکنه. شکست تو یک وظیفه بسیار پیچیده، نشانه محدودیت‌های یک سیستم هست، نه لزوما داشتن توهم کل فرایند. شاید بهتر بود از عباراتی مثل «استدلال شکننده» (Brittle Reasoning) یا «استدلال غیرقابل تعمیم» (Non-generalizable Reasoning) استفاده می‌شد.

توی مقاله میان حتی الگوریتم حل برج هانوی، رو به مدل‌ها میدن ولی باز هم شکست میخورن. آشنایان به معماری ترنسفورمرها این رو از قبل میدونستن و غافلگیر کننده نیست، در کل LLMها الگوهای آماری رو در دنباله‌ها یاد میگرن. دنبال کردن دقیق و بی‌نقص یک الگوریتم برای صدها مرحله، دقیقا همون کاری هست که کامپیوترهای کلاسیک براش ساخته شد و مدل‌های زبانی توش ضعف دارن. این یافته بیشتر تاییدی بر محدودیت‌های ترنسفورمها هست که از قبل میدونیم و کشف جدیدی نیست.

مقاله به وضوح برای ایجاد سر و صدا و جلب توجه حداکثری در جامعه هوش مصنوعی طراحی شده و این رو میشه از عنوان خاصش یعنی عبارت The Illusion of Thinking (توهم تفکر) و استفاده از کلمات دراماتیک مثل Complete Collapse (سقوط کامل)، Fundamental Limitations (محدودیت‌های بنیادین) و Illusion (توهم) به طور مکرر برای تشدید تأثیر یافته‌ها پیدا کرد. در واقع مقاله تصمیم داره خودش رو یه تحقیق انقلابی نشون بده در صورتی که پیش از این هر محقق AI این موارد رو میدونه با این حال اسم اپل و نزدیک بودن انتشار مقاله به رویداد مهم اپل هم در دیده شدنش بی‌تاثیر نیستن. [L]

🤓 @geekalerts

Geek Alerts
محققین اپل تو مقاله جدیدی با عنوان «توهم فکر کردن»، گفتن مدل‌های استدلالی‌ای که امروزه ازشون استفاده می‌کنیم، درسته که در بنچمارک‌های مخصوص عملکرد بهتری نسبت به مدل‌های غیراستدلالی دارن، اما در عملکرد واقعی فرق آنچنانی‌ای ندارن‌. محقق‌ها برای رسیدن به همچین…
نقد مقاله‌ جدید اپل با عنوان «توهم تفکر» (The Illusion of Thinking)

این مقاله میگه حتی پیشرفته‌ترین مدل‌های AI مثل Claude و DeepSeek-R1، واقعا «فکر» نمیکنن و فقط استدلال رو شبیه‌سازی می‌کنن. به عبارتی میگه مدل‌های AI حتی نزدیک به تفکر انسانی هم نیستن و توی تست‌های درست دقتشون به صفر میرسه.

عنوان و لحن مقاله، شکست مدل‌ها را به عنوان «توهمی از تفکر» تفسیر میکنه که این یک نتیجه‌گیری غلیظ و کمی ناعادلانه هست. حتی یک انسان هم ممکنه در حل برج هانوی با ۱۵ دیسک شکست بخوره (تستی که معیار مقاله هست)، اما به معنی این نیست که انسان فکر نمیکنه. شکست تو یک وظیفه بسیار پیچیده، نشانه محدودیت‌های یک سیستم هست، نه لزوما داشتن توهم کل فرایند. شاید بهتر بود از عباراتی مثل «استدلال شکننده» (Brittle Reasoning) یا «استدلال غیرقابل تعمیم» (Non-generalizable Reasoning) استفاده می‌شد.

توی مقاله میان حتی الگوریتم حل برج هانوی، رو به مدل‌ها میدن ولی باز هم شکست میخورن. آشنایان به معماری ترنسفورمرها این رو از قبل میدونستن و غافلگیر کننده نیست، در کل LLMها الگوهای آماری رو در دنباله‌ها یاد میگرن. دنبال کردن دقیق و بی‌نقص یک الگوریتم برای صدها مرحله، دقیقا همون کاری هست که کامپیوترهای کلاسیک براش ساخته شد و مدل‌های زبانی توش ضعف دارن. این یافته بیشتر تاییدی بر محدودیت‌های ترنسفورمها هست که از قبل میدونیم و کشف جدیدی نیست.

مقاله به وضوح برای ایجاد سر و صدا و جلب توجه حداکثری در جامعه هوش مصنوعی طراحی شده و این رو میشه از عنوان خاصش یعنی عبارت The Illusion of Thinking (توهم تفکر) و استفاده از کلمات دراماتیک مثل Complete Collapse (سقوط کامل)، Fundamental Limitations (محدودیت‌های بنیادین) و Illusion (توهم) به طور مکرر برای تشدید تأثیر یافته‌ها پیدا کرد. در واقع مقاله تصمیم داره خودش رو یه تحقیق انقلابی نشون بده در صورتی که پیش از این هر محقق AI این موارد رو میدونه با این حال اسم اپل و نزدیک بودن انتشار مقاله به رویداد مهم اپل هم در دیده شدنش بی‌تاثیر نیستن. [L]

🤓 @geekalerts
Please open Telegram to view this post
VIEW IN TELEGRAM


>>Click here to continue<<

Geek Alerts







Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)