TG Telegram Group Link
Channel: MatlabTips
Back to Bottom
🔵نردبان شهود🔵


جمله ی مشهوری از آلفرد نورث وایتهد می‌گوید: «تمدن با گسترش تعداد عملیاتی که می‌توانیم بدون اندیشیدن دربارهٔ آن‌ها انجام دهیم، پیشرفت می‌کند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک می‌کنند، نقطۀ آغاز این عملیات را در تاریخ رقم می‌زند.

برای مثال، ما در مدرسه با لگاریتم‌ها آشنا می‌شویم بی‌آنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته‌ بودند. لگاریتم به آن‌ها امکان محاسبۀ سریع‌تر برای سفرهای طولانی را می‌داد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نه‌تنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.

دنباله ی چنین ابزارهایی درنهایت با اختراع رایانه‌های دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمی‌پردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده می‌گیرد، ما را از انجام دستی آن‌ها بی‌نیاز کرده و راه را برای پرداختن به اشکال پیچیده‌تر محاسبات هموار می‌کند.

پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات رده‌بالاتر ظهور یافتند. به‌عنوان نمونه، یکی از مهم‌ترین الگوریتم‌های عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهم‌ترین الگوریتم عددی دوران ما می‌داند، چرا که این الگوریتم روش ذخیره‌سازی، انتقال و دستکاری داده‌ها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاه‌های دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایه‌ای از محاسبات پنهان روبرو هستیم که داده‌ها را برای ما پردازش و بهینه می‌کنند.

بیایید لحظه‌ای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آن‌ها بی‌نیاز می‌کنند. این ابزارها همگی از اصلی بنیادین پیروی می‌کنند: آن‌ها داده‌ها را فشرده کرده و در قالبی متراکم‌تر نمایش می‌دهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشرده‌سازی است.

امروزه وارد دورانی شده‌ایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفت‌های پیشین تفاوت اساسی ندارد. مدل‌های هوش مصنوعی در ذات خود ابزارهای تازه‌ای هستند که داده‌ها را در ابعادی بی‌سابقه فشرده می‌کنند. به‌عنوان نمونه، FFT یک تصویر را با تحلیل مؤلفه‌های فرکانسی آن فشرده می‌کند. به همین ترتیب، مدل‌های مدرنِ گفتار و تصویر نیز این اصل را، نه‌تنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعه‌های عظیمی از دیتاست ها اعمال می‌کنند. در خصوص مدل‌های زبانی نیز همین امر صدق می‌کند؛ این مدل‌ها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده می‌سازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدل‌ها چنان گسترده است که گاه به نظر می‌رسد کاری نیست که از عهدۀ آن‌ها برنیاید. آن‌ها شعر می‌سرایند، مقالات علمی را خلاصه می‌کنند، پرونده‌های حقوقی را تحلیل می‌کنند، مسائل ریاضی را حل می‌کنند، دستور پخت غذا می‌سازند، رمان می‌نویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیده‌ایم؛ جایی که ماشین‌ها همۀ وظایف فکری را بر عهده گرفته‌اند و دیگر جایی برای نقش‌آفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه به‌عنوان یک تمدن می‌توانیم همچنان پیش برویم وقتی به نظر می‌رسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟

(ادامه دارد)
🔵نردبان شهود (ادامه)🔵

خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیق‌تر به چگونگی عملکرد مدل‌های زبانی بیندازیم. یکی از بزرگ‌ترین چالش‌های این مدل‌ها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید می‌کند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر می‌توان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام می‌شود.

در اینجا، آنتروپی نشان‌دهندۀ میزان تصادفی بودن یا انعطاف‌پذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدل‌های زبانی از طریق نمونه‌گیری از یک توزیع احتمالاتی، متن تولید می‌کنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی‌ هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوه‌های مختلف فراهم می‌کند. اما این امر به یک بده بستان (trade off) بنیادین منتهی می‌شود:

- آنتروپی پایین‌تر به مدل دقیق‌تری می‌انجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجی‌های متنوع‌تر و خلاقانه‌تر تولید می‌کند، اما احتمال بروز اطلاعات غلط یا بی‌معنا نیز افزایش می‌یابد.

این موضوع پیوند شگفت‌انگیزی میان خلاقیت و تصادفی بودن را نشان می‌دهد — رابطه‌ای که در تفکر انسان نیز وجود دارد. اما واقعاً مدل‌های زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدل‌ها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیده‌اند که آنتروپی آن‌ها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی می‌شود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسان‌ها در گفت‌وگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال می‌توانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدل‌های هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.

برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی می‌شود. یافته‌های روان‌شناختی حاکی از آن است که انسان‌ها گفتار خود را با محیط پیرامون‌شان تطبیق می‌دهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر می‌رود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی می‌تواند به‌شکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشین‌ها، ما موجوداتی زیستی هستیم که پیوسته با شبکه‌ای پیچیده از ورودی‌های حسی، عواطف و تجربیات زیسته سازگار می‌شویم. این غنای ارتباط انسانی — ریشه‌گرفته از پیش‌بینی‌ناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام توانایی‌هایش، هنوز نتوانسته است به‌طور کامل بازتولید کند.

مدل‌های زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجی‌هایی قابل پیش‌بینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی می‌گذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همان‌طور که یک ماشین‌حساب، معنای واقعی ریاضیات را درک نمی‌کند و تنها عملیات از پیش تعیین‌شده را اجرا می‌کند، مدل‌های زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازمان‌دهی و پردازش اطلاعات یاری می‌رسانند.
هنگامی که از شهود سخن می‌گوییم، به چیزی مرموز یا ناملموس اشاره نمی‌کنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کل‌نگر و درک جامع ما از جهان ناشی می‌شود. این فرایند به ما امکان می‌دهد مفاهیمی ظاهراً بی‌ارتباط را به هم ربط دهیم، حتی زمانی که به‌طور خودآگاه از این ارتباط‌ها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمی‌تواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهت‌های سطحی است. توانایی ایجاد بینش‌های عمیق میان‌رشته‌ای، نیازمند تجربه‌ای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین توانایی‌ای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت می‌گیرد — عناصری که هیچ‌یک حقیقتاً در دسترس مدل‌های زبانی بزرگ نیستند.
انسان‌ها توانایی منحصربه‌فردی برای «توهّم خلاقانه» (creative hallucination) دارند و می‌توانند وارد فضاهای مفهومی شوند که مرز میان «معنا» و «بی‌معنا» در آن‌ها محو می‌شود. درست در چنین حوزه‌های مبهم و نامطمئنی است که ایده‌ها، اکتشافات و پارادایم‌های تازه شکل می‌گیرند. بزرگ‌ترین جهش‌های علمی اغلب به‌صورت پرش‌هایی در ساحت شهود های عجیب آغاز می‌شوند که ممکن است ابتدا بی‌معنا به نظر برسند اما در نهایت حقایقی عمیق را آشکار می‌کنند. در مقابل، مدل‌های زبانی بزرگ فاقد ظرفیت چنان جهش‌هایی هستند و صرفاً می‌توانند الگوهای موجود را بر اساس داده‌های آموزشی خود تقویت کنند.

با این همه، نباید مدل‌های زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آن‌ها را ابزاری دانست که شهود را تقویت می‌کنند. همان‌طور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشین‌ها توصیف کرد، ما نیز می‌توانیم وظایف روزمرۀ شناختی را به مدل‌های زبانی بزرگ بسپاریم و در عوض بر استدلال‌های عمیق‌تر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب می‌شود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور می‌کنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.

ازاین‌رو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامی‌دارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جست‌وجوی ناشناخته‌ها ادامه دهیم.

https://vrgl.ir/kWTml
سنگ نگاره ای اهورامزدا (پروردگار نکویی ها) در نقش رستم
Please open Telegram to view this post
VIEW IN TELEGRAM
بیایید ابتدا ساده‌ترین گذار ممکن را که بین ۰ و ۱ رخ می‌دهد بررسی کنیم. این گذار می‌تواند به سادگی شامل خروجی دادن ۰ و ۱ در یک ماشین حالت ساده باشد، همان‌طور که در شکل نشان داده شده است.
خروجی این ماشین حالت چیزی جز یک دنباله‌ی ساده‌ی 01010101010101.... نخواهد بود. گام بعدی، معرفی نخستین نامتقارنی ممکن در این ماشین حالت است، به‌ویژه افزودن یک خود-گذار در ۰ (یا ۱). نتیجه‌ی این تغییر، رفتاری غیرمنتظره است. این ماشین حالت به نام جابجایی نسبت طلایی Golden Mean Shift شناخته می‌شود.
جابجایی‌ها X دسته‌ای از ماشین‌های حالت هستند که در هر مرحله یک قدم به جلو حرکت می‌کنند و دنباله را به سمت جلو "جابجا" می‌کنند، مشابه حرکت روی یک نوار از ۰ها و ۱ها. جابجایی نسبت طلایی، نوعی جابجایی است که ظهور دو عدد ۱ پیاپی را ممنوع می‌کند. این تغییر ظاهراً جزئی، باعث ایجاد رفتارهای چشمگیری در خروجی می‌شود. اکنون، ۰ها می‌توانند به‌طور دلخواه تکرار شوند و دنباله‌هایی با طول‌های متغیر ایجاد کنند که به شکل زیر ظاهر می‌شوند:

B_n(X) = {0, 1, 01, 10, 00, 10, 000, 001, 010, 100, 101, 0000 , ... }

هر یک از دنباله‌های بالا یک بلوک (Block) نامیده می‌شود. همان‌طور که مشاهده می‌شود، اگر دنباله‌ها B_n(X) با طول n را به‌صورت ترتیبی تولید کنیم، برخی از توالی‌ها هرگز ظاهر نمی‌شوند، مانند 110 یا 0110. این امر باعث ایجاد شکاف‌هایی در میان دنباله‌های ۰ و ۱ می‌شود. یکی از راه‌های درک اندازه‌ی این شکاف‌ها، مقایسه‌ی نرخ رشد دنباله با حالتی است که در آن هیچ شکافی وجود ندارد (که در آن تمام 2^n حالت ممکن ظاهر می‌شوند) هنگامی که اندازه‌ی بلوک n افزایش می‌یابد. این نسبت را می‌توان به‌صورت زیر نمایش داد:
در این رابطه، m تعداد دنباله‌های مجاز (یا به‌طور معادل، دنباله‌های بدون شکاف) و n طول بیت است.
برای اندازه‌گیری این نرخ، به‌جای مقادیر عددی، روی نما (یا طول کد) تمرکز می‌کنیم تا مقایسه‌ها ساده‌تر شوند. بنابراین، لگاریتم صورت و مخرج را محاسبه می‌کنیم:
مقدار h هنگامی که اندازه‌ی بلوک‌ها افزایش یابد، دقیق‌تر خواهد شد (اثبات این ادعا نیاز به بررسی ریاضی دارد که در اینجا از آن صرف‌نظر می‌کنیم). در نتیجه، می‌توان نوشت:
این نرخ (h(X، آنتروپی فضای جابجایی X است. این مقدار اساساً نشان می‌دهد که دنباله‌ها با چه سرعتی رشد می‌کنند (و چقدر توانایی تولید دنباله‌های تصادفی یکتا را دارند) نسبت به همه‌ی حالات ممکن. اگر این نرخ به اندازه‌ی کافی سریع با n افزایش نیابد، آنتروپی صفر خواهد بود. برای مثال، دنباله‌ی (01)∗ فقط می‌تواند دو بلوک را برای هر اندازه‌ی n ایجاد کند:

0, 1, 01, 10, 101, 010, 1010, 0101, 010101, 10101

با رشد دنباله، تعداد دنباله‌های یکتای ممکن نسبت به تمامی دنباله‌های ممکن کمتر و کمتر می‌شود. در حالت کاملاً تصادفی که تمامی دنباله‌های ممکن تولید می‌شوند، هیچ شکافی در دنباله وجود ندارد و آنتروپی به مقدار حداکثری ۱ می‌رسد. با این حال، حالت‌های میانی بسیار جالب هستند.

برای جابجایی نسبت طلایی (Golden Mean Shift)، می‌توان مقدار آنتروپی را به‌صورت تحلیلی محاسبه کرد. در اینجا وارد جزییات محاسبات نمی شویم ولی آنچه جالب است این است که مقدار آنتروپی این سیستم برابر با لگاریتم عدد طلایی است! این بدان معنی است که نرخ رشد فضای حالت های یک سیستم بسیار ساده با یک عدم تقارن می تواند متناظر با عددی باشد که نشانگر زیبایی در طبیعت است.
نمونه هایی از دنباله ی فیبوناچی در طبیعت
عدد طلایی که با دنباله ی فیبوناچی و نسبت های زیبا در طبیعت گره می خورد از یک برخورد نامتقارن بین دو عدد صفر و یک ایجاد می شود. ریاضیدان ها و فیزیکدان ها در مطالعه ی طبیعت در اساسی ترین سطوح به این نتیجه رسیده اند که جهان ما نتیجه ی مجموعه ای از نقض تقارن ها در طبیعت است. با اینکه طبیعت با تقارن آن می شناسیم عدم تقارن در آن حتی بسیار اساسی تر است!

یکی از این عدم تقارن های بسیار اساسی عدم تقارن در زمان است. گذشته از آینده متفاوت است. با این حال بیشتر قوانین فیزیکی که ما میشناسیم نسبت به زمان متقارن هستند. به طور مثال اگر شما از حرکت مجموعه ای از ذرات فیلم بگیرید و آن را برعکس کنید نتیجه نباید برای قوانین فرق داشته باشد! اما جهان ما اینگونه نیست. سرمنشا این عدم تقارن اما کجاست؟ فیزیک کوانتوم از دو طریق نشان می دهد که چگونه جهان می تواند دنباله هایی را تولید کند که مانند جابجایی نسبت طلایی یک جهت مشخص از افزایش را نشان دهند. یکی از این روش ها از طریق اصل عدم قطعیت هایزنبرگ است. در محاسبات کوانتومی می توان هر اندازه گیری مکان یا تکانه را به صورت یک عملگر (مانند and یا or) در نظر گرفت. یکی از ویژگی های جالب این عملیات این است که ترتیب اعمالشان نتایج متفاوتی را به دنبال دارد! به این ترتیب اگر شما اول مکان و بعد تکانه را اندازه گیری کنید نتیجه ی متفاوتی با زمانی دارد که اول تکانه و بعد مکان را اندازه گیری کنید. این واقعیت را می توان به صورت یک جابجایی (shift) مانند ماشین «جابجایی نسبت طلایی» نمایش داد. این عدم تقارن در اندازه گیری باعث می شود دنباله های ایجاد شده یک ترتیب مشخص در زمان را نشان دهند!

به این ترتیب میبینیم که چگونه عدم تقارن در شکل یک ماشین حالت (state machine) و مطابقتش با قوانین فیزیک در اساسی ترین سطح یک جهان پر از آنتروپی و الگو ایجاد می کند!

https://vrgl.ir/Z2d4L
This media is not supported in your browser
VIEW IN TELEGRAM
چگونگی یادگیری مدل انتشار با استفاده از مونت کارلو
بازی فکر بکر (mastermind) که در آن چهار میخ رنگی از سمت رمزگشا پنهان است. رمزگشا سعی میکند حدس هایش را که با استفاده از میخ های سفید و سیاه (به عنوان بازخورد از رمزگذار) اصلاح کند تا به جواب نهایی برسد!

دونالد کنوث ثابت کرد که همیشه یک روش بهینه برای یافتن جواب وجود دارد! رابطه ای این بازی با مدل های انتشار (diffusion model) در هوش مصنوعی چیست؟
🔵قسمت اول: از فکر بکر به مدل های انتشار (diffusion models)🔵

بازی فکر بکر (Mastermind) یک بازی ساده‌ی «کد شکنی» (code breaking) برای دو نفر است. یکی از بازیکنان نقش رمزگذار (کسی که کد را پنهان می‌کند) و دیگری نقش رمزشکن را دارد. این بازی با استفاده از موارد زیر انجام می‌شود:

یک صفحه‌ی حدس‌زنی که دارای یک پوشش است که چهار سوراخ بزرگ (محل قرارگیری کد) را می‌پوشاند، و ردیف‌هایی شامل چهار سوراخ بزرگ برای هر حدس و در کنار آن چهار سوراخ کوچک برای امتیازدهی دارد.

میخ‌های رنگی برای کد که معمولاً در شش رنگ مختلف هستند و باید در سوراخ‌های بزرگ قرار گیرند.

میخ‌های امتیاز که به رنگ‌های سیاه و سفید هستند.

رمزشکن تلاش می‌کند تا کد پنهان‌شده پشت پوشش را ابتدا با یک حدس اولیه و سپس با استفاده از امتیازهایی که دریافت می‌کند، کشف کند. هر میخ امتیاز سیاه به این معناست که یکی از میخ‌های رنگی هم از نظر رنگ و هم از نظر موقعیت درست است. هر میخ امتیاز سفید نشان می‌دهد که رنگ درست است اما موقعیت نادرست. هر امتیاز بازخوردی به رمزشکن کمک می‌کند تا حدس خود را اصلاح کرده و فضای جست‌وجو را کاهش دهد. بازی زمانی به پایان می‌رسد که رمزشکن موفق شود هر ۴ میخ امتیاز سیاه را دریافت کند، یا در صورت استفاده از تمام تلاش‌هایش شکست بخورد.

برای طراحی یک الگوریتم (استراتژی) بهینه برای انتخاب بهترین حدس‌ها در این بازی، باید توجه داشت که یک استراتژی بهینه، حدس‌هایی را انتخاب می‌کند که «فضای امکان‌ها را به مؤثرترین شکل تقسیم کند». پیش از حل این بازی می‌توان به بازی دیگری فکر کرد که شباهت‌هایی با آن دارد و «بیست سؤال» نام دارد. هدف این بازی حدس زدن واژه‌ای است که در ذهن رمزگذار قرار دارد، با استفاده از کمترین تعداد سؤال. بهترین سؤال‌ها آن‌هایی هستند که بیشترین تقسیم را در فضای امکان‌ها ایجاد می‌کنند، به طوری که با هر سؤال بیشترین اطلاعات ممکن درباره‌ی واژه به دست آید. برای مثال، سؤال «آیا یک حیوان است؟» تقسیم بزرگ‌تری نسبت به سؤال «آیا اسب است؟» ایجاد می‌کند.

در سال ۱۹۰۱، چارلز سندرز پرس درباره‌ی عوامل صرفه‌جویی در پژوهش که حاکم بر انتخاب فرضیه هستند بحث کرد:

- ارزانی

- ارزش ذاتی (طبیعت غریزی و احتمال منطقی)

- نسبت (احتیاط، گستردگی و سادگی) به پروژه‌های دیگر (فرضیه‌ها و تحقیقات دیگر)

و با اشاره به احتیاط ماهرانه گفت:

بنابراین بیست فرضیه‌ی ماهرانه می‌تواند چیزی را مشخص کند که شاید دویست هزار فرضیه‌ی احمقانه از انجام آن عاجز باشند. راز این کار در احتیاطی نهفته است که یک فرضیه را به کوچک‌ترین اجزای منطقی آن تقسیم می‌کند، و تنها یکی از آن‌ها را در هر مرحله به خطر می‌اندازد.
🔵قسمت دو: از فکر بکر به مدل های انتشار (diffusion models)🔵

ددونالد کنوث (دانشمند مشهور علوم کامپیوتر) روشی بهینه برای حل «بازی حدس کد» ارائه کرده است که بر ایدۀ «مینیمم کردن بدترین حالت» (Minimax) استوار است. در این روش:

تعریف مسئله:
ما n رنگ و d جایگاه داریم و کد مخفی یک رشتۀ d-تایی از این رنگ‌ها است. پس در مجموع n^d کد ممکن وجود دارد.

مجموعه S تمام گزینه‌های فعلیِ «هنوز ممکن» را نشان می‌دهد. در ابتدا S برابر با همۀ کدهای ممکن (Ω) است.

روند کلی:
یک «حدس» (g) هم یک رشتۀ d-تایی از رنگ‌هاست. پس از هر حدس، امتیازی دو بخشی دریافت می‌کنید:
A: تعداد رنگ‌هایی که دقیقاً در جای درست قرار گرفته‌اند.
B: تعداد رنگ‌های درستی که در جایگاه نادرست واقع شده‌اند.

به‌روزرسانی مجموعه گزینه‌ها:

با توجه به امتیازی که برای حدس g گرفته می‌شود، می‌توانیم تمام کدهایی از S را که چنین امتیازی نمی‌دهند حذف کنیم تا تعداد کدهای ممکن کمتر شود.

گزینش حدس بهینه:

در هر مرحله، ما می‌خواهیم حدسی بزنیم که در بدترین حالت کمترین تعداد کدِ ممکن را برای مرحلۀ بعد باقی بگذارد.

بنابراین، برای هر حدس کاندید g درΩ، نگاه می‌کنیم اگر آن را بزنیم، در بدترین حالت چقدر از کدهای S ممکن است باقی بماند. بعد حدسی را انتخاب می‌کنیم که این «بیشترین باقی‌مانده» را تا حد ممکن کوچک کند (مینیمم کردن بدترین حالت).
خلاصه:
این الگوریتم در هر مرحله حدسی می‌زند که بدترین حالت پس از دریافت امتیاز را بهتر (کوچک‌تر) کند. به این ترتیب، بعد از هر حدس، مجموعه کدهای ممکن S تا جای ممکن کوچک می‌شود و در نهایت با کمترین تعداد حدس‌های ممکن به جواب می‌رسیم.

(در این پروژه ی پایتون این بازی ساده را همراه با یک اکتور بسیار ساده که می توان بازی را در ۵ قدم یا کمتر ببرد پیاده سازی کرده ام. این تمرین خوبی برای دیدن این است که یک «بازی گر» دیجیتال چگونه ممکن است کار کند)

روش مینیمم کردن بدترین حالت یک اسراتژی کلی برای بازی کردن در هر بازی ای رقابتی هم هست. به طور مثال در شطرنج شما فقط به حرکات خود فکر نمیکنید بلکه به اینکه هر مهره ای که حرکت دهید چقدر برایتان خوب یا بد است هم فکر میکنید. برای اینکه می توان گفت یا حداکثر امتیاز طرف مقابل را کمینه (minimax) یا کمترین ضرر طرف مقابل را بیشینه (maxmin). همین روش بسیار ساده در چارچوب شطرنج باز های کلاسیک مانند دیپ بلو (deep blue) در سال ۱۹۸۴ گری کاسپاروف قهرمان شطرنج جهان را شکست دهد. البته دیپ بلو به جای فقط یک قدم چندین قدم این کار را کرد. به این ترتیب که درخت جستجوی مینیمکس عمیقی ساخت و با آن تعدادی زیادی حالت را بررسی کرده و با یک حرکت برگشتی مشخص میکرد چه حرکتی بهترین است!

دقت کنید این روش نیازمند این است که اول بتوانید تخمین بزنید که هر صفحه ی شطرنج چقدر به نفع شما (یا برعکس به ضرر شما) است. برای چنین چیزی میتوان تخمین های کلی بر اساس تعداد مهره ها و محل قرار گیری آنها که شطرنج باز ها برای قرن ها آن ها مطالعه کرده اند استفاده کرد.

«کمینه کردن بدترین حالت» یا به طور خلاصه «مینیمکس» یک اپراتور است که فضای امتیاز ها را ارزیابی و به شما یک «حدس» می دهد! «حدس» منجر به یک عمل (action) می شود که بهترین عمل است! به این ترتیب می توان رابطه حدس و نظریه بازی ها را هم دید. در قسمت بعد میبینیم که همین عملگر ساده کلید حل بسیاری از مسايل هوش مصنوعی و بخصوص مدل های انتشار (دیفیوژن) است.
HTML Embed Code:
2025/04/07 08:01:39
Back to Top