Channel: MatlabTips
🔵نردبان شهود🔵
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک میکنند، نقطۀ آغاز این عملیات را در تاریخ رقم میزند.
برای مثال، ما در مدرسه با لگاریتمها آشنا میشویم بیآنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته بودند. لگاریتم به آنها امکان محاسبۀ سریعتر برای سفرهای طولانی را میداد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نهتنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.
دنباله ی چنین ابزارهایی درنهایت با اختراع رایانههای دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمیپردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده میگیرد، ما را از انجام دستی آنها بینیاز کرده و راه را برای پرداختن به اشکال پیچیدهتر محاسبات هموار میکند.
پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات ردهبالاتر ظهور یافتند. بهعنوان نمونه، یکی از مهمترین الگوریتمهای عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهمترین الگوریتم عددی دوران ما میداند، چرا که این الگوریتم روش ذخیرهسازی، انتقال و دستکاری دادهها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاههای دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایهای از محاسبات پنهان روبرو هستیم که دادهها را برای ما پردازش و بهینه میکنند.
بیایید لحظهای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آنها بینیاز میکنند. این ابزارها همگی از اصلی بنیادین پیروی میکنند: آنها دادهها را فشرده کرده و در قالبی متراکمتر نمایش میدهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشردهسازی است.
امروزه وارد دورانی شدهایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفتهای پیشین تفاوت اساسی ندارد. مدلهای هوش مصنوعی در ذات خود ابزارهای تازهای هستند که دادهها را در ابعادی بیسابقه فشرده میکنند. بهعنوان نمونه، FFT یک تصویر را با تحلیل مؤلفههای فرکانسی آن فشرده میکند. به همین ترتیب، مدلهای مدرنِ گفتار و تصویر نیز این اصل را، نهتنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعههای عظیمی از دیتاست ها اعمال میکنند. در خصوص مدلهای زبانی نیز همین امر صدق میکند؛ این مدلها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده میسازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدلها چنان گسترده است که گاه به نظر میرسد کاری نیست که از عهدۀ آنها برنیاید. آنها شعر میسرایند، مقالات علمی را خلاصه میکنند، پروندههای حقوقی را تحلیل میکنند، مسائل ریاضی را حل میکنند، دستور پخت غذا میسازند، رمان مینویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیدهایم؛ جایی که ماشینها همۀ وظایف فکری را بر عهده گرفتهاند و دیگر جایی برای نقشآفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه بهعنوان یک تمدن میتوانیم همچنان پیش برویم وقتی به نظر میرسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟
(ادامه دارد)
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک میکنند، نقطۀ آغاز این عملیات را در تاریخ رقم میزند.
برای مثال، ما در مدرسه با لگاریتمها آشنا میشویم بیآنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته بودند. لگاریتم به آنها امکان محاسبۀ سریعتر برای سفرهای طولانی را میداد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نهتنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.
دنباله ی چنین ابزارهایی درنهایت با اختراع رایانههای دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمیپردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده میگیرد، ما را از انجام دستی آنها بینیاز کرده و راه را برای پرداختن به اشکال پیچیدهتر محاسبات هموار میکند.
پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات ردهبالاتر ظهور یافتند. بهعنوان نمونه، یکی از مهمترین الگوریتمهای عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهمترین الگوریتم عددی دوران ما میداند، چرا که این الگوریتم روش ذخیرهسازی، انتقال و دستکاری دادهها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاههای دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایهای از محاسبات پنهان روبرو هستیم که دادهها را برای ما پردازش و بهینه میکنند.
بیایید لحظهای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آنها بینیاز میکنند. این ابزارها همگی از اصلی بنیادین پیروی میکنند: آنها دادهها را فشرده کرده و در قالبی متراکمتر نمایش میدهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشردهسازی است.
امروزه وارد دورانی شدهایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفتهای پیشین تفاوت اساسی ندارد. مدلهای هوش مصنوعی در ذات خود ابزارهای تازهای هستند که دادهها را در ابعادی بیسابقه فشرده میکنند. بهعنوان نمونه، FFT یک تصویر را با تحلیل مؤلفههای فرکانسی آن فشرده میکند. به همین ترتیب، مدلهای مدرنِ گفتار و تصویر نیز این اصل را، نهتنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعههای عظیمی از دیتاست ها اعمال میکنند. در خصوص مدلهای زبانی نیز همین امر صدق میکند؛ این مدلها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده میسازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدلها چنان گسترده است که گاه به نظر میرسد کاری نیست که از عهدۀ آنها برنیاید. آنها شعر میسرایند، مقالات علمی را خلاصه میکنند، پروندههای حقوقی را تحلیل میکنند، مسائل ریاضی را حل میکنند، دستور پخت غذا میسازند، رمان مینویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیدهایم؛ جایی که ماشینها همۀ وظایف فکری را بر عهده گرفتهاند و دیگر جایی برای نقشآفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه بهعنوان یک تمدن میتوانیم همچنان پیش برویم وقتی به نظر میرسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟
(ادامه دارد)
🔵نردبان شهود (ادامه)🔵
خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیقتر به چگونگی عملکرد مدلهای زبانی بیندازیم. یکی از بزرگترین چالشهای این مدلها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید میکند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر میتوان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام میشود.
در اینجا، آنتروپی نشاندهندۀ میزان تصادفی بودن یا انعطافپذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدلهای زبانی از طریق نمونهگیری از یک توزیع احتمالاتی، متن تولید میکنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوههای مختلف فراهم میکند. اما این امر به یک بده بستان (trade off) بنیادین منتهی میشود:
- آنتروپی پایینتر به مدل دقیقتری میانجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجیهای متنوعتر و خلاقانهتر تولید میکند، اما احتمال بروز اطلاعات غلط یا بیمعنا نیز افزایش مییابد.
این موضوع پیوند شگفتانگیزی میان خلاقیت و تصادفی بودن را نشان میدهد — رابطهای که در تفکر انسان نیز وجود دارد. اما واقعاً مدلهای زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدلها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیدهاند که آنتروپی آنها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی میشود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسانها در گفتوگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال میتوانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدلهای هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.
برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی میشود. یافتههای روانشناختی حاکی از آن است که انسانها گفتار خود را با محیط پیرامونشان تطبیق میدهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر میرود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی میتواند بهشکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشینها، ما موجوداتی زیستی هستیم که پیوسته با شبکهای پیچیده از ورودیهای حسی، عواطف و تجربیات زیسته سازگار میشویم. این غنای ارتباط انسانی — ریشهگرفته از پیشبینیناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام تواناییهایش، هنوز نتوانسته است بهطور کامل بازتولید کند.
مدلهای زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجیهایی قابل پیشبینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی میگذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همانطور که یک ماشینحساب، معنای واقعی ریاضیات را درک نمیکند و تنها عملیات از پیش تعیینشده را اجرا میکند، مدلهای زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازماندهی و پردازش اطلاعات یاری میرسانند.
هنگامی که از شهود سخن میگوییم، به چیزی مرموز یا ناملموس اشاره نمیکنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کلنگر و درک جامع ما از جهان ناشی میشود. این فرایند به ما امکان میدهد مفاهیمی ظاهراً بیارتباط را به هم ربط دهیم، حتی زمانی که بهطور خودآگاه از این ارتباطها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمیتواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهتهای سطحی است. توانایی ایجاد بینشهای عمیق میانرشتهای، نیازمند تجربهای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین تواناییای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت میگیرد — عناصری که هیچیک حقیقتاً در دسترس مدلهای زبانی بزرگ نیستند.
خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیقتر به چگونگی عملکرد مدلهای زبانی بیندازیم. یکی از بزرگترین چالشهای این مدلها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید میکند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر میتوان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام میشود.
در اینجا، آنتروپی نشاندهندۀ میزان تصادفی بودن یا انعطافپذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدلهای زبانی از طریق نمونهگیری از یک توزیع احتمالاتی، متن تولید میکنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوههای مختلف فراهم میکند. اما این امر به یک بده بستان (trade off) بنیادین منتهی میشود:
- آنتروپی پایینتر به مدل دقیقتری میانجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجیهای متنوعتر و خلاقانهتر تولید میکند، اما احتمال بروز اطلاعات غلط یا بیمعنا نیز افزایش مییابد.
این موضوع پیوند شگفتانگیزی میان خلاقیت و تصادفی بودن را نشان میدهد — رابطهای که در تفکر انسان نیز وجود دارد. اما واقعاً مدلهای زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدلها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیدهاند که آنتروپی آنها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی میشود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسانها در گفتوگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال میتوانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدلهای هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.
برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی میشود. یافتههای روانشناختی حاکی از آن است که انسانها گفتار خود را با محیط پیرامونشان تطبیق میدهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر میرود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی میتواند بهشکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشینها، ما موجوداتی زیستی هستیم که پیوسته با شبکهای پیچیده از ورودیهای حسی، عواطف و تجربیات زیسته سازگار میشویم. این غنای ارتباط انسانی — ریشهگرفته از پیشبینیناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام تواناییهایش، هنوز نتوانسته است بهطور کامل بازتولید کند.
مدلهای زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجیهایی قابل پیشبینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی میگذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همانطور که یک ماشینحساب، معنای واقعی ریاضیات را درک نمیکند و تنها عملیات از پیش تعیینشده را اجرا میکند، مدلهای زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازماندهی و پردازش اطلاعات یاری میرسانند.
هنگامی که از شهود سخن میگوییم، به چیزی مرموز یا ناملموس اشاره نمیکنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کلنگر و درک جامع ما از جهان ناشی میشود. این فرایند به ما امکان میدهد مفاهیمی ظاهراً بیارتباط را به هم ربط دهیم، حتی زمانی که بهطور خودآگاه از این ارتباطها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمیتواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهتهای سطحی است. توانایی ایجاد بینشهای عمیق میانرشتهای، نیازمند تجربهای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین تواناییای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت میگیرد — عناصری که هیچیک حقیقتاً در دسترس مدلهای زبانی بزرگ نیستند.
انسانها توانایی منحصربهفردی برای «توهّم خلاقانه» (creative hallucination) دارند و میتوانند وارد فضاهای مفهومی شوند که مرز میان «معنا» و «بیمعنا» در آنها محو میشود. درست در چنین حوزههای مبهم و نامطمئنی است که ایدهها، اکتشافات و پارادایمهای تازه شکل میگیرند. بزرگترین جهشهای علمی اغلب بهصورت پرشهایی در ساحت شهود های عجیب آغاز میشوند که ممکن است ابتدا بیمعنا به نظر برسند اما در نهایت حقایقی عمیق را آشکار میکنند. در مقابل، مدلهای زبانی بزرگ فاقد ظرفیت چنان جهشهایی هستند و صرفاً میتوانند الگوهای موجود را بر اساس دادههای آموزشی خود تقویت کنند.
با این همه، نباید مدلهای زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آنها را ابزاری دانست که شهود را تقویت میکنند. همانطور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشینها توصیف کرد، ما نیز میتوانیم وظایف روزمرۀ شناختی را به مدلهای زبانی بزرگ بسپاریم و در عوض بر استدلالهای عمیقتر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب میشود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور میکنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.
ازاینرو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامیدارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جستوجوی ناشناختهها ادامه دهیم.
https://vrgl.ir/kWTml
با این همه، نباید مدلهای زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آنها را ابزاری دانست که شهود را تقویت میکنند. همانطور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشینها توصیف کرد، ما نیز میتوانیم وظایف روزمرۀ شناختی را به مدلهای زبانی بزرگ بسپاریم و در عوض بر استدلالهای عمیقتر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب میشود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور میکنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.
ازاینرو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامیدارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جستوجوی ناشناختهها ادامه دهیم.
https://vrgl.ir/kWTml
ویرگول
نردبان شهود - ویرگول
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند…
بیایید ابتدا سادهترین گذار ممکن را که بین ۰ و ۱ رخ میدهد بررسی کنیم. این گذار میتواند به سادگی شامل خروجی دادن ۰ و ۱ در یک ماشین حالت ساده باشد، همانطور که در شکل نشان داده شده است.
خروجی این ماشین حالت چیزی جز یک دنبالهی سادهی 01010101010101.... نخواهد بود. گام بعدی، معرفی نخستین نامتقارنی ممکن در این ماشین حالت است، بهویژه افزودن یک خود-گذار در ۰ (یا ۱). نتیجهی این تغییر، رفتاری غیرمنتظره است. این ماشین حالت به نام جابجایی نسبت طلایی Golden Mean Shift شناخته میشود.
جابجاییها X دستهای از ماشینهای حالت هستند که در هر مرحله یک قدم به جلو حرکت میکنند و دنباله را به سمت جلو "جابجا" میکنند، مشابه حرکت روی یک نوار از ۰ها و ۱ها. جابجایی نسبت طلایی، نوعی جابجایی است که ظهور دو عدد ۱ پیاپی را ممنوع میکند. این تغییر ظاهراً جزئی، باعث ایجاد رفتارهای چشمگیری در خروجی میشود. اکنون، ۰ها میتوانند بهطور دلخواه تکرار شوند و دنبالههایی با طولهای متغیر ایجاد کنند که به شکل زیر ظاهر میشوند:
B_n(X) = {0, 1, 01, 10, 00, 10, 000, 001, 010, 100, 101, 0000 , ... }
هر یک از دنبالههای بالا یک بلوک (Block) نامیده میشود. همانطور که مشاهده میشود، اگر دنبالهها B_n(X) با طول n را بهصورت ترتیبی تولید کنیم، برخی از توالیها هرگز ظاهر نمیشوند، مانند 110 یا 0110. این امر باعث ایجاد شکافهایی در میان دنبالههای ۰ و ۱ میشود. یکی از راههای درک اندازهی این شکافها، مقایسهی نرخ رشد دنباله با حالتی است که در آن هیچ شکافی وجود ندارد (که در آن تمام 2^n حالت ممکن ظاهر میشوند) هنگامی که اندازهی بلوک n افزایش مییابد. این نسبت را میتوان بهصورت زیر نمایش داد:
جابجاییها X دستهای از ماشینهای حالت هستند که در هر مرحله یک قدم به جلو حرکت میکنند و دنباله را به سمت جلو "جابجا" میکنند، مشابه حرکت روی یک نوار از ۰ها و ۱ها. جابجایی نسبت طلایی، نوعی جابجایی است که ظهور دو عدد ۱ پیاپی را ممنوع میکند. این تغییر ظاهراً جزئی، باعث ایجاد رفتارهای چشمگیری در خروجی میشود. اکنون، ۰ها میتوانند بهطور دلخواه تکرار شوند و دنبالههایی با طولهای متغیر ایجاد کنند که به شکل زیر ظاهر میشوند:
B_n(X) = {0, 1, 01, 10, 00, 10, 000, 001, 010, 100, 101, 0000 , ... }
هر یک از دنبالههای بالا یک بلوک (Block) نامیده میشود. همانطور که مشاهده میشود، اگر دنبالهها B_n(X) با طول n را بهصورت ترتیبی تولید کنیم، برخی از توالیها هرگز ظاهر نمیشوند، مانند 110 یا 0110. این امر باعث ایجاد شکافهایی در میان دنبالههای ۰ و ۱ میشود. یکی از راههای درک اندازهی این شکافها، مقایسهی نرخ رشد دنباله با حالتی است که در آن هیچ شکافی وجود ندارد (که در آن تمام 2^n حالت ممکن ظاهر میشوند) هنگامی که اندازهی بلوک n افزایش مییابد. این نسبت را میتوان بهصورت زیر نمایش داد:
در این رابطه، m تعداد دنبالههای مجاز (یا بهطور معادل، دنبالههای بدون شکاف) و n طول بیت است.
برای اندازهگیری این نرخ، بهجای مقادیر عددی، روی نما (یا طول کد) تمرکز میکنیم تا مقایسهها سادهتر شوند. بنابراین، لگاریتم صورت و مخرج را محاسبه میکنیم:
برای اندازهگیری این نرخ، بهجای مقادیر عددی، روی نما (یا طول کد) تمرکز میکنیم تا مقایسهها سادهتر شوند. بنابراین، لگاریتم صورت و مخرج را محاسبه میکنیم:
مقدار h هنگامی که اندازهی بلوکها افزایش یابد، دقیقتر خواهد شد (اثبات این ادعا نیاز به بررسی ریاضی دارد که در اینجا از آن صرفنظر میکنیم). در نتیجه، میتوان نوشت:
این نرخ (h(X، آنتروپی فضای جابجایی X است. این مقدار اساساً نشان میدهد که دنبالهها با چه سرعتی رشد میکنند (و چقدر توانایی تولید دنبالههای تصادفی یکتا را دارند) نسبت به همهی حالات ممکن. اگر این نرخ به اندازهی کافی سریع با n افزایش نیابد، آنتروپی صفر خواهد بود. برای مثال، دنبالهی (01)∗ فقط میتواند دو بلوک را برای هر اندازهی n ایجاد کند:
0, 1, 01, 10, 101, 010, 1010, 0101, 010101, 10101
با رشد دنباله، تعداد دنبالههای یکتای ممکن نسبت به تمامی دنبالههای ممکن کمتر و کمتر میشود. در حالت کاملاً تصادفی که تمامی دنبالههای ممکن تولید میشوند، هیچ شکافی در دنباله وجود ندارد و آنتروپی به مقدار حداکثری ۱ میرسد. با این حال، حالتهای میانی بسیار جالب هستند.
برای جابجایی نسبت طلایی (Golden Mean Shift)، میتوان مقدار آنتروپی را بهصورت تحلیلی محاسبه کرد. در اینجا وارد جزییات محاسبات نمی شویم ولی آنچه جالب است این است که مقدار آنتروپی این سیستم برابر با لگاریتم عدد طلایی است! این بدان معنی است که نرخ رشد فضای حالت های یک سیستم بسیار ساده با یک عدم تقارن می تواند متناظر با عددی باشد که نشانگر زیبایی در طبیعت است.
0, 1, 01, 10, 101, 010, 1010, 0101, 010101, 10101
با رشد دنباله، تعداد دنبالههای یکتای ممکن نسبت به تمامی دنبالههای ممکن کمتر و کمتر میشود. در حالت کاملاً تصادفی که تمامی دنبالههای ممکن تولید میشوند، هیچ شکافی در دنباله وجود ندارد و آنتروپی به مقدار حداکثری ۱ میرسد. با این حال، حالتهای میانی بسیار جالب هستند.
برای جابجایی نسبت طلایی (Golden Mean Shift)، میتوان مقدار آنتروپی را بهصورت تحلیلی محاسبه کرد. در اینجا وارد جزییات محاسبات نمی شویم ولی آنچه جالب است این است که مقدار آنتروپی این سیستم برابر با لگاریتم عدد طلایی است! این بدان معنی است که نرخ رشد فضای حالت های یک سیستم بسیار ساده با یک عدم تقارن می تواند متناظر با عددی باشد که نشانگر زیبایی در طبیعت است.
عدد طلایی که با دنباله ی فیبوناچی و نسبت های زیبا در طبیعت گره می خورد از یک برخورد نامتقارن بین دو عدد صفر و یک ایجاد می شود. ریاضیدان ها و فیزیکدان ها در مطالعه ی طبیعت در اساسی ترین سطوح به این نتیجه رسیده اند که جهان ما نتیجه ی مجموعه ای از نقض تقارن ها در طبیعت است. با اینکه طبیعت با تقارن آن می شناسیم عدم تقارن در آن حتی بسیار اساسی تر است!
یکی از این عدم تقارن های بسیار اساسی عدم تقارن در زمان است. گذشته از آینده متفاوت است. با این حال بیشتر قوانین فیزیکی که ما میشناسیم نسبت به زمان متقارن هستند. به طور مثال اگر شما از حرکت مجموعه ای از ذرات فیلم بگیرید و آن را برعکس کنید نتیجه نباید برای قوانین فرق داشته باشد! اما جهان ما اینگونه نیست. سرمنشا این عدم تقارن اما کجاست؟ فیزیک کوانتوم از دو طریق نشان می دهد که چگونه جهان می تواند دنباله هایی را تولید کند که مانند جابجایی نسبت طلایی یک جهت مشخص از افزایش را نشان دهند. یکی از این روش ها از طریق اصل عدم قطعیت هایزنبرگ است. در محاسبات کوانتومی می توان هر اندازه گیری مکان یا تکانه را به صورت یک عملگر (مانند and یا or) در نظر گرفت. یکی از ویژگی های جالب این عملیات این است که ترتیب اعمالشان نتایج متفاوتی را به دنبال دارد! به این ترتیب اگر شما اول مکان و بعد تکانه را اندازه گیری کنید نتیجه ی متفاوتی با زمانی دارد که اول تکانه و بعد مکان را اندازه گیری کنید. این واقعیت را می توان به صورت یک جابجایی (shift) مانند ماشین «جابجایی نسبت طلایی» نمایش داد. این عدم تقارن در اندازه گیری باعث می شود دنباله های ایجاد شده یک ترتیب مشخص در زمان را نشان دهند!
به این ترتیب میبینیم که چگونه عدم تقارن در شکل یک ماشین حالت (state machine) و مطابقتش با قوانین فیزیک در اساسی ترین سطح یک جهان پر از آنتروپی و الگو ایجاد می کند!
https://vrgl.ir/Z2d4L
یکی از این عدم تقارن های بسیار اساسی عدم تقارن در زمان است. گذشته از آینده متفاوت است. با این حال بیشتر قوانین فیزیکی که ما میشناسیم نسبت به زمان متقارن هستند. به طور مثال اگر شما از حرکت مجموعه ای از ذرات فیلم بگیرید و آن را برعکس کنید نتیجه نباید برای قوانین فرق داشته باشد! اما جهان ما اینگونه نیست. سرمنشا این عدم تقارن اما کجاست؟ فیزیک کوانتوم از دو طریق نشان می دهد که چگونه جهان می تواند دنباله هایی را تولید کند که مانند جابجایی نسبت طلایی یک جهت مشخص از افزایش را نشان دهند. یکی از این روش ها از طریق اصل عدم قطعیت هایزنبرگ است. در محاسبات کوانتومی می توان هر اندازه گیری مکان یا تکانه را به صورت یک عملگر (مانند and یا or) در نظر گرفت. یکی از ویژگی های جالب این عملیات این است که ترتیب اعمالشان نتایج متفاوتی را به دنبال دارد! به این ترتیب اگر شما اول مکان و بعد تکانه را اندازه گیری کنید نتیجه ی متفاوتی با زمانی دارد که اول تکانه و بعد مکان را اندازه گیری کنید. این واقعیت را می توان به صورت یک جابجایی (shift) مانند ماشین «جابجایی نسبت طلایی» نمایش داد. این عدم تقارن در اندازه گیری باعث می شود دنباله های ایجاد شده یک ترتیب مشخص در زمان را نشان دهند!
به این ترتیب میبینیم که چگونه عدم تقارن در شکل یک ماشین حالت (state machine) و مطابقتش با قوانین فیزیک در اساسی ترین سطح یک جهان پر از آنتروپی و الگو ایجاد می کند!
https://vrgl.ir/Z2d4L
ویرگول
یک جهان از دل زمان (زُروان) - ویرگول
همه ایدههای بزرگ داستانی برای منشأ خود دارند! آنها با پاسخ دادن به چند پرسش بنیادی آغاز میشوند. در سراسر جهان، این داستانهای پیدایش متف…
This media is not supported in your browser
VIEW IN TELEGRAM
چگونگی یادگیری مدل انتشار با استفاده از مونت کارلو
بازی فکر بکر (mastermind) که در آن چهار میخ رنگی از سمت رمزگشا پنهان است. رمزگشا سعی میکند حدس هایش را که با استفاده از میخ های سفید و سیاه (به عنوان بازخورد از رمزگذار) اصلاح کند تا به جواب نهایی برسد!
دونالد کنوث ثابت کرد که همیشه یک روش بهینه برای یافتن جواب وجود دارد! رابطه ای این بازی با مدل های انتشار (diffusion model) در هوش مصنوعی چیست؟
دونالد کنوث ثابت کرد که همیشه یک روش بهینه برای یافتن جواب وجود دارد! رابطه ای این بازی با مدل های انتشار (diffusion model) در هوش مصنوعی چیست؟
🔵قسمت اول: از فکر بکر به مدل های انتشار (diffusion models)🔵
بازی فکر بکر (Mastermind) یک بازی سادهی «کد شکنی» (code breaking) برای دو نفر است. یکی از بازیکنان نقش رمزگذار (کسی که کد را پنهان میکند) و دیگری نقش رمزشکن را دارد. این بازی با استفاده از موارد زیر انجام میشود:
یک صفحهی حدسزنی که دارای یک پوشش است که چهار سوراخ بزرگ (محل قرارگیری کد) را میپوشاند، و ردیفهایی شامل چهار سوراخ بزرگ برای هر حدس و در کنار آن چهار سوراخ کوچک برای امتیازدهی دارد.
میخهای رنگی برای کد که معمولاً در شش رنگ مختلف هستند و باید در سوراخهای بزرگ قرار گیرند.
میخهای امتیاز که به رنگهای سیاه و سفید هستند.
رمزشکن تلاش میکند تا کد پنهانشده پشت پوشش را ابتدا با یک حدس اولیه و سپس با استفاده از امتیازهایی که دریافت میکند، کشف کند. هر میخ امتیاز سیاه به این معناست که یکی از میخهای رنگی هم از نظر رنگ و هم از نظر موقعیت درست است. هر میخ امتیاز سفید نشان میدهد که رنگ درست است اما موقعیت نادرست. هر امتیاز بازخوردی به رمزشکن کمک میکند تا حدس خود را اصلاح کرده و فضای جستوجو را کاهش دهد. بازی زمانی به پایان میرسد که رمزشکن موفق شود هر ۴ میخ امتیاز سیاه را دریافت کند، یا در صورت استفاده از تمام تلاشهایش شکست بخورد.
برای طراحی یک الگوریتم (استراتژی) بهینه برای انتخاب بهترین حدسها در این بازی، باید توجه داشت که یک استراتژی بهینه، حدسهایی را انتخاب میکند که «فضای امکانها را به مؤثرترین شکل تقسیم کند». پیش از حل این بازی میتوان به بازی دیگری فکر کرد که شباهتهایی با آن دارد و «بیست سؤال» نام دارد. هدف این بازی حدس زدن واژهای است که در ذهن رمزگذار قرار دارد، با استفاده از کمترین تعداد سؤال. بهترین سؤالها آنهایی هستند که بیشترین تقسیم را در فضای امکانها ایجاد میکنند، به طوری که با هر سؤال بیشترین اطلاعات ممکن دربارهی واژه به دست آید. برای مثال، سؤال «آیا یک حیوان است؟» تقسیم بزرگتری نسبت به سؤال «آیا اسب است؟» ایجاد میکند.
در سال ۱۹۰۱، چارلز سندرز پرس دربارهی عوامل صرفهجویی در پژوهش که حاکم بر انتخاب فرضیه هستند بحث کرد:
- ارزانی
- ارزش ذاتی (طبیعت غریزی و احتمال منطقی)
- نسبت (احتیاط، گستردگی و سادگی) به پروژههای دیگر (فرضیهها و تحقیقات دیگر)
و با اشاره به احتیاط ماهرانه گفت:
بنابراین بیست فرضیهی ماهرانه میتواند چیزی را مشخص کند که شاید دویست هزار فرضیهی احمقانه از انجام آن عاجز باشند. راز این کار در احتیاطی نهفته است که یک فرضیه را به کوچکترین اجزای منطقی آن تقسیم میکند، و تنها یکی از آنها را در هر مرحله به خطر میاندازد.
بازی فکر بکر (Mastermind) یک بازی سادهی «کد شکنی» (code breaking) برای دو نفر است. یکی از بازیکنان نقش رمزگذار (کسی که کد را پنهان میکند) و دیگری نقش رمزشکن را دارد. این بازی با استفاده از موارد زیر انجام میشود:
یک صفحهی حدسزنی که دارای یک پوشش است که چهار سوراخ بزرگ (محل قرارگیری کد) را میپوشاند، و ردیفهایی شامل چهار سوراخ بزرگ برای هر حدس و در کنار آن چهار سوراخ کوچک برای امتیازدهی دارد.
میخهای رنگی برای کد که معمولاً در شش رنگ مختلف هستند و باید در سوراخهای بزرگ قرار گیرند.
میخهای امتیاز که به رنگهای سیاه و سفید هستند.
رمزشکن تلاش میکند تا کد پنهانشده پشت پوشش را ابتدا با یک حدس اولیه و سپس با استفاده از امتیازهایی که دریافت میکند، کشف کند. هر میخ امتیاز سیاه به این معناست که یکی از میخهای رنگی هم از نظر رنگ و هم از نظر موقعیت درست است. هر میخ امتیاز سفید نشان میدهد که رنگ درست است اما موقعیت نادرست. هر امتیاز بازخوردی به رمزشکن کمک میکند تا حدس خود را اصلاح کرده و فضای جستوجو را کاهش دهد. بازی زمانی به پایان میرسد که رمزشکن موفق شود هر ۴ میخ امتیاز سیاه را دریافت کند، یا در صورت استفاده از تمام تلاشهایش شکست بخورد.
برای طراحی یک الگوریتم (استراتژی) بهینه برای انتخاب بهترین حدسها در این بازی، باید توجه داشت که یک استراتژی بهینه، حدسهایی را انتخاب میکند که «فضای امکانها را به مؤثرترین شکل تقسیم کند». پیش از حل این بازی میتوان به بازی دیگری فکر کرد که شباهتهایی با آن دارد و «بیست سؤال» نام دارد. هدف این بازی حدس زدن واژهای است که در ذهن رمزگذار قرار دارد، با استفاده از کمترین تعداد سؤال. بهترین سؤالها آنهایی هستند که بیشترین تقسیم را در فضای امکانها ایجاد میکنند، به طوری که با هر سؤال بیشترین اطلاعات ممکن دربارهی واژه به دست آید. برای مثال، سؤال «آیا یک حیوان است؟» تقسیم بزرگتری نسبت به سؤال «آیا اسب است؟» ایجاد میکند.
در سال ۱۹۰۱، چارلز سندرز پرس دربارهی عوامل صرفهجویی در پژوهش که حاکم بر انتخاب فرضیه هستند بحث کرد:
- ارزانی
- ارزش ذاتی (طبیعت غریزی و احتمال منطقی)
- نسبت (احتیاط، گستردگی و سادگی) به پروژههای دیگر (فرضیهها و تحقیقات دیگر)
و با اشاره به احتیاط ماهرانه گفت:
بنابراین بیست فرضیهی ماهرانه میتواند چیزی را مشخص کند که شاید دویست هزار فرضیهی احمقانه از انجام آن عاجز باشند. راز این کار در احتیاطی نهفته است که یک فرضیه را به کوچکترین اجزای منطقی آن تقسیم میکند، و تنها یکی از آنها را در هر مرحله به خطر میاندازد.
🔵قسمت دو: از فکر بکر به مدل های انتشار (diffusion models)🔵
ددونالد کنوث (دانشمند مشهور علوم کامپیوتر) روشی بهینه برای حل «بازی حدس کد» ارائه کرده است که بر ایدۀ «مینیمم کردن بدترین حالت» (Minimax) استوار است. در این روش:
تعریف مسئله:
ما n رنگ و d جایگاه داریم و کد مخفی یک رشتۀ d-تایی از این رنگها است. پس در مجموع n^d کد ممکن وجود دارد.
مجموعه S تمام گزینههای فعلیِ «هنوز ممکن» را نشان میدهد. در ابتدا S برابر با همۀ کدهای ممکن (Ω) است.
روند کلی:
یک «حدس» (g) هم یک رشتۀ d-تایی از رنگهاست. پس از هر حدس، امتیازی دو بخشی دریافت میکنید:
A: تعداد رنگهایی که دقیقاً در جای درست قرار گرفتهاند.
B: تعداد رنگهای درستی که در جایگاه نادرست واقع شدهاند.
بهروزرسانی مجموعه گزینهها:
با توجه به امتیازی که برای حدس g گرفته میشود، میتوانیم تمام کدهایی از S را که چنین امتیازی نمیدهند حذف کنیم تا تعداد کدهای ممکن کمتر شود.
گزینش حدس بهینه:
در هر مرحله، ما میخواهیم حدسی بزنیم که در بدترین حالت کمترین تعداد کدِ ممکن را برای مرحلۀ بعد باقی بگذارد.
بنابراین، برای هر حدس کاندید g درΩ، نگاه میکنیم اگر آن را بزنیم، در بدترین حالت چقدر از کدهای S ممکن است باقی بماند. بعد حدسی را انتخاب میکنیم که این «بیشترین باقیمانده» را تا حد ممکن کوچک کند (مینیمم کردن بدترین حالت).
خلاصه:
این الگوریتم در هر مرحله حدسی میزند که بدترین حالت پس از دریافت امتیاز را بهتر (کوچکتر) کند. به این ترتیب، بعد از هر حدس، مجموعه کدهای ممکن S تا جای ممکن کوچک میشود و در نهایت با کمترین تعداد حدسهای ممکن به جواب میرسیم.
(در این پروژه ی پایتون این بازی ساده را همراه با یک اکتور بسیار ساده که می توان بازی را در ۵ قدم یا کمتر ببرد پیاده سازی کرده ام. این تمرین خوبی برای دیدن این است که یک «بازی گر» دیجیتال چگونه ممکن است کار کند)
روش مینیمم کردن بدترین حالت یک اسراتژی کلی برای بازی کردن در هر بازی ای رقابتی هم هست. به طور مثال در شطرنج شما فقط به حرکات خود فکر نمیکنید بلکه به اینکه هر مهره ای که حرکت دهید چقدر برایتان خوب یا بد است هم فکر میکنید. برای اینکه می توان گفت یا حداکثر امتیاز طرف مقابل را کمینه (minimax) یا کمترین ضرر طرف مقابل را بیشینه (maxmin). همین روش بسیار ساده در چارچوب شطرنج باز های کلاسیک مانند دیپ بلو (deep blue) در سال ۱۹۸۴ گری کاسپاروف قهرمان شطرنج جهان را شکست دهد. البته دیپ بلو به جای فقط یک قدم چندین قدم این کار را کرد. به این ترتیب که درخت جستجوی مینیمکس عمیقی ساخت و با آن تعدادی زیادی حالت را بررسی کرده و با یک حرکت برگشتی مشخص میکرد چه حرکتی بهترین است!
دقت کنید این روش نیازمند این است که اول بتوانید تخمین بزنید که هر صفحه ی شطرنج چقدر به نفع شما (یا برعکس به ضرر شما) است. برای چنین چیزی میتوان تخمین های کلی بر اساس تعداد مهره ها و محل قرار گیری آنها که شطرنج باز ها برای قرن ها آن ها مطالعه کرده اند استفاده کرد.
«کمینه کردن بدترین حالت» یا به طور خلاصه «مینیمکس» یک اپراتور است که فضای امتیاز ها را ارزیابی و به شما یک «حدس» می دهد! «حدس» منجر به یک عمل (action) می شود که بهترین عمل است! به این ترتیب می توان رابطه حدس و نظریه بازی ها را هم دید. در قسمت بعد میبینیم که همین عملگر ساده کلید حل بسیاری از مسايل هوش مصنوعی و بخصوص مدل های انتشار (دیفیوژن) است.
ددونالد کنوث (دانشمند مشهور علوم کامپیوتر) روشی بهینه برای حل «بازی حدس کد» ارائه کرده است که بر ایدۀ «مینیمم کردن بدترین حالت» (Minimax) استوار است. در این روش:
تعریف مسئله:
ما n رنگ و d جایگاه داریم و کد مخفی یک رشتۀ d-تایی از این رنگها است. پس در مجموع n^d کد ممکن وجود دارد.
مجموعه S تمام گزینههای فعلیِ «هنوز ممکن» را نشان میدهد. در ابتدا S برابر با همۀ کدهای ممکن (Ω) است.
روند کلی:
یک «حدس» (g) هم یک رشتۀ d-تایی از رنگهاست. پس از هر حدس، امتیازی دو بخشی دریافت میکنید:
A: تعداد رنگهایی که دقیقاً در جای درست قرار گرفتهاند.
B: تعداد رنگهای درستی که در جایگاه نادرست واقع شدهاند.
بهروزرسانی مجموعه گزینهها:
با توجه به امتیازی که برای حدس g گرفته میشود، میتوانیم تمام کدهایی از S را که چنین امتیازی نمیدهند حذف کنیم تا تعداد کدهای ممکن کمتر شود.
گزینش حدس بهینه:
در هر مرحله، ما میخواهیم حدسی بزنیم که در بدترین حالت کمترین تعداد کدِ ممکن را برای مرحلۀ بعد باقی بگذارد.
بنابراین، برای هر حدس کاندید g درΩ، نگاه میکنیم اگر آن را بزنیم، در بدترین حالت چقدر از کدهای S ممکن است باقی بماند. بعد حدسی را انتخاب میکنیم که این «بیشترین باقیمانده» را تا حد ممکن کوچک کند (مینیمم کردن بدترین حالت).
خلاصه:
این الگوریتم در هر مرحله حدسی میزند که بدترین حالت پس از دریافت امتیاز را بهتر (کوچکتر) کند. به این ترتیب، بعد از هر حدس، مجموعه کدهای ممکن S تا جای ممکن کوچک میشود و در نهایت با کمترین تعداد حدسهای ممکن به جواب میرسیم.
(در این پروژه ی پایتون این بازی ساده را همراه با یک اکتور بسیار ساده که می توان بازی را در ۵ قدم یا کمتر ببرد پیاده سازی کرده ام. این تمرین خوبی برای دیدن این است که یک «بازی گر» دیجیتال چگونه ممکن است کار کند)
روش مینیمم کردن بدترین حالت یک اسراتژی کلی برای بازی کردن در هر بازی ای رقابتی هم هست. به طور مثال در شطرنج شما فقط به حرکات خود فکر نمیکنید بلکه به اینکه هر مهره ای که حرکت دهید چقدر برایتان خوب یا بد است هم فکر میکنید. برای اینکه می توان گفت یا حداکثر امتیاز طرف مقابل را کمینه (minimax) یا کمترین ضرر طرف مقابل را بیشینه (maxmin). همین روش بسیار ساده در چارچوب شطرنج باز های کلاسیک مانند دیپ بلو (deep blue) در سال ۱۹۸۴ گری کاسپاروف قهرمان شطرنج جهان را شکست دهد. البته دیپ بلو به جای فقط یک قدم چندین قدم این کار را کرد. به این ترتیب که درخت جستجوی مینیمکس عمیقی ساخت و با آن تعدادی زیادی حالت را بررسی کرده و با یک حرکت برگشتی مشخص میکرد چه حرکتی بهترین است!
دقت کنید این روش نیازمند این است که اول بتوانید تخمین بزنید که هر صفحه ی شطرنج چقدر به نفع شما (یا برعکس به ضرر شما) است. برای چنین چیزی میتوان تخمین های کلی بر اساس تعداد مهره ها و محل قرار گیری آنها که شطرنج باز ها برای قرن ها آن ها مطالعه کرده اند استفاده کرد.
«کمینه کردن بدترین حالت» یا به طور خلاصه «مینیمکس» یک اپراتور است که فضای امتیاز ها را ارزیابی و به شما یک «حدس» می دهد! «حدس» منجر به یک عمل (action) می شود که بهترین عمل است! به این ترتیب می توان رابطه حدس و نظریه بازی ها را هم دید. در قسمت بعد میبینیم که همین عملگر ساده کلید حل بسیاری از مسايل هوش مصنوعی و بخصوص مدل های انتشار (دیفیوژن) است.
GitHub
GitHub - roholazandie/mastermind
Contribute to roholazandie/mastermind development by creating an account on GitHub.
HTML Embed Code: