به نظرتون چطور میتونیم بدون صرف بودجه زیاد، آموزش مجدد، توانایی یه مدل زبانی رو توی استدلال کردن ارتقا بدیم؟
برای این کار ابتدا باید نگاهی به موضوع عدم قطعیت در مدلهای زبانی داشته باشیم و یه تعریف دقیق براش ارایه بدیم.
همونطور که میدونید توی مرحله نمونه گیری(Sampling)، مدل زبانی تصمیم می گیره که کدوم واژه (توکن) رو از بین واژه های احتمالی انتخاب کنه.
هرچقدر مدل توزیع احتمالات واژهها (logits) رو یکنواخت تر ببینه، به همون میزان در تصمیم خودش تردید بیشتری داره و هر چقدر از یه گزینه مطمئن تر باشه، احتمال انتخاب یه واژه رو به طور مشخص بالا می بینه.
Entropix چیه؟
روش Entropix به ما کمک میکنه وقتی مدل توی انتخاب توکن دچار تردیده، با استفاده از نمونه گیری تطبیقی، تصمیم بهتری بگیریم.
این روش بر اساس میزان عدم قطعیت، تکنیکهای مختلفی برای انتخاب توکن بعدی ارائه میده که در ادامه بهشون میپردازم، اما قبل از پرداختن به این موضوع بایستی اضافه کنم که عدم قطعیت همیشه بد نیست.
به عنوان مثال در مواردی ممکنه این عدم قطعیت در انتخاب توکن بعدی مربوط به یه کلمه مترادف باشه مثل "خوب" و "عالی".
ادامه دارد...
>>Click here to continue<<