مایکروسافت دیروز یک پست در وبلاگش منتشر کرد، که در آن به جای Large Language Model ها از Smaller Language Model استفاده کردن و سعی کردن بفهمن آیا یک SLM در مقایسه با LLM وقتی که برای کاربرد خاصی اختصاصی شود ( مثلن ریاضیات ) بهتر عمل می کند یا نه؟
@ai_python
و اتفاقن نتایج نشون می ده که ظاهرن مدل Orca 2 در رابطه با دیتاست مسئله های ریاضی GSM8K بهتر از بقیه مدل ها عمل کرده است. ♾
>>Click here to continue<<