توی لینک زیر، میتونید عملکرد GPU-ها برای اجرای LLM-ها رو باهم مقایسه کنید:
https://www.runpod.io/compare/h100sxm-vs-4090
به درد زمانی میخوره که بخواید GPU اجاره کنید. بنچمارک هم توسط runpod ارائه شده که خودش GPU اجاره میده.
>>Click here to continue<<