Create: Update:
🤔 Кандидатогенерация в RecSys — это база. А что, если её просто выкинуть?
Именно так сделали инженеры Яндекс Лавки. Они пересобрали свой рекомендательный пайплайн и научились в рантайме скорить полный каталог даркстора.
Внутри детального разбора:
— Как удалось уложить скоринг нескольких тысяч SKU в дедлайн 300 мс.
— От каких ресурсоёмких фичей пришлось отказаться ради перфоманса.
— Как этот шаг повлиял на выручку и A/B тесты.
📊 Кейс для всех, кто любит хардкорную оптимизацию и не боится ломать каноны.
Именно так сделали инженеры Яндекс Лавки. Они пересобрали свой рекомендательный пайплайн и научились в рантайме скорить полный каталог даркстора.
Внутри детального разбора:
— Как удалось уложить скоринг нескольких тысяч SKU в дедлайн 300 мс.
— От каких ресурсоёмких фичей пришлось отказаться ради перфоманса.
— Как этот шаг повлиял на выручку и A/B тесты.
📊 Кейс для всех, кто любит хардкорную оптимизацию и не боится ломать каноны.
🤔 Кандидатогенерация в RecSys — это база. А что, если её просто выкинуть?
Именно так сделали инженеры Яндекс Лавки. Они пересобрали свой рекомендательный пайплайн и научились в рантайме скорить полный каталог даркстора.
Внутри детального разбора:
— Как удалось уложить скоринг нескольких тысяч SKU в дедлайн 300 мс.
— От каких ресурсоёмких фичей пришлось отказаться ради перфоманса.
— Как этот шаг повлиял на выручку и A/B тесты.
📊 Кейс для всех, кто любит хардкорную оптимизацию и не боится ломать каноны.
Именно так сделали инженеры Яндекс Лавки. Они пересобрали свой рекомендательный пайплайн и научились в рантайме скорить полный каталог даркстора.
Внутри детального разбора:
— Как удалось уложить скоринг нескольких тысяч SKU в дедлайн 300 мс.
— От каких ресурсоёмких фичей пришлось отказаться ради перфоманса.
— Как этот шаг повлиял на выручку и A/B тесты.
📊 Кейс для всех, кто любит хардкорную оптимизацию и не боится ломать каноны.
>>Click here to continue<<
Data Science | Machinelearning [ru]





