Create: Update:
Собственно. Конец истории:
Ресерч-маркетологи из Google закрыли proposal о переименовании модели.
В их ответе три поинта.
1) Ну, это эмбеддинги. Ну, они, это типа, ну не совсем прям считаются...
— В смысле не считаются? А почему HaggingFace говорит 8.54B? (см скриншот)
2) Ну это мы их не считаем.
Кто мы? Почему остальные считают? А то, что осталось, тоже не считаете? У вас же и без embedding'ов 7.75B!
3) Что касается появляющегося класса открытых моделей 7B, мы нацелены на те же варианты использования, что и другие модели класса 7B, с точки зрения совместимости аппаратного и программного обеспечения.
— Ага, вы 7B (то есть 7 миллиардов параметров) не потому что у вас 7B +- 0.4(9)B параметров, а потому что вашу модель будут юзать на том же железе, что и Llama 7B. Ах, вот оно как... Понял, вопросов больше не имею.
Ресерч-маркетологи из Google закрыли proposal о переименовании модели.
В их ответе три поинта.
1) Ну, это эмбеддинги. Ну, они, это типа, ну не совсем прям считаются...
— В смысле не считаются? А почему HaggingFace говорит 8.54B? (см скриншот)
2) Ну это мы их не считаем.
Кто мы? Почему остальные считают? А то, что осталось, тоже не считаете? У вас же и без embedding'ов 7.75B!
3) Что касается появляющегося класса открытых моделей 7B, мы нацелены на те же варианты использования, что и другие модели класса 7B, с точки зрения совместимости аппаратного и программного обеспечения.
— Ага, вы 7B (то есть 7 миллиардов параметров) не потому что у вас 7B +- 0.4(9)B параметров, а потому что вашу модель будут юзать на том же железе, что и Llama 7B. Ах, вот оно как... Понял, вопросов больше не имею.
Мишин Лернинг 🇺🇦🇮🇱
Точность в нейминге размера модели критически важна для LLM, поскольку это влияет на справедливость сравнения, воспроизводимость результатов и понимание компромиссов между размером модели и её производительностью. Решил создать тред на HF. так что поддержать…
Собственно. Конец истории:
Ресерч-маркетологи из Google закрыли proposal о переименовании модели.
В их ответе три поинта.
1) Ну, это эмбеддинги. Ну, они, это типа, ну не совсем прям считаются...
— В смысле не считаются? А почему HaggingFace говорит 8.54B? (см скриншот)
2) Ну это мы их не считаем.
Кто мы? Почему остальные считают? А то, что осталось, тоже не считаете? У вас же и без embedding'ов 7.75B!
3) Что касается появляющегося класса открытых моделей 7B, мы нацелены на те же варианты использования, что и другие модели класса 7B, с точки зрения совместимости аппаратного и программного обеспечения.
— Ага, вы 7B (то есть 7 миллиардов параметров) не потому что у вас 7B +- 0.4(9)B параметров, а потому что вашу модель будут юзать на том же железе, что и Llama 7B. Ах, вот оно как... Понял, вопросов больше не имею.
Ресерч-маркетологи из Google закрыли proposal о переименовании модели.
В их ответе три поинта.
1) Ну, это эмбеддинги. Ну, они, это типа, ну не совсем прям считаются...
— В смысле не считаются? А почему HaggingFace говорит 8.54B? (см скриншот)
2) Ну это мы их не считаем.
Кто мы? Почему остальные считают? А то, что осталось, тоже не считаете? У вас же и без embedding'ов 7.75B!
3) Что касается появляющегося класса открытых моделей 7B, мы нацелены на те же варианты использования, что и другие модели класса 7B, с точки зрения совместимости аппаратного и программного обеспечения.
— Ага, вы 7B (то есть 7 миллиардов параметров) не потому что у вас 7B +- 0.4(9)B параметров, а потому что вашу модель будут юзать на том же железе, что и Llama 7B. Ах, вот оно как... Понял, вопросов больше не имею.
😁83👍7❤4👨💻1👾1
>>Click here to continue<<
Мишин Лернинг 🇺🇦🇮🇱

