https://arxiv.org/abs/2504.17004
забавно: обнаружение галлюцинаций невозможно в современных LLM в принципе, какой бы механизм self-evaluation не применялся.
Правильно ли я понимаю, что без достаточного уровня RLHF человеком, LLM будет галлюцинировать только больше со временем, и ничего с этим не сделать никак?
И ещё: получается, что чем жирнее LLM становится (то есть, чем больше данных в тренинг запихивается), тем хуже будет ситуация становиться?
Значит ли это, что коллапс моделей неизбежен, если не вкладывать всё больше и больше денег в человеческую RLHF?
>>Click here to continue<<
