OpenAI разкрива причините за „халюцинациите“ при езиковите модели
В ново изследване OpenAI обяснява защо езиковите модели понякога генерират уверени, но неверни твърдения, известни като „халюцинации“. Според авторите, причината се крие в начина на обучение и оценяване на моделите, които често награждават догадките, а не признаването на несигурност.
Прочети публикацията