2.2. Галлюцинации языковых моделей
Галлюцинации языковых моделей — это когда система генерирует текст, который не имеет смысла или не соответствует действительности. Это может происходить в случаях, когда модель пытается создать текст, но не имеет достаточной информации. Подобное же может произойти в силу случайных сбоев системы.
    Поэтому сгенерированный текст нужно обязательно проверять на наличие «фантазий» и дорабатывать или перегенерировать в случае обнаружения неточностей. Если смотреть полученный текст, то вы не найдете в нем никаких признаков, которые указывали бы на то, что это галлюцинация.

    Можно сказать, что подобная система как стремящийся сдать экзамен студент: она будет рассказывать правду, если знает ее, но и вполне правдоподобно наврать, если знаний по этому вопросу у нее нет. Пример галлюцинации приведен на картинке ниже.
      Задание
      Заставьте языковую модель выдать заведомо неправильную информацию — галлюцинацию.

      Проверьте с помощью поиска, что это неправда.