Альтернативным подходом в рамках цепочек рассуждений является SmartLLM.
SmartLLM — ещё один способ настройки качества ответа GigaChat. Его суть в том, что мы даём модели задачу сгенерировать сразу несколько вариантов ответов на вопрос. Затем она должна проверить и покритиковать каждый ответ и дать итоговый — более высокого качества.
- Сначала формируем пайплайн. В нём будет три этапа:
- формирование исходных гипотез (ideation). Чтобы получить более креативную идею, можно поднять «температуру» ответа или расширить словарь через настройку параметра «top_p»;
- критика каждой гипотезы (critique). На этом этапе «температуру» лучше наоборот понизить ради фактологической точности ответа;
- подготовка итогового ответа по результатам проверки (resolve).
Такой пайплайн хорошо работает со сложными задачами, особенно, если мы генерируем гипотезы с помощью разных моделей или разных конфигураций одной модели.
- Устанавливаем и запускаем модуль langchain_experimental. Инициализация максимально упрощена: нужно задать шаблон запроса PromptTemplate с нужным запросом и языковую модель, которую хотим использовать.