Как добавить состояние памяти в цепочку с помощью LangChain?

Kak Dobavit Sostoanie Pamati V Cepocku S Pomos U Langchain



LangChain позволяет разработчикам создавать модели чатов, которые могут общаться с людьми, используя естественные языки. Чтобы вести эффективный разговор, модель должна помнить, где хранится контекст разговора. Модели LangChain могут хранить сообщения чата в виде наблюдений, поэтому выходные данные могут постоянно находиться в контексте разговора.

Это руководство проиллюстрирует процесс загрузки цепочек из LangChain Hub.

Как добавить состояние памяти в цепочку с помощью LangChain?

Состояние памяти можно использовать для инициализации цепочек, поскольку оно может ссылаться на последнее значение, хранящееся в цепочках, которое будет использоваться при возврате вывода. Чтобы изучить процесс добавления состояния памяти в цепочки с использованием платформы LangChain, просто прочтите это простое руководство:







Шаг 1. Установите модули

Во-первых, приступите к процессу, установив фреймворк LangChain с его зависимостями с помощью команды pip:



pip установить langchain



Установите также модуль OpenAI, чтобы получить его библиотеки, которые можно использовать для добавления состояния памяти в цепочку:





pip установить openai

Получите ключ API от учетной записи OpenAI и настроить среду используя его, чтобы цепи могли получить к нему доступ:



Импортировать ты

Импортировать получить пропуск

ты . примерно [ 'ОПЕНАЙ_API_KEY' ] '=' получить пропуск . получить пропуск ( «Ключ API OpenAI:» )

Этот шаг важен для правильной работы кода.

Шаг 2. Импортируйте библиотеки

После настройки среды просто импортируйте библиотеки для добавления состояния памяти, такие как LLMChain, ConversationBufferMemory и многие другие:

от лангчейн. цепи Импортировать Разговорная цепочка

от лангчейн. Память Импортировать РазговорБуферПамять

от лангчейн. чат_модели Импортировать ЧатOpenAI

от лангчейн. цепи . лм Импортировать ЛМЧейн

от лангчейн. подсказки Импортировать Шаблон приглашения

Шаг 3: Построение цепочек

Теперь просто постройте цепочки для LLM, используя метод OpenAI() и шаблон приглашения, используя запрос для вызова цепочки:

чат '=' ЧатOpenAI ( температура '=' 0 )

подсказка_шаблон '=' «Напиши шутку {style}»

llm_chain '=' ЛМЧейн ( лм '=' чат , быстрый '=' Шаблон запроса. from_template ( подсказка_шаблон ) )

llm_chain ( входы '=' { 'стиль' : 'банальный' } )

Модель отобразила выходные данные с использованием модели LLM, как показано на снимке экрана ниже:

Шаг 4: Добавление состояния памяти

Здесь мы собираемся добавить состояние памяти в цепочку с помощью метода ConversationBufferMemory() и запустить цепочку, чтобы получить 3 цвета радуги:

беседа '=' Разговорная цепочка (

лм '=' чат ,

Память '=' РазговорБуферПамять ( )

)

беседа. бегать ( «Коротко назови 3 цвета радуги» )

Модель отображает только три цвета радуги, а контекст хранится в памяти цепочки:

Здесь мы запускаем цепочку неоднозначной командой типа « еще 4? », поэтому модель сама получает контекст из памяти и отображает оставшиеся цвета радуги:

беседа. бегать ( 'остальные 4?' )

Модель сделала именно это, поскольку поняла контекст и вернула оставшиеся четыре цвета из набора радуги:

Вот и все, что касается загрузки цепочек из LangChain Hub.

Заключение

Чтобы добавить память цепочками с помощью фреймворка LangChain, просто установите модули, чтобы настроить среду для построения LLM. После этого импортируйте библиотеки, необходимые для построения цепочек в LLM, а затем добавьте в него состояние памяти. После добавления состояния памяти в цепочку просто дайте цепочке команду, чтобы получить выходные данные, а затем дайте другую команду в контексте предыдущей, чтобы получить правильный ответ. В этом посте подробно описан процесс добавления состояния памяти в цепочки с использованием платформы LangChain.