Как использовать память в LLMChain через LangChain?

Kak Ispol Zovat Pamat V Llmchain Cerez Langchain



LangChain — это платформа, которую можно использовать для импорта библиотек и зависимостей для создания больших языковых моделей или LLM. Языковые модели используют память для хранения данных или истории в базе данных в качестве наблюдения для получения контекста разговора. Память настроена на хранение самых последних сообщений, чтобы модель могла понимать неоднозначные подсказки пользователя.

В этом блоге объясняется процесс использования памяти в LLMChain через LangChain.







Как использовать память в LLMChain через LangChain?

Чтобы добавить память и использовать ее в LLMChain через LangChain, можно использовать библиотеку ConversationBufferMemory, импортировав ее из LangChain.



Чтобы изучить процесс использования памяти в LLMChain через LangChain, следуйте следующему руководству:



Шаг 1. Установите модули

Сначала запустите процесс использования памяти, установив LangChain с помощью команды pip:





pip установить langchain

Установите модули OpenAI, чтобы получить его зависимости или библиотеки для создания LLM или моделей чата:



pip установить openai

Настройка среды для OpenAI, используя его ключ API, импортировав библиотеки os и getpass:

импортируйте нас
импортировать getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('Ключ API OpenAI:')

Шаг 2. Импорт библиотек

После настройки среды просто импортируйте библиотеки, такие как ConversationBufferMemory, из LangChain:

из langchain.chains импортировать LLMChain
из langchain.llms импортировать OpenAI

из langchain.memory импортировать ConversationBufferMemory

из langchain.prompts импорт PromptTemplate

Настройте шаблон приглашения, используя такие переменные, как «input», чтобы получить запрос от пользователя, и «hist», чтобы сохранить данные в буферной памяти:

template = '''Вы Модель и общаетесь с человеком

{история}
Человек: {вход}
Чат-бот:'''

подсказка = PromptTemplate(
input_variables=['история', 'вход'], шаблон=шаблон
)
память = ConversationBufferMemory(memory_key='hist')

Шаг 3. Настройка LLM

После создания шаблона запроса настройте метод LLMChain(), используя несколько параметров:

ллм = ОпенАИ()
llm_chain = LLMChain(
лм = лм,
подсказка = подсказка,
подробный = Правда,
память = память,
)

Шаг 4: Тестирование LLMChain

После этого протестируйте LLMChain, используя входную переменную, чтобы получить подсказку от пользователя в текстовой форме:

llm_chain.predict(input='Привет, мой друг')

Используйте другой ввод, чтобы получить данные, хранящиеся в памяти, для извлечения вывода с использованием контекста:

llm_chain.predict(input='Хорошо! У меня всё хорошо, как дела')

Шаг 5. Добавление памяти в модель чата

Память можно добавить в LLMChain на основе модели чата, импортировав библиотеки:

из langchain.chat_models импортировать ChatOpenAI
из langchain.schema импортировать SystemMessage
из langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Настройте шаблон приглашения с помощью ConversationBufferMemory(), используя различные переменные для установки ввода от пользователя:

подсказка = ChatPromptTemplate.from_messages([
SystemMessage(content='Вы Модель и общаетесь с человеком'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

память = ConversationBufferMemory(memory_key='hist', return_messages=True)

Шаг 6: Настройка LLMChain

Настройте метод LLMChain() для настройки модели с использованием различных аргументов и параметров:

llm = ЧатOpenAI()

chat_llm_chain = LLMChain(
лм = лм,
подсказка = подсказка,
подробный = Правда,
память = память,
)

Шаг 7: Тестирование LLMChain

В конце просто протестируйте LLMChain, используя входные данные, чтобы модель могла сгенерировать текст в соответствии с подсказкой:

chat_llm_chain.predict(input='Привет, мой друг')

Модель сохранила предыдущий разговор в памяти и отображает его перед фактическим выводом запроса:

llm_chain.predict(input='Хорошо! У меня всё хорошо, как дела')

Вот и все, что касается использования памяти в LLMChain с использованием LangChain.

Заключение

Чтобы использовать память в LLMChain через структуру LangChain, просто установите модули, чтобы настроить среду для получения зависимостей от модулей. После этого просто импортируйте библиотеки из LangChain, чтобы использовать буферную память для хранения предыдущего разговора. Пользователь также может добавить память в модель чата, создав LLMChain, а затем протестировав цепочку, предоставив входные данные. В этом руководстве подробно описан процесс использования памяти в LLMChain через LangChain.