Как построить LLM и LLMChain в LangChain?

Kak Postroit Llm I Llmchain V Langchain



LangChain — это платформа с приложением в области обработки естественного языка или НЛП для построения моделей на человекоподобных языках. Эти модели могут использоваться людьми для получения ответов от модели или для ведения разговора, как и любой другой человек. LangChain используется для построения цепочек путем сохранения каждого предложения в разговоре и дальнейшего взаимодействия, используя его в качестве контекста.

Этот пост проиллюстрирует процесс создания LLM и LLMChain в LangChain.







Как построить LLM и LLMChain в LangChain?

Чтобы построить LLM и LLMChain в LangChain, просто выполните перечисленные шаги:



Шаг 1. Установите модули

Сначала установите модуль LangChain, чтобы использовать его библиотеки для создания LLM и LLMChain:



pip установить langchain





Еще один модуль, необходимый для сборки LLM, — это OpenAI, его можно установить с помощью команды pip:

pip установить openai



Шаг 2. Настройка среды

Настройте среду, используя ключ API OpenAI из ее среды:

импортируйте нас
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Ключ API OpenAI:')

Пример 1. Создание LLM с использованием LangChain

Первый пример — создание больших языковых моделей с использованием LangChain путем импорта библиотек OpenAI и ChatOpenAI и использования функции llm():

Шаг 1. Использование модели чата LLM

Импортируйте модули OpenAI и ChatOpenAI, чтобы создать простой LLM с использованием среды OpenAI из LangChain:

из langchain.chat_models импортировать ChatOpenAI

из langchain.llms импортировать OpenAI

ллм = ОпенАИ()
чат_модель = ЧатOpenAI()
llm.predict('привет!')

Модель ответила «привет», как показано на следующем снимке экрана ниже:

Функция Predict() из Chat_Model используется для получения ответа или ответа от модели:

chat_model.predict('привет!')

Вывод показывает, что модель находится в распоряжении пользователя, задающего вопросы:

Шаг 2. Использование текстового запроса

Пользователь также может получить ответы от модели, указав полное предложение в текстовой переменной:

text = 'Какое название подойдет компании, производящей яркие носки?'

llm.predict(текст)

Модель продемонстрировала несколько цветовых комбинаций ярких носков:

Получите подробный ответ от модели с помощью функции прогнозирования() с цветовыми комбинациями носков:

chat_model.predict(текст)

Шаг 3. Использование текста с контентом

Пользователь может получить ответ с небольшим объяснением ответа:

из langchain.schema импортировать HumanMessage

text = 'Какое название было бы подходящим для компании, производящей яркую одежду'
сообщения = [HumanMessage(content=text)]

llm.predict_messages(сообщения)

Модель дала название компании Creative Clothing Co:

Предскажите сообщение, чтобы получить ответ на название компании с ее объяснением:

chat_model.predict_messages(сообщения)

Пример 2. Сборка LLMChain с использованием LangChain

Второй пример нашего руководства строит LLMChain, чтобы получить модель в формате человеческого взаимодействия и объединить все шаги из предыдущего примера:

из langchain.chat_models импортировать ChatOpenAI
из langchain.prompts.chat импорт ChatPromptTemplate
из langchain.prompts.chat импорт ChatPromptTemplate
from langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
из langchain.chains импортировать LLMChain
из langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
вернуть text.strip().split(', ')

Создайте шаблон для модели чата, предоставив подробное объяснение ее работы, а затем создайте функцию LLMChain(), содержащую библиотеки LLM, синтаксического анализатора вывода и Chat_prompt:

template = '''Вам нужно помочь в создании списков, разделенных запятыми
Получите категорию от пользователя и создайте список из пяти объектов, разделенных запятыми.
Единственным должен быть объект из категории '''
system_message_prompt = SystemMessagePromptTemplate.from_template(шаблон)
human_template = '{текст}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Настройте LLMChain со структурой запроса
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
цепочка = LLMChain(
llm=ChatOpenAI(),
подсказка = чат_подсказка,
output_parser = CommaSeparatedListOutputParser ()
)
цепочка.run('цвета')

Модель предоставила ответ со списком цветов, так как категория должна содержать только 5 объектов, указанных в подсказке:

Вот и все, что касается создания LLM и LLMChain в LangChain.

Заключение

Чтобы создать LLM и LLMChain с использованием LangChain, просто установите модули LangChain и OpenAI, чтобы настроить среду, используя ключ API. После этого создайте модель LLM, используя chat_model, после создания шаблона приглашения для одного запроса к полному чату. LLMChain используются для построения цепочек всех наблюдений в разговоре и использования их в качестве контекста взаимодействия. Этот пост иллюстрирует процесс создания LLM и LLMChain с использованием платформы LangChain.