LangChain — это платформа с приложением в области обработки естественного языка или НЛП для построения моделей на человекоподобных языках. Эти модели могут использоваться людьми для получения ответов от модели или для ведения разговора, как и любой другой человек. LangChain используется для построения цепочек путем сохранения каждого предложения в разговоре и дальнейшего взаимодействия, используя его в качестве контекста.
Этот пост проиллюстрирует процесс создания LLM и LLMChain в LangChain.
Как построить LLM и LLMChain в LangChain?
Чтобы построить LLM и LLMChain в LangChain, просто выполните перечисленные шаги:
Шаг 1. Установите модули
Сначала установите модуль LangChain, чтобы использовать его библиотеки для создания LLM и LLMChain:
pip установить langchain
Еще один модуль, необходимый для сборки LLM, — это OpenAI, его можно установить с помощью команды pip:
pip установить openai
Шаг 2. Настройка среды
Настройте среду, используя ключ API OpenAI из ее среды:
импортируйте насimport getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Ключ API OpenAI:')
Пример 1. Создание LLM с использованием LangChain
Первый пример — создание больших языковых моделей с использованием LangChain путем импорта библиотек OpenAI и ChatOpenAI и использования функции llm():
Шаг 1. Использование модели чата LLM
Импортируйте модули OpenAI и ChatOpenAI, чтобы создать простой LLM с использованием среды OpenAI из LangChain:
из langchain.chat_models импортировать ChatOpenAIиз langchain.llms импортировать OpenAI
ллм = ОпенАИ()
чат_модель = ЧатOpenAI()
llm.predict('привет!')
Модель ответила «привет», как показано на следующем снимке экрана ниже:
Функция Predict() из Chat_Model используется для получения ответа или ответа от модели:
chat_model.predict('привет!')Вывод показывает, что модель находится в распоряжении пользователя, задающего вопросы:
Шаг 2. Использование текстового запроса
Пользователь также может получить ответы от модели, указав полное предложение в текстовой переменной:
text = 'Какое название подойдет компании, производящей яркие носки?'llm.predict(текст)
Модель продемонстрировала несколько цветовых комбинаций ярких носков:
Получите подробный ответ от модели с помощью функции прогнозирования() с цветовыми комбинациями носков:
chat_model.predict(текст)
Шаг 3. Использование текста с контентом
Пользователь может получить ответ с небольшим объяснением ответа:
из langchain.schema импортировать HumanMessagetext = 'Какое название было бы подходящим для компании, производящей яркую одежду'
сообщения = [HumanMessage(content=text)]
llm.predict_messages(сообщения)
Модель дала название компании Creative Clothing Co:
Предскажите сообщение, чтобы получить ответ на название компании с ее объяснением:
chat_model.predict_messages(сообщения)
Пример 2. Сборка LLMChain с использованием LangChain
Второй пример нашего руководства строит LLMChain, чтобы получить модель в формате человеческого взаимодействия и объединить все шаги из предыдущего примера:
из langchain.chat_models импортировать ChatOpenAIиз langchain.prompts.chat импорт ChatPromptTemplate
из langchain.prompts.chat импорт ChatPromptTemplate
from langchain.prompts.chat import SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
из langchain.chains импортировать LLMChain
из langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):
def parse(self, text: str):
вернуть text.strip().split(', ')
Создайте шаблон для модели чата, предоставив подробное объяснение ее работы, а затем создайте функцию LLMChain(), содержащую библиотеки LLM, синтаксического анализатора вывода и Chat_prompt:
template = '''Вам нужно помочь в создании списков, разделенных запятымиПолучите категорию от пользователя и создайте список из пяти объектов, разделенных запятыми.
Единственным должен быть объект из категории '''
system_message_prompt = SystemMessagePromptTemplate.from_template(шаблон)
human_template = '{текст}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Настройте LLMChain со структурой запроса
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
цепочка = LLMChain(
llm=ChatOpenAI(),
подсказка = чат_подсказка,
output_parser = CommaSeparatedListOutputParser ()
)
цепочка.run('цвета')
Модель предоставила ответ со списком цветов, так как категория должна содержать только 5 объектов, указанных в подсказке:
Вот и все, что касается создания LLM и LLMChain в LangChain.
Заключение
Чтобы создать LLM и LLMChain с использованием LangChain, просто установите модули LangChain и OpenAI, чтобы настроить среду, используя ключ API. После этого создайте модель LLM, используя chat_model, после создания шаблона приглашения для одного запроса к полному чату. LLMChain используются для построения цепочек всех наблюдений в разговоре и использования их в качестве контекста взаимодействия. Этот пост иллюстрирует процесс создания LLM и LLMChain с использованием платформы LangChain.