Как использовать функцию LangChain LLMChain в Python

Kak Ispol Zovat Funkciu Langchain Llmchain V Python



LangChain имеет множество модулей для создания приложений языковой модели. Приложения можно усложнять, комбинируя модули, или их можно упростить, используя один модуль. Вызов LLM для определенного входа является наиболее важным компонентом LangChain.

Цепочки не работают только для одного вызова LLM; они представляют собой наборы вызовов либо к LLM, либо к другой утилите. LangChain предоставляет сквозные цепочки для широко используемых приложений вместе со стандартным API цепочки и многочисленными инструментальными интеграциями.

Гибкость и возможность связать несколько элементов в один объект могут быть полезны, когда мы хотим разработать цепочку, которая принимает пользовательский ввод, настраивает его с помощью PromptTemplate, а затем доставляет сгенерированный результат в LLM.







Эта статья поможет вам понять, как использовать функцию LLMchain LangChain в Python.



Пример: как использовать функцию LLMchain в LangChain

Мы говорили о том, что такое цепи. Теперь мы увидим практическую демонстрацию этих цепочек, реализованных в скрипте Python. В этом примере мы используем самую простую цепочку LangChain — LLMchain. Он содержит PromptTemplate и LLM и связывает их вместе для создания выходных данных.



Чтобы начать реализацию концепции, нам нужно установить некоторые необходимые библиотеки, которые не включены в стандартную библиотеку Python. Библиотеки, которые нам нужно установить, это LangChain и OpenAI. Мы устанавливаем библиотеку LangChain, потому что нам нужно использовать ее модуль LLMchain, а также PromptTemplate. Библиотека OpenAI позволяет нам использовать модели OpenAI для прогнозирования результатов, то есть GPT-3.





Чтобы установить библиотеку LangChain, выполните в терминале следующую команду:

$ pip установить ленгчейн

Установите библиотеку OpenAI с помощью следующей команды:



$ пип установить openai

После завершения установки мы можем приступить к работе над основным проектом.

от ленгчейн. подсказки Импортировать Шаблон подсказки

от ленгчейн. фильмы Импортировать OpenAI

Импортировать ты

ты . примерно [ 'OPENAI_API_KEY' ] '=' 'sk-ВАШ API КЛЮЧ'

Основной проект начинается с импорта необходимых модулей. Итак, мы сначала импортируем PromptTemplate из библиотеки «langchain.prompts». Затем мы импортируем OpenAI из библиотеки «langchain.llms». Затем мы импортируем «os», чтобы установить переменную среды.

Изначально мы устанавливаем ключ OpenAI API в качестве переменной среды. Переменная среды — это переменная, состоящая из имени и значения и установленная в нашей операционной системе. «os.environ» — это объект, который используется для сопоставления переменных среды. Итак, мы называем «os.environ». Имя, которое мы установили для ключа API, — OPENAI_API_KEY. Затем мы назначаем ключ API в качестве его значения. Ключ API уникален для каждого пользователя. Итак, когда вы практикуете этот скрипт кода, напишите свой секретный ключ API.

лм '=' OpenAI ( температура '=' 0,9 )

быстрый '=' Шаблон подсказки (

input_variables '=' [ 'продукты' ] ,

шаблон '=' «Как бы назвали бренд, который продает {продукты}?» ,

)

Теперь, когда ключ задан как переменная среды, мы инициализируем оболочку. Установите температуру для моделей OpenAI GPT. Температура — это характеристика, которая помогает нам определить, насколько непредсказуемой будет реакция. Чем выше значение температуры, тем более неустойчивыми являются ответы. Здесь мы устанавливаем значение температуры равным 0,9. Таким образом, мы получаем максимально случайные результаты.

Затем мы инициализируем класс PromptTemplate. Когда мы используем LLM, мы генерируем подсказку на основе ввода, полученного от пользователя, а затем передаем его в LLM вместо того, чтобы отправлять ввод непосредственно в LLM, что требует жесткого кодирования (подсказка — это ввод, который мы получили от пользователя). пользователь и на который определенная модель ИИ должна создать ответ). Итак, мы инициализируем PromptTemplate. Затем в фигурных скобках мы определяем input_variable как «Продукты», а текст шаблона — «Как будет называться бренд, который продает {продукты}?» Пользовательский ввод говорит о том, что делает бренд. Затем он форматирует приглашение на основе этой информации.

от ленгчейн. цепи Импортировать LLMChain

цепь '=' LLMChain ( лм '=' лм , быстрый '=' быстрый )

Теперь, когда наш PromptTemplate отформатирован, следующим шагом будет создание LLMchain. Сначала импортируйте модуль LLMchain из библиотеки «langchain.chain». Затем мы создаем цепочку, вызывая функцию LLMchain(), которая принимает пользовательский ввод и форматирует подсказку с его помощью. Наконец, он отправляет ответ LLM. Итак, он соединяет PromptTemplate и LLM.

Распечатать ( цепь. бегать ( 'Художественные принадлежности' ) )

Чтобы выполнить цепочку, мы вызываем метод chain.run() и предоставляем пользовательский ввод в качестве параметра, который определяется как «Художественные принадлежности». Затем мы передаем этот метод функции Python print(), чтобы отобразить прогнозируемый результат на консоли Python.

Модель ИИ читает подсказку и дает ответ на ее основе.

Поскольку мы попросили назвать бренд, который продает товары для творчества, предсказанное моделью ИИ название можно увидеть на следующем снимке:

Этот пример показывает нам LLMchaining, когда предоставляется одна входная переменная. Это также возможно при использовании нескольких переменных. Для этого нам просто нужно создать словарь переменных, чтобы вводить их вместе. Давайте посмотрим, как это работает:

от ленгчейн. подсказки Импортировать Шаблон подсказки

от ленгчейн. фильмы Импортировать OpenAI

Импортировать ты

ты . примерно [ 'OPENAI_API_KEY' ] '=' «sk-Ваш-API-KEY»

llm = OpenAI (температура = 0,9)

подсказка = Шаблон подсказки(

input_variables=['
Бренд ', ' Продукт '],

шаблон = '
Как бы звали { Бренд } который продает { Продукт } ? ',

)

из langchain.chains импортировать LLMChain

цепочка = LLMChain (llm = llm, приглашение = приглашение)

печать (цепочка. запуск ({

«Бренд»: «
Художественные принадлежности ',

'Продукт': '
цвета '

}))

Код аналогичен предыдущему примеру, за исключением того, что мы должны передать две переменные в классе шаблона подсказки. Итак, создайте словарь input_variables. Длинные скобки представляют собой словарь. Здесь у нас есть две переменные — «Бренд» и «Продукт», разделенные запятой. Теперь текст шаблона, который мы предоставляем, звучит так: «Как будет называться {Бренд}, который продает {Продукт}?» Таким образом, модель ИИ предсказывает имя, которое фокусируется на этих двух входных переменных.

Затем мы создаем LLMchain, который форматирует пользовательский ввод с приглашением отправить ответ в LLM. Чтобы запустить эту цепочку, мы используем метод chain.run() и передаем словарь переменных с пользовательским вводом как «Бренд»: «Художественные принадлежности» и «Продукт» как «Цвета». Затем мы передаем этот метод функции Python print() для отображения полученного ответа.

Выходное изображение показывает прогнозируемый результат:

Заключение

Цепочки — это строительные блоки LangChain. В этой статье рассматривается концепция использования LLMchain в LangChain. Мы представили LLMchain и описали необходимость их использования в проекте Python. Затем мы выполнили практическую иллюстрацию, которая демонстрирует реализацию LLMchain путем соединения PromptTemplate и LLM. Вы можете создавать эти цепочки с одной входной переменной, а также с несколькими пользовательскими переменными. Также предоставляются сгенерированные ответы из модели GPT.