国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

首頁 后端開發(fā) Python教程 Python的Langchain的完整指南

Python的Langchain的完整指南

Feb 10, 2025 am 08:29 AM

LangChain:構建、實驗和分析語言模型和智能體的強大Python庫

A Complete Guide to LangChain in Python

核心要點:

  • LangChain是一個Python庫,它簡化了語言模型和智能體的創(chuàng)建、實驗和分析過程,為自然語言處理提供了廣泛的功能。
  • 它允許創(chuàng)建多功能的智能體,這些智能體能夠理解和生成文本,并可以配置特定的行為和數(shù)據(jù)源來執(zhí)行各種與語言相關的任務。
  • LangChain提供三種類型的模型:大型語言模型(LLM)、聊天模型和文本嵌入模型,每種模型都為語言處理任務提供了獨特的功能。
  • 它還提供了一些功能,例如將大型文本分割成易于管理的塊,通過鏈將多個LLM功能鏈接起來以執(zhí)行復雜的任務,以及與OpenAI以外的各種LLM和AI服務集成。

LangChain是一個功能強大的Python庫,使開發(fā)人員和研究人員能夠創(chuàng)建、實驗和分析語言模型和智能體。它為自然語言處理(NLP)愛好者提供了一套豐富的功能,從構建自定義模型到高效地操作文本數(shù)據(jù)。在本綜合指南中,我們將深入探討LangChain的基本組件,并演示如何在Python中利用其強大功能。

環(huán)境設置:

要學習本文,請創(chuàng)建一個新文件夾,并使用pip安裝LangChain和OpenAI:

pip3 install langchain openai

智能體(Agents):

在LangChain中,智能體是一個能夠理解和生成文本的實體。這些智能體可以配置特定的行為和數(shù)據(jù)源,并經過訓練以執(zhí)行各種與語言相關的任務,這使得它們成為各種應用的多功能工具。

創(chuàng)建LangChain智能體:

智能體可以配置為使用“工具”來收集所需的數(shù)據(jù)并制定良好的響應。請看下面的示例。它使用Serp API(一個互聯(lián)網搜索API)來搜索與問題或輸入相關的信息,并使用這些信息來做出響應。它還使用llm-math工具執(zhí)行數(shù)學運算——例如,轉換單位或查找兩個值之間的百分比變化:

from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
from langchain.llms import OpenAI
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 獲取你的Serp API密鑰:https://serpapi.com/

OpenAI.api_key = "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"
llm = OpenAI(model="gpt-3.5-turbo", temperature=0)
tools = load_tools(["serpapi", "llm-math"], llm=llm)
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent.run("How much energy did wind turbines produce worldwide in 2022?")

如你所見,在完成所有基本的導入和初始化LLM (llm = OpenAI(model="gpt-3.5-turbo", temperature=0))之后,代碼使用tools = load_tools(["serpapi", "llm-math"], llm=llm)加載智能體工作所需的工具。然后,它使用initialize_agent函數(shù)創(chuàng)建智能體,為其提供指定的工具,并為其提供ZERO_SHOT_REACT_DESCRIPTION描述,這意味著它將不記得以前的問題。

智能體測試示例1:

讓我們用以下輸入來測試這個智能體:

<code>"How much energy did wind turbines produce worldwide in 2022?"</code>

A Complete Guide to LangChain in Python

如你所見,它使用了以下邏輯:

  • 使用Serp互聯(lián)網搜索API搜索“wind turbine energy production worldwide 2022”
  • 分析最佳結果
  • 獲取任何相關的數(shù)字
  • 使用llm-math工具將906吉瓦轉換為焦耳,因為我們要求的是能量,而不是功率

智能體測試示例2:

LangChain智能體不僅限于搜索互聯(lián)網。我們可以將幾乎任何數(shù)據(jù)源(包括我們自己的數(shù)據(jù)源)連接到LangChain智能體,并向其提出有關數(shù)據(jù)的問題。讓我們嘗試創(chuàng)建一個在CSV數(shù)據(jù)集上訓練的智能體。

從Kaggle上的SHIVAM BANSAL處下載此Netflix電影和電視節(jié)目數(shù)據(jù)集,并將其移動到你的目錄中?,F(xiàn)在將此代碼添加到一個新的Python文件中:

pip3 install langchain openai

此代碼調用create_csv_agent函數(shù)并使用netflix_titles.csv數(shù)據(jù)集。下圖顯示了我們的測試。

A Complete Guide to LangChain in Python

如上所示,其邏輯是在cast列中查找所有“Christian Bale”的出現(xiàn)。

我們還可以像這樣創(chuàng)建一個Pandas DataFrame智能體:

from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
from langchain.llms import OpenAI
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 獲取你的Serp API密鑰:https://serpapi.com/

OpenAI.api_key = "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"
llm = OpenAI(model="gpt-3.5-turbo", temperature=0)
tools = load_tools(["serpapi", "llm-math"], llm=llm)
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent.run("How much energy did wind turbines produce worldwide in 2022?")

如果我們運行它,我們將看到如下所示的結果。

A Complete Guide to LangChain in Python A Complete Guide to LangChain in Python

這些只是一些例子。我們可以將幾乎任何API或數(shù)據(jù)集與LangChain一起使用。

模型(Models):

LangChain中有三種類型的模型:大型語言模型(LLM)、聊天模型和文本嵌入模型。讓我們通過一些示例來探索每種類型的模型。

大型語言模型(Language Model):

LangChain提供了一種在Python中使用大型語言模型的方法,以根據(jù)文本輸入生成文本輸出。它不像聊天模型那樣復雜,最適合簡單的輸入-輸出語言任務。以下是用OpenAI的示例:

<code>"How much energy did wind turbines produce worldwide in 2022?"</code>

如上所示,它使用gpt-3.5-turbo模型為提供的輸入(“Come up with a rap name for Matt Nikonorov”)生成輸出。在這個例子中,我將溫度設置為0.9,以使LLM更具創(chuàng)造性。它想出了“MC MegaMatt”。我給它打9/10分。

聊天模型(Chat Model):

讓LLM模型想出說唱名字很有趣,但如果我們想要更復雜的答案和對話,我們需要使用聊天模型來提升我們的水平。從技術上講,聊天模型與大型語言模型有何不同?用LangChain文檔中的話說:

聊天模型是大型語言模型的一種變體。雖然聊天模型在后臺使用大型語言模型,但它們使用的接口略有不同。它們不使用“文本輸入,文本輸出”的API,而是使用“聊天消息”作為輸入和輸出的接口。

這是一個簡單的Python聊天模型腳本:

pip3 install langchain openai

如上所示,代碼首先發(fā)送一個SystemMessage,并告訴聊天機器人要友好和非正式,之后它發(fā)送一個HumanMessage,告訴聊天機器人說服我們Djokovich比Federer更好。

如果你運行這個聊天機器人模型,你將看到如下所示的結果。

A Complete Guide to LangChain in Python

嵌入(Embeddings):

嵌入提供了一種將文本塊中的單詞和數(shù)字轉換為向量的方法,然后可以將這些向量與其他單詞或數(shù)字關聯(lián)起來。這聽起來可能很抽象,所以讓我們來看一個例子:

from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
from langchain.llms import OpenAI
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 獲取你的Serp API密鑰:https://serpapi.com/

OpenAI.api_key = "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"
llm = OpenAI(model="gpt-3.5-turbo", temperature=0)
tools = load_tools(["serpapi", "llm-math"], llm=llm)
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent.run("How much energy did wind turbines produce worldwide in 2022?")

這將返回一個浮點數(shù)列表:[0.022762885317206383, -0.01276398915797472, 0.004815981723368168, -0.009435392916202545, 0.010824492201209068]。這就是嵌入的樣子。

嵌入模型的用例:

如果我們想訓練一個聊天機器人或LLM來回答與我們的數(shù)據(jù)或特定文本樣本相關的問題,我們需要使用嵌入。讓我們創(chuàng)建一個簡單的CSV文件(embs.csv),其中包含一個“text”列,其中包含三條信息:

<code>"How much energy did wind turbines produce worldwide in 2022?"</code>

現(xiàn)在,這是一個腳本,它將使用嵌入來獲取問題“Who was the tallest human ever?”并在CSV文件中找到正確的答案:

from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain.agents import create_csv_agent
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"

agent = create_csv_agent(
    OpenAI(temperature=0),
    "netflix_titles.csv",
    verbose=True,
    agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
)

agent.run("In how many movies was Christian Bale casted")

如果我們運行此代碼,我們將看到它輸出“Robert Wadlow was the tallest human ever”。該代碼通過獲取每條信息的嵌入并找到與問題“Who was the tallest human ever?”的嵌入最相關的嵌入來找到正確的答案。嵌入的力量!

塊(Chunks):

LangChain模型不能同時處理大型文本并使用它們來生成響應。這就是塊和文本分割的用武之地。讓我們來看兩種在將文本數(shù)據(jù)饋送到LangChain之前將其分割成塊的簡單方法。

按字符分割塊:

為了避免塊中的突然中斷,我們可以通過在換行符或雙換行符的每次出現(xiàn)處分割文本,來按段落分割文本:

from langchain.agents import create_pandas_dataframe_agent
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain.llms import OpenAI
import pandas as pd
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
df = pd.read_csv("netflix_titles.csv")

agent = create_pandas_dataframe_agent(OpenAI(temperature=0), df, verbose=True)

agent.run("In what year were the most comedy movies released?")

遞歸分割塊:

如果我們想嚴格地按一定長度的字符分割文本,我們可以使用RecursiveCharacterTextSplitter:

from langchain.llms import OpenAI
import os
os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"

llm = OpenAI(model="gpt-3.5-turbo", temperature=0.9)
print(llm("Come up with a rap name for Matt Nikonorov"))

塊大小和重疊:

在查看上面的示例時,你可能想知道塊大小和重疊參數(shù)的確切含義,以及它們對性能的影響。這可以用兩點來解釋:

  • 塊大小決定每個塊中字符的數(shù)量。塊大小越大,塊中的數(shù)據(jù)越多,LangChain處理它并生成輸出所需的時間就越長,反之亦然。
  • 塊重疊是在塊之間共享信息的內容,以便它們共享一些上下文。塊重疊越高,我們的塊就越冗余,塊重疊越低,塊之間共享的上下文就越少。通常,良好的塊重疊是塊大小的10%到20%,盡管理想的塊重疊因不同的文本類型和用例而異。

鏈(Chains):

鏈基本上是多個LLM功能鏈接在一起以執(zhí)行更復雜的任務,而這些任務無法通過簡單的LLM輸入->輸出方式來完成。讓我們來看一個很酷的例子:

pip3 install langchain openai

此代碼將兩個變量輸入到其提示中,并制定一個有創(chuàng)意的答案(temperature=0.9)。在這個例子中,我們要求它為一部關于數(shù)學的恐怖電影想出一個好標題。運行此代碼后的輸出是“The Calculating Curse”,但這并沒有真正顯示鏈的全部功能。

讓我們來看一個更實際的例子:

from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
from langchain.llms import OpenAI
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 獲取你的Serp API密鑰:https://serpapi.com/

OpenAI.api_key = "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"
llm = OpenAI(model="gpt-3.5-turbo", temperature=0)
tools = load_tools(["serpapi", "llm-math"], llm=llm)
agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
agent.run("How much energy did wind turbines produce worldwide in 2022?")

這段代碼可能看起來令人困惑,所以讓我們逐步講解。

這段代碼讀取Nas(嘻哈藝術家)的簡短傳記,并從文本中提取以下值,并將它們格式化為JSON對象:

  • 藝術家的姓名
  • 藝術家的音樂類型
  • 藝術家的首張專輯
  • 藝術家首張專輯的發(fā)行年份

在提示中,我們還指定了“Make sure to answer in the correct format”,以便我們始終以JSON格式獲得輸出。這是此代碼的輸出:

<code>"How much energy did wind turbines produce worldwide in 2022?"</code>

通過向create_structured_output_chain函數(shù)提供JSON模式,我們使鏈將其輸出放入JSON格式。

超越OpenAI:

盡管我一直使用OpenAI模型作為LangChain不同功能的示例,但它并不局限于OpenAI模型。我們可以將LangChain與許多其他LLM和AI服務一起使用。(這是LangChain可集成LLM的完整列表。)

例如,我們可以將Cohere與LangChain一起使用。這是LangChain Cohere集成的文檔,但為了提供一個實際示例,在使用pip3 install cohere安裝Cohere之后,我們可以使用LangChain和Cohere編寫一個簡單的問答代碼,如下所示:

from langchain.llms import OpenAI
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain.agents import create_csv_agent
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"

agent = create_csv_agent(
    OpenAI(temperature=0),
    "netflix_titles.csv",
    verbose=True,
    agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
)

agent.run("In how many movies was Christian Bale casted")

上面的代碼產生以下輸出:

from langchain.agents import create_pandas_dataframe_agent
from langchain.chat_models import ChatOpenAI
from langchain.agents.agent_types import AgentType
from langchain.llms import OpenAI
import pandas as pd
import os

os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
df = pd.read_csv("netflix_titles.csv")

agent = create_pandas_dataframe_agent(OpenAI(temperature=0), df, verbose=True)

agent.run("In what year were the most comedy movies released?")

結論:

在本指南中,你已經看到了LangChain的不同方面和功能。掌握了這些知識后,你就可以利用LangChain的功能來進行NLP工作,無論你是研究人員、開發(fā)人員還是愛好者。

你可以在GitHub上找到包含本文所有圖片和Nas.txt文件的倉庫。

祝你使用Python中的LangChain進行編碼和實驗愉快!

以上是Python的Langchain的完整指南的詳細內容。更多信息請關注PHP中文網其他相關文章!

本站聲明
本文內容由網友自發(fā)貢獻,版權歸原作者所有,本站不承擔相應法律責任。如您發(fā)現(xiàn)有涉嫌抄襲侵權的內容,請聯(lián)系admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣服圖片

Undresser.AI Undress

Undresser.AI Undress

人工智能驅動的應用程序,用于創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用于從照片中去除衣服的在線人工智能工具。

Clothoff.io

Clothoff.io

AI脫衣機

Video Face Swap

Video Face Swap

使用我們完全免費的人工智能換臉工具輕松在任何視頻中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的代碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

功能強大的PHP集成開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級代碼編輯軟件(SublimeText3)

Python的UNITDEST或PYTEST框架如何促進自動測試? Python的UNITDEST或PYTEST框架如何促進自動測試? Jun 19, 2025 am 01:10 AM

Python的unittest和pytest是兩種廣泛使用的測試框架,它們都簡化了自動化測試的編寫、組織和運行。1.二者均支持自動發(fā)現(xiàn)測試用例并提供清晰的測試結構:unittest通過繼承TestCase類并以test\_開頭的方法定義測試;pytest則更為簡潔,只需以test\_開頭的函數(shù)即可。2.它們都內置斷言支持:unittest提供assertEqual、assertTrue等方法,而pytest使用增強版的assert語句,能自動顯示失敗詳情。3.均具備處理測試準備與清理的機制:un

Python如何處理函數(shù)中的可變默認參數(shù),為什么這會出現(xiàn)問題? Python如何處理函數(shù)中的可變默認參數(shù),為什么這會出現(xiàn)問題? Jun 14, 2025 am 12:27 AM

Python的函數(shù)默認參數(shù)在定義時只被初始化一次,若使用可變對象(如列表或字典)作為默認參數(shù),可能導致意外行為。例如,使用空列表作為默認參數(shù)時,多次調用函數(shù)會重復使用同一個列表,而非每次生成新列表。此行為引發(fā)的問題包括:1.函數(shù)調用間數(shù)據(jù)意外共享;2.后續(xù)調用結果受之前調用影響,增加調試難度;3.造成邏輯錯誤且難以察覺;4.對新手和有經驗開發(fā)者均易產生困惑。為避免問題,最佳實踐是將默認值設為None,并在函數(shù)內部創(chuàng)建新對象,例如使用my_list=None代替my_list=[],并在函數(shù)中初始

列表,字典和集合綜合如何改善Python中的代碼可讀性和簡潔性? 列表,字典和集合綜合如何改善Python中的代碼可讀性和簡潔性? Jun 14, 2025 am 12:31 AM

Python的列表、字典和集合推導式通過簡潔語法提升代碼可讀性和編寫效率。它們適用于簡化迭代與轉換操作,例如用單行代碼替代多行循環(huán)實現(xiàn)元素變換或過濾。1.列表推導式如[x2forxinrange(10)]能直接生成平方數(shù)列;2.字典推導式如{x:x2forxinrange(5)}清晰表達鍵值映射;3.條件篩選如[xforxinnumbersifx%2==0]使過濾邏輯更直觀;4.復雜條件亦可嵌入,如結合多條件過濾或三元表達式;但需避免過度嵌套或副作用操作,以免降低可維護性。合理使用推導式能在減少

如何將Python與微服務體系結構中的其他語言或系統(tǒng)集成? 如何將Python與微服務體系結構中的其他語言或系統(tǒng)集成? Jun 14, 2025 am 12:25 AM

Python可以很好地與其他語言和系統(tǒng)在微服務架構中協(xié)同工作,關鍵在于各服務如何獨立運行并有效通信。1.使用標準API和通信協(xié)議(如HTTP、REST、gRPC),Python通過Flask、FastAPI等框架構建API,并利用requests或httpx調用其他語言服務;2.借助消息代理(如Kafka、RabbitMQ、Redis)實現(xiàn)異步通信,Python服務可發(fā)布消息供其他語言消費者處理,提升系統(tǒng)解耦、可擴展性和容錯性;3.通過C/C 擴展或嵌入其他語言運行時(如Jython),實現(xiàn)性

如何將Python用于數(shù)據(jù)分析和與Numpy和Pandas等文庫進行操作? 如何將Python用于數(shù)據(jù)分析和與Numpy和Pandas等文庫進行操作? Jun 19, 2025 am 01:04 AM

pythonisidealfordataanalysisionduetonumpyandpandas.1)numpyExccelSatnumericalComputationswithFast,多dimensionalArraysAndRaysAndOrsAndOrsAndOffectorizedOperationsLikenp.sqrt()

什么是動態(tài)編程技術,如何在Python中使用它們? 什么是動態(tài)編程技術,如何在Python中使用它們? Jun 20, 2025 am 12:57 AM

動態(tài)規(guī)劃(DP)通過將復雜問題分解為更簡單的子問題并存儲其結果以避免重復計算,來優(yōu)化求解過程。主要方法有兩種:1.自頂向下(記憶化):遞歸分解問題,使用緩存存儲中間結果;2.自底向上(表格化):從基礎情況開始迭代構建解決方案。適用于需要最大/最小值、最優(yōu)解或存在重疊子問題的場景,如斐波那契數(shù)列、背包問題等。在Python中,可通過裝飾器或數(shù)組實現(xiàn),并應注意識別遞推關系、定義基準情況及優(yōu)化空間復雜度。

如何使用__ITER__和__NEXT __在Python中實現(xiàn)自定義迭代器? 如何使用__ITER__和__NEXT __在Python中實現(xiàn)自定義迭代器? Jun 19, 2025 am 01:12 AM

要實現(xiàn)自定義迭代器,需在類中定義__iter__和__next__方法。①__iter__方法返回迭代器對象自身,通常為self,以兼容for循環(huán)等迭代環(huán)境;②__next__方法控制每次迭代的值,返回序列中的下一個元素,當無更多項時應拋出StopIteration異常;③需正確跟蹤狀態(tài)并設置終止條件,避免無限循環(huán);④可封裝復雜邏輯如文件行過濾,同時注意資源清理與內存管理;⑤對簡單邏輯可考慮使用生成器函數(shù)yield替代,但需結合具體場景選擇合適方式。

Python編程語言及其生態(tài)系統(tǒng)的新興趨勢或未來方向是什么? Python編程語言及其生態(tài)系統(tǒng)的新興趨勢或未來方向是什么? Jun 19, 2025 am 01:09 AM

Python的未來趨勢包括性能優(yōu)化、更強的類型提示、替代運行時的興起及AI/ML領域的持續(xù)增長。首先,CPython持續(xù)優(yōu)化,通過更快的啟動時間、函數(shù)調用優(yōu)化及擬議中的整數(shù)操作改進提升性能;其次,類型提示深度集成至語言與工具鏈,增強代碼安全性與開發(fā)體驗;第三,PyScript、Nuitka等替代運行時提供新功能與性能優(yōu)勢;最后,AI與數(shù)據(jù)科學領域持續(xù)擴張,新興庫推動更高效的開發(fā)與集成。這些趨勢表明Python正不斷適應技術變化,保持其領先地位。

See all articles