开启AI大模型应用开发新篇:LangChain打造智能体基础

以LangChain与GPT - 4o - mini构建大模型智能体开发实战

在最近一段时间里,大模型所具备的能力一直在持续取得突破,这使得构建智能代理(Agent)系统成为了开发者们积极追逐的热点领域。

本文将会以LangChain框架作为核心,结合GPT - 4o - mini模型,通过接入工具以及运用消息修剪策略,来实现一个拥有记忆功能、能够调用搜索以及执行函数能力的智能体。

环境筹备与模型初始化

使用LangChain的时候,首先需要对语言模型进行初始化操作,这里所采用的是由OpenAI提供的GPT - 4o - mini模型。

# llm_env.py
from langchain.chat_models import init_chat_model

llm = init_chat_model("gpt-4o-mini", model_provider="openai")

我们会把它封装在llm_env.py文件中,以便主程序进行导入。

主程序结构剖析

主逻辑文件是main_agent_trim.py,它具备以下功能:
- 工具的整合
- PostgreSQL持久化配置
- 消息修剪策略
- Agent交互循环

工具函数与搜索工具接入

我们首先定义了一个简单的数学函数add,同时接入了TavilySearchResults搜索工具,以此来增强智能体获取外部知识的能力。

def add(a: int, b: int) -> int:
    return a + b

search = TavilySearchResults(max_results=5)
tools = [add, search]

配置LangGraph持久化存储

我们运用PostgresSaver来记录agent的状态以及历史会话,从而支持多轮对话的记忆功能。

DB_URI = "postgresql://postgres:123456@localhost:5432/langchaindemo?sslmode=disable"
with PostgresSaver.from_conn_string(DB_URI) as checkpointer:
    checkpointer.setup()

用户输入thread_id时,我们会组合当天的日期来生成唯一的标识符,以确保每个会话线程都能够独立追溯。

消息修剪策略设计

为了把控模型输入token的上限,我们引入了trim_messages方法,在每一轮对话之前进行修剪操作:

def pre_model_hook(state):
    trimmer = trim_messages(
        max_tokens=65,
        strategy="last",
        token_counter=llm_env.llm,
        include_system=True,
        allow_partial=False,
        start_on="human",
    )
    trimmed_messages = trimmer.invoke(state["messages"])
    return {"llm_input_messages": trimmed_messages}

该策略仅仅保留最近的用户消息,避免长对话历史超出token限制,进而影响模型的响应。

构建智能体执行器

借助create_react_agent方法来创建智能体,传入模型、工具、hook以及checkpoint。

agent_excuter = create_react_agent(
    llm_env.llm,
    tools,
    pre_model_hook=pre_model_hook,
    checkpointer=checkpointer,
)

与智能体交互

程序进入循环模式,接收用户输入,执行智能体的推理过程,并输出响应内容以及工具调用情况。

while True:
    query = input("你: ")
    if query.strip().lower() == "exit":
        break
    input_messages = [HumanMessage(query)]
    response = agent_excuter.invoke({"messages": input_messages}, config=config)
    for message in response["messages"]:
        if hasattr(message, "content") and message.content:
            print(f"{message.type}:{message.content}")
        if hasattr(message, "tool_calls") and message.tool_calls:
            print(f"{message.type}:{message.tool_calls}")

示例

<p>开启AI大模型应用开发新篇:LangChain打造智能体基础</p>

总结

本文展示了如何基于LangChain框架构建一个集合了搜索、函数执行、消息修剪以及状态持久化为一体的智能体系统。通过合理设计hook以及工具链,我们能够持续拓展其功能范畴。

文章整理自互联网,只做测试使用。发布者:Lomu,转转请注明出处:https://www.it1024doc.com/12611.html

(0)
LomuLomu
上一篇 2025 年 6 月 22 日
下一篇 2025 年 6 月 22 日

相关推荐

  • FastAPI中STOMP协议升级探索:高效消息传递新途径

    标题: FastAPI中STOMP协议进阶探究:高效消息传递的创新方式 1. STOMP协议基础 STOMP(简单文本导向消息协议)是一种基于文本的轻量化消息协议,常被用于实现发布/订阅模式。与直接运用WebSocket相比,STOMP拥有更为结构化的消息格式,支持以下关键功能: * 消息目标地址 (目的地):消息发送的目标位置(例如”/topic/news…

    2025 年 7 月 27 日
    36500
  • WebStorm激活成功但提示未注册?可能是这个问题!

    免责声明:以下补丁与激活码均源自网络公开分享,仅限个人学习研究,禁止商业用途。如条件允许,请支持正版!官方正版低至 32 元/年:https://panghu.hicxy.com/shop/?id=18 WebStorm 是 JetBrains 推出的全平台前端 IDE,支持 Windows、macOS 与 Linux。本文将手把手教你用破解补丁一键永久解锁…

    2025 年 9 月 21 日
    25000
  • 全站同步webstorm激活码免费获取,权威破解教程一站式

    申明:本教程 WebStorm破解补丁、激活码均收集于网络,请勿商用,仅供个人学习使用,如有侵权,请联系作者删除。若条件允许,希望大家购买正版 ! 废话不多说,先上 WebStorm 2025.2.1 版本破解成功的截图,如下图,可以看到已经成功破解到 2099 年辣,舒服的很! 接下来就给大家通过图文的方式分享一下如何破解最新的WebStorm。 如果觉得…

    2026 年 1 月 19 日
    18100
  • 网站动静加速架构 dcdn+ga 全站加速和全球加速api

    # 背景概述 我们的公司专注于在香港提供服务,但面对的挑战是,我们的客户群体主要分布在中国内地。因此,国内用户访问香港服务时,不可避免地会遇到速度慢的问题。由于我们公司主要从事NFT业务,因此选择在香港提供服务是有其特定原因的。 # 加速策略 ## 1.1 静态内容加速 静态内容加速指的是对静态文件,如HTML、JavaScript、CSS、图片等资源的快速…

    未分类 2024 年 12 月 26 日
    49800
  • 2025年最新PyCharm永久破解教程:激活码+破解补丁一键获取

    本教程适用于JetBrains全家桶,包括IDEA、PyCharm、DataGrip、Golang等所有产品! 先来看最新PyCharm版本成功破解的截图,可以看到有效期已延长至2099年,完美解决激活问题! 下面将详细介绍如何永久激活PyCharm至2099年。这个方法同样适用于旧版本,无论你使用什么操作系统: Windows系统 Mac系统 Linux系…

    2025 年 5 月 9 日
    78700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信