Agent Communication Protocol
Github
  • ACP(智能体通信协议)介绍
    • 为什么选择ACP?
    • ACP架构图
    • AID智能体身份标识
    • ACP证书管理体系
    • Agent会话时序
    • Agent的通信协议
      • ACP底层协议
      • ACP消息格式
    • Agent数据规范
      • agentprofile.json规范
      • config.json规范
    • Agent授权与交易
    • Agent的发现机制
    • Agent行为及安全规范
    • 一些设计的理念和原则
  • ACP SDK快速入门
    • Agent如何接入智能体互联网
    • 接入点部署
    • Agent例程
      • 一、创建身份&读写公私有数据
      • 二、agent的hello world
      • 三、把在线大模型封装成agent
        • 1.deepseek异步响应
        • 2.qwen3大模型流式输出
        • 3.qwen3大模型function calling
      • 四、把本地大模型封装成agent
      • 五、通过调用大模型agent来替代直接对大模型的调用
      • 六、调用api的方式来实现天气查询的agent
      • 七、通过使用agent的方式来完成天气的查询
      • 八、把输出写入到文件的agent
      • 九、读取文件数据输出的agent
      • 十、将python执行器封装成agent
      • 十一、对agent实现串行和并行的调用
      • 十二、HCP 天气问答智能体
      • 十三、将dify实现的agent接入agent互联网
        • 1.dify chat接入
        • 2.dify workflow接入
      • 十四、用agently来实现agent
      • 十五、将阿里百炼平台上封装的agent接入agent互联网
      • 十六、千问大模型智能体接入程序
      • 十七、生成agent调用关系图
  • 常见问题FAQ
  • 其它
由 GitBook 提供支持
在本页
  • github:
  • README.md
  • 使用指南
  • 功能简介
  • 完整示例代码
  1. ACP SDK快速入门
  2. Agent例程

四、把本地大模型封装成agent

上一页3.qwen3大模型function calling下一页五、通过调用大模型agent来替代直接对大模型的调用

最后更新于23天前

github:

README.md

使用指南

1、环境要求

  • Python 3.8+

2、环境准备

安装Ollama并下载模型:

Linux

curl -fsSL https://ollama.com/install.sh | sh

3、下载模型

ollama pull qwen3:0.6b

4、安装依赖

安装必要的Python库:

pip install agentcp requests

5、创建身份ID

6、修改main.py文件

  1. 将seed_password、agent_id修改为上一步创建的身份信息

  2. 将model_name修改为你本地使用的model

7、执行main.py代码

python main.py

功能简介

该Agent基于agentcp库构建,实现与本地大模型交互,主要功能包括:

  • 接收并处理用户的消息请求

  • 转发消息到本地大模型

  • 处理本地大模型的响应并返回给原始请求方

完整示例代码

import json
import requests
import agentcp
model_name = 'your_local_model'
def chatWithLLM(prompt):
    try:
        response = requests.post(
            "http://localhost:11434/api/chat",
            json={
                "model": model_name,
                "messages": [
                    {
                        "role": "user", 
                        "content": prompt
                    }],
                "stream": False
            })
        response.encoding = 'utf-8'
        response.raise_for_status()
        result = response.json()
        result = result.get('message')
        result = result.get('content')
        return result
    except requests.exceptions.RequestException as e:
        return "请求失败"
    except json.JSONDecodeError:
        return "响应解析失败"

if __name__ == '__main__':
    agent_id = 'your_agent_id'
    acp = agentcp.AgentCP('.', seed_password='')
    aid = acp.load_aid(agent_id)
    @aid.message_handler()
    async def sync_message_handler(msg):
        content = aid.get_content_from_message(msg)
        session_id = aid.get_session_id_from_message(msg)
        sender = aid.get_sender_from_message(msg)
        res = chatWithLLM(content)
        aid.send_message_content(session_id, [sender], res)
        return True
    aid.online()
    acp.serve_forever()

请参考

https://github.com/auliwenjiang/agentcp/tree/master/samples/local_llm_agent
AgentCP SDK
Ollama
Windows
macOS
创建身份,读写公有私有数据文档