楼主: 812676121
153 0

AI 智能体:从技术架构到产业应用的全景解析 [推广有奖]

  • 0关注
  • 0粉丝

等待验证会员

学前班

40%

还不是VIP/贵宾

-

威望
0
论坛币
0 个
通用积分
0
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
20 点
帖子
1
精华
0
在线时间
0 小时
注册时间
2018-3-15
最后登录
2018-3-15

楼主
812676121 发表于 2025-11-17 17:58:52 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币

目录

摘要

一、AI 智能体的概念与核心特征

  • 1.1 定义:什么是 AI 智能体?
  • 1.2 与传统 AI 的本质差异

二、AI 智能体的核心技术架构

  • 2.1 感知模块:环境信息的采集与解析
  • 2.1.1 感知模块的核心流程
  • 2.1.2 基础感知模块代码实现(Python)
  • 2.2 决策模块:目标导向的行为选择
  • 2.2.1 决策模块的核心逻辑
  • 2.2.2 基于强化学习的决策模块实现(Python)
  • 2.3 执行模块:行为的落地与反馈
  • 2.3.1 执行模块的核心组件
  • 2.3.2 智能家居执行模块代码实现(Python)
  • 2.4 记忆模块:历史信息的存储与复用
  • 2.4.1 记忆模块的核心功能
  • 2.4.2 基于 SQLite 的记忆模块实现(Python)
  • 2.5 通信模块:多智能体与外部系统的交互
  • 2.5.1 通信模块的核心功能
  • 2.5.2 基于 MQTT 的多智能体通信实现(Python)

三、AI 智能体的关键支撑技术

  • 3.1 强化学习(Reinforcement Learning, RL)
  • 3.1.1 强化学习在智能体中的典型应用
  • 3.1.2 深度强化学习(DRL)的进阶应用
  • 3.2 多智能体系统(Multi-Agent System, MAS)
  • 3.2.1 多智能体系统的典型场景
  • 3.3 知识图谱(Knowledge Graph)
  • 3.3.2 知识图谱在智能体中的应用流程
  • 3.4 大语言模型(Large Language Models, LLM)

四、AI 智能体的产业应用场景

  • 4.1 智能家居:个性化生活助手
  • 4.1.1 智能家居智能体系统架构
  • 4.2 自动驾驶:自主决策的出行载体
  • 4.2.2 自动驾驶决策代码片段(Python)
  • 4.3 医疗健康:辅助诊断与个性化治疗
  • 4.3.1 医疗诊断智能体的核心流程
  • 4.4 金融服务:智能风控与投资助手
  • 4.4.1 信贷风控智能体的决策逻辑

五、AI 智能体的技术挑战与未来趋势

  • 5.1 当前面临的核心挑战
  • 5.1.1 鲁棒性与安全性
  • 5.1.2 可解释性与伦理问题
  • 5.1.3 多模态与复杂环境适应
  • 5.2 未来发展趋势
  • 5.2.1 通用人工智能体(AGI Agent)
  • 5.2.2 脑机融合智能体
  • 5.2.3 去中心化多智能体网络

六、结论

摘要

AI 智能体(AI Agent)作为新一代人工智能技术的核心载体,正推动人工智能从“被动响应”向“主动决策”演进。本文系统梳理 AI 智能体的概念内涵、技术架构与核心能力,通过多领域代码示例展示其实现逻辑,分析当前产业应用场景与技术挑战,并展望未来发展趋势,为技术研究者与产业实践者提供全面参考。全文约 7000 字,涵盖理论解析、代码实现与应用案例三大维度,兼顾技术深度与实践指导性。

一、AI 智能体的概念与核心特征

1.1 定义:什么是 AI 智能体?

AI 智能体是指具备自主感知、决策、执行与学习能力的人工智能系统,能够在动态环境中持续优化目标达成策略。与传统 AI 模型(如图像识别、自然语言处理模型)相比,AI 智能体的核心差异在于“自主性”——它无需人类持续指令,可基于环境反馈自主调整行为,例如自动驾驶汽车规避障碍物、智能客服主动跟进用户需求等场景。

从学术定义来看,AI 智能体需满足以下四个核心属性(Russell & Norvig 在《人工智能:一种现代方法》中的界定):

  • 自主性(Autonomy):无需人类干预即可运行
  • 反应性(Reactivity):能感知环境变化并及时响应
  • 主动性(Proactivity):可主动发起目标导向的行为
  • 社会性(Social Ability):能与其他智能体或人类交互协作

1.2 与传统 AI 的本质差异

对比维度 传统 AI 模型 AI 智能体
核心目标 单一任务拟合(如分类、预测) 复杂目标达成(如资源优化)
环境交互方式 静态输入 - 输出模式 动态闭环交互(感知 - 决策 - 执行)
决策逻辑 预定义规则或固定模型参数 动态学习与策略调整
应用场景 专项任务(如人脸识别) 复杂系统(如智慧城市管理)

例如,传统推荐算法仅能根据用户历史数据生成推荐列表,而电商场景的 AI 智能体可进一步分析用户犹豫行为(如反复浏览未下单),主动推送优惠券或客服咨询,形成“感知 - 决策 - 执行”的闭环。

二、AI 智能体的核心技术架构

AI 智能体的技术架构由五大核心模块构成,各模块协同实现自主智能行为。以下将详细解析每个模块的功能逻辑,并提供基础代码实现示例。

2.1 感知模块:环境信息的采集与解析

感知模块是 AI 智能体与外部世界交互的“感官系统”,负责将物理世界或数字环境的原始数据(如温度、文本、图像)转化为结构化信息。其核心技术包括传感器数据处理、多模态数据融合与环境建模。

2.1.1 感知模块的核心流程

  • 数据采集:通过传感器(物理设备)或 API(数字系统)获取原始数据
  • 数据预处理:去噪、归一化、缺失值填充等

特征提取:提取环境关键信息(如 “温度> 30℃”“用户情绪负面”)

环境建模:建立环境状态的表述(例如,利用向量或图结构来描绘当前环境)

2.1.2 基础感知模块代码实现(Python)

以智能家居环境的感知为例,实现温度、湿度、光照数据的收集与解析:

import random

import time

import numpy as np

class EnvironmentSensor:

"""环境传感器模拟类,模拟温度、湿度、光照数据采集"""

def __init__(self, min_temp=10, max_temp=35, min_humidity=30, max_humidity=70):

self.min_temp = min_temp

self.max_temp = max_temp

self.min_humidity = min_humidity

self.max_humidity = max_humidity

def get_raw_data(self):

"""采集原始传感器数据(模拟真实传感器噪声)"""

# 模拟传感器数据,添加随机噪声

temp = random.uniform(self.min_temp, self.max_temp) + random.gauss(0, 0.5)

humidity = random.uniform(self.min_humidity, self.max_humidity) + random.gauss(0, 1.0)

light = random.randint(0, 1000) # 光照强度(0-1000 lux)

timestamp = time.time()

return {

"temperature": round(temp, 2),

"humidity": round(humidity, 2),

"light_intensity": light,

"timestamp": timestamp

}

class PerceptionModule:

"""感知模块:处理原始传感器数据,提取环境状态特征"""

def __init__(self, sensor):

self.sensor = sensor

self.history_data = [] # 存储历史数据用于趋势分析

def preprocess_data(self, raw_data):

"""数据预处理:去除异常值、平滑处理"""

# 1. 去除异常值(基于物理常识范围)

if not (self.sensor.min_temp - 5 <= raw_data["temperature"] <= self.sensor.max_temp + 5):

raise ValueError("温度数据异常,超出合理范围")

if not (0 <= raw_data["humidity"] <= 100):

raise ValueError("湿度数据异常,超出0-100%范围")

# 2. 移动平均平滑(减少噪声影响)

self.history_data.append(raw_data)

if len(self.history_data) > 5: # 保留最近5条数据做平滑

self.history_data.pop(0)

smoothed_temp = np.mean([d["temperature"] for d in self.history_data])

smoothed_humidity = np.mean([d["humidity"] for d in self.history_data])

return {

"temperature": round(smoothed_temp, 2),

"humidity": round(smoothed_humidity, 2),

"light_intensity": raw_data["light_intensity"],

"timestamp": raw_data["timestamp"]

}

def extract_features(self, processed_data):

"""提取环境特征(判断是否需要触发后续行为)"""

features = {

"is_hot": processed_data["temperature"] > 28, # 温度>28℃判定为炎热

"is_dry": processed_data["humidity"] < 40, # 湿度<40%判定为干燥

"is_dark": processed_data["light_intensity"] < 200 # 光照<200lux判定为昏暗

}

return features

def get_environment_state(self):

"""完整感知流程:采集→预处理→特征提取"""

raw_data = self.sensor.get_raw_data()

processed_data = self.preprocess_data(raw_data)

features = self.extract_features(processed_data)

return {

"raw_data": raw_data,

"processed_data": processed_data,

"features": features

}

# 测试感知模块

if __name__ == "__main__":

sensor = EnvironmentSensor()

perception = PerceptionModule(sensor)

# 模拟10次环境感知

for i in range(10):

env_state = perception.get_environment_state()

print(f"第{i+1}次感知结果:")

print(f" 处理后数据:温度{env_state['processed_data']['temperature']}℃,湿度{env_state['processed_data']['humidity']}%")

print(f" 环境特征:{env_state['features']}\n")

time.sleep(1) # 模拟感知间隔

2.2 决策模块:目标导向的行为选择

决策模块相当于AI智能体的“思维中心”,主要职责是依据感知模块提供的环境状态和预设目标,挑选出最佳的行为方案。其关键技术涵盖强化学习、规划算法、逻辑推理等,具体选择依赖于应用情景的复杂性。

2.2.1 决策模块的核心逻辑

目标设定:确立智能体的任务目标(比如“降低能耗”“提高用户满意度”)

行为领域:界定智能体能够执行的所有行动(比如“启动空调”“调整灯光强度”)

策略选择:通过算法从行为领域中选取最优化的行动(比如强化学习的Q值最大化)

矛盾解决:当存在多个目标冲突时(例如“节省能源”与“舒适体验”),通过权重分配或优先级排序来作出决定

2.2.2 基于强化学习的决策模块实现(Python)

以智能家居温控为例,采用Q-Learning算法实现决策模块,旨在“舒适体验”(温度24-26℃)与“节能”(减少空调运行时长)之间寻找平衡点:

import numpy as np

import pandas as pd

class QLearningDecision:

"""基于Q-Learning的决策模块"""

def __init__(self,

temp_states=["cold", "comfortable", "hot"], # 温度状态

actions=["turn_off_ac", "low_ac", "medium_ac", "high_ac"], # 行为空间

alpha=0.1, # 学习率

gamma=0.9, # 折扣因子

epsilon=0.3): # 探索率(平衡探索与利用)

self.temp_states = temp_states

self.actions = actions

self.alpha = alpha

self.gamma = gamma

self.epsilon = epsilon

# 初始化Q表(状态-行为价值表)

self.q_table = pd.DataFrame(

np.zeros((len(temp_states), len(actions))),

index=temp_states,

columns=actions

)

def get_state_index(self, state):

"""将状态名称转换为索引"""

return self.temp_states.index(state)

def get_action_index(self, action):

"""将行为名称转换为索引"""

return self.actions.index(action)

def choose_action(self, current_state):

"""根据当前状态选择行为(ε-贪婪策略)"""

state_idx = self.get_state_index(current_state)

# 探索:随机选择行为

if np.random.uniform(0, 1) < self.epsilon:

action = np.random.choice(self.actions)

# 利用:选择Q值最大的行为

else:

action_idx = np.argmax(self.q_table.iloc[state_idx])

action = self.actions[action_idx]

return action

def calculate_reward(self, current_state, next_state, action):

"""计算奖励值(基于目标设计)"""

reward = 0

# 1. 舒适性奖励:若下一状态为舒适,加5分

if next_state == "comfortable":

reward += 5

# 2. 节能惩罚:若开启高功率空调,减2分

if action in ["medium_ac", "high_ac"]:

reward -= 2

# 3. 极端状态惩罚:若当前状态为过冷/过热,未调整则减3分

if current_state in ["cold", "hot"] and action == "turn_off_ac":

reward -= 3

return reward

def update_q_table(self, current_state, action, reward, next_state):

"""更新Q表(Q-Learning核心公式)"""

current_state_idx = self.get_state_index(current_state)

action_idx = self.get_action_index(action)

next_state_idx = self.get_state_index(next_state)

# Q-Learning更新公式:Q(s,a) = Q(s,a) + α[R + γ·max(Q(s',a')) - Q(s,a)]

current_q = self.q_table.iloc[current_state_idx, action_idx]

max_next_q = np.max(self.q_table.iloc[next_state_idx])

new_q = current_q + self.alpha * (reward + self.gamma * max_next_q - current_q)

self.q_table.iloc[current_state_idx, action_idx] = new_q

def train(self, env, episodes=1000):

"""训练决策模型(与环境交互学习)"""

for episode in range(episodes):

# 初始化环境状态(随机选择初始温度状态)

current_state = np.random.choice(self.temp_states)

total_reward = 0

# 单轮训练循环

while True:

# 1. 选择行为

action = self.choose_action(current_state)

# 2. 执行行为,获取下一状态(模拟环境反馈)

next_state = self.simulate_env_feedback(current_state, action)

# 3. 计算奖励

reward = self.calculate_reward(current_state, next_state, action)

total_reward += reward

# 4. 更新Q表

self.update_q_table(current_state, action, reward, next_state)

# 5. 更新当前状态

current_state = next_state

# 6. 终止条件:连续3步处于舒适状态

if len([s for s in [current_state, next_state] * 2 if s == "comfortable"]) >= 3:

break

# 每100轮输出训练进度

if (episode + 1) % 100 == 0:

print(f"Episode {episode+1:4d} | Total Reward: {total_reward:3.0f} | Q-Table:\n{self.q_table.round(2)}\n")

def simulate_env_feedback(self, current_state, action):

"""模拟环境反馈:根据当前状态与行为,生成下一状态"""

state_transition = {

# 状态转移规则:当前状态→行为→下一状态

"cold": {

"turn_off_ac": "cold",

"low_ac": "cold",

"medium_ac": "comfortable",

"high_ac": "comfortable"

},

"comfortable": {

"turn_off_ac": "comfortable",

"low_ac": "comfortable",

"medium_ac": "hot",

"high_ac": "hot"

},

"hot": {

"turn_off_ac": "hot",

"low_ac": "comfortable",

"medium_ac": "comfortable",

"high_ac": "cold"

}

}

return state_transition[current_state][action]

def make_decision(self, current_state):

"""基于训练后的Q表进行决策(实际应用阶段)"""

state_idx = self.get_state_index(current_state)

action_idx = np.argmax(self.q_table.iloc[state_idx])

return self.actions[action_idx]

# 测试决策模块

if __name__ == "__main__":

# 初始化决策模块

decision_module = QLearningDecision()

# 训练模型

decision_module.train(env=None, episodes=500)

# 模拟实际决策:输入当前温度状态,输出最优行为

test_states = ["cold", "comfortable", "hot"]

for state in test_states:

action = decision_module.make_decision(state)

print(f"当前温度状态:{state:10s} → 最优决策:{action}")

2.3 执行模块:行为的实际执行与反馈

执行模块相当于AI智能体的“执行机构”,主要任务是将决策模块产生的行为指令转化为实际操作,并将执行结果反馈至感知模块,形成一个闭环。其核心功能包括设备操控、API调用、物理动作执行等,具体实现方式取决于应用场景的硬件或软件接口。

2.3.1 执行模块的核心组件

指令解析单元:将决策结果(例如“启动空调”)转换成机器可执行的命令(例如“向空调控制API发送HTTP请求,设置温度=25”)

执行器接口:匹配不同类型的执行设备(例如物联网设备、软件API、机器人机械臂)

结果反馈单元:收集执行结果(例如“空调已经启动”),并传递给感知模块以更新环境状态

2.3.2 智能家居执行模块代码实现(Python)

以控制空调、加湿器、灯光三种设备为例,实现执行模块的指令解析与设备操控:

import requests

import time

from typing import Dict, Optional

# 模拟设备控制API(实际场景中为硬件设备的真实接口)

class MockDeviceAPI:

"""模拟设备控制API服务"""

def __init__(self):

# 初始设备状态

self.device_states = {

"air_conditioner": {"power": "off", "temperature": 26},

"humidifier": {"power": "off", "humidity_level": 50},

"light": {"power": "off", "brightness": 100}

}

def control_device(self, device_type: str, command: Dict) -> Dict:

"""控制设备:接收设备类型与指令,返回执行结果"""

if device_type not in self.device_states:

return {"status": "failed", "reason": f"设备类型不存在:{device_type}"}

# 执行指令(更新设备状态)

device = self.device_states[device_type]

for key, value in command.items():

if key in device:

device[key] = value

# 模拟设备响应延迟

time.sleep(0.5)

# 返回执行结果

return {

"status": "success",

"device_type": device_type,

"command": command,

"current_state": self.device_states[device_type]

}

def get_device_state(self, device_type: str) -> Optional[Dict]:

"""获取设备当前状态"""

return self.device_states.get(device_type)

class ExecutionModule:

"""执行模块:解析决策指令,控制设备并反馈结果"""

def __init__(self, device_api: MockDeviceAPI):

self.device_api = device_api

# 指令映射表:决策行为→设备控制指令

self.action_to_command = {

"turn_off_ac": {

"device_type": "air_conditioner",

"command": {"power": "off"}

},

"low_ac": {

"device_type": "air_conditioner",

"command": {"power": "on", "temperature": 26}

},

"medium_ac": {

"device_type": "air_conditioner",

"command": {"power": "on", "temperature": 24}

},

"high_ac": {

"device_type": "air_conditioner",

"command": {"power": "on", "temperature": 22}

},

"turn_on_humidifier": {

"device_type": "humidifier",

"command": {"power": "on", "humidity_level": 60}

},

"turn_off_humidifier": {

"device_type": "humidifier",

"command": {"power": "off"}

},

"turn_on_light": {

"device_type": "light",

"command": {"power": "on", "brightness": 80}

},

"turn_off_light": {

"device_type": "light",

"command": {"power": "off"}

}

}

def parse_action(self, action: str) -> Optional[Dict]:

"""解析决策行为:将行为名称转换为设备控制指令"""

if action not in self.action_to_command:

print(f"未知行为:{action},无法解析为设备指令")

return None

return self.action_to_command[action]

def execute_action(self, action: str) -> Dict:

"""执行行为:解析指令→调用设备API→返回执行结果"""

# 1. 解析行为指令

command_info = self.parse_action(action)

if not command_info:

return {"status": "failed", "reason": "指令解析失败"}

# 2. 调用设备API执行指令

device_type = command_info["device_type"]

command = command_info["command"]

try:

result = self.device_api.control_device(device_type, command)

print(f"执行行为:{action}")

print(f"设备响应:{result}\n")

return result

except Exception as e:

error_msg = f"设备控制失败:{str(e)}"

print(error_msg)

return {"status": "failed", "reason": error_msg}

def get_execution_feedback(self, action: str) -> Dict:

"""获取执行反馈:结合设备状态与行为,生成反馈信息"""

command_info = self.parse_action(action)

if not command_info:

return {"feedback": "行为无法解析,无反馈信息"}

device_type = command_info["device_type"]

device_state = self.device_api.get_device_state(device_type)

return {

"action": action,

"device_type": device_type,

"current_device_state": device_state,

"feedback": f"行为{action}已执行,设备当前状态:{device_state}"

}

# 测试执行模块

if __name__ == "__main__":

# 初始化模拟设备API与执行模块

mock_api = MockDeviceAPI()

execution_module = ExecutionModule(mock_api)

# 模拟决策行为序列

test_actions = [

"high_ac", # 开启高功率空调

"turn_on_humidifier", # 开启加湿器

"turn_on_light", # 开启灯光

"medium_ac" # 调整为中功率空调

]

# 执行行为并获取反馈

for action in test_actions:

execution_result = execution_module.execute_action(action)

feedback = execution_module.get_execution_feedback(action)

print(f"执行反馈:{feedback['feedback']}\n")

time.sleep(1)

2.4 记忆模块:历史信息的保存与再利用

记忆模块是AI智能体的“资料库”,负责存储历史环境状态、行为决策与执行结果,为未来的决策提供参考。依据记忆的时间跨度,可以分为短期记忆(例如最近10分钟的环境数据)和长期记忆(例如用户偏好、历史故障记录)。

2.4.1 记忆模块的核心功能

数据存储:按照时间序列或类别存储感知数据、决策记录、执行结果

数据检索:支持基于条件的历史信息查询(例如“查询昨天14点的温度数据”)

经验提炼:从历史数据中挖掘模式(例如“用户每天19点会打开灯光”)

记忆更新:定期清除无用数据,更新关键信息

2.4.2 基于SQLite的记忆模块实现(Python)

以智能家居场景下的历史数据存储为例,使用SQLite数据库实现记忆模块,支持数据存储、查询与经验提炼:

import sqlite3

import time

from datetime import datetime

from typing import List, Dict, Optional

class MemoryModule:

"""基于SQLite的记忆模块:存储与管理历史数据"""

def __init__(self, db_path: str = "ai_agent_memory.db"):

self.db_path = db_path

# 初始化数据库与表结构

self._init_database()

def _init_database(self):

"""初始化数据库表结构:环境状态表、决策记录表、执行结果表"""

conn = sqlite3.connect(self.db_path)

cursor = conn.cursor()

# 1. 环境状态表:存储感知模块的环境数据

cursor.execute('''

CREATE TABLE IF NOT EXISTS environment_states (

id INTEGER PRIMARY KEY AUTOINCREMENT,

timestamp REAL NOT NULL,

temperature REAL NOT NULL,

humidity REAL NOT NULL,

light_intensity INTEGER NOT NULL,

is_hot INTEGER NOT NULL, # 0:否,1:是

is_dry INTEGER NOT NULL, # 0:否,1:是

is_dark INTEGER NOT NULL # 0:否,1:是

)

''')

# 2. 决策记录表:存储决策模块的行为选择

cursor.execute('''

CREATE TABLE IF NOT EXISTS decision_records (

id INTEGER PRIMARY KEY AUTOINCREMENT,

timestamp REAL NOT NULL,

current_state TEXT NOT NULL, # 决策时的环境状态(如"hot")

chosen_action TEXT NOT NULL, # 选择的行为

reward REAL NOT NULL # 该行为的奖励值

)

''')

# 3. 执行结果表:存储执行模块的反馈信息

cursor.execute('''

CREATE TABLE IF NOT EXISTS execution_results (

id INTEGER PRIMARY KEY AUTOINCREMENT,

timestamp REAL NOT NULL,

action TEXT NOT NULL, # 执行的行为

device_type TEXT NOT NULL, # 控制的设备类型

execution_status TEXT NOT NULL, # 执行状态(success/failed)

device_state TEXT NOT NULL # 执行后的设备状态(JSON格式)

)

''')

conn.commit()

conn.close()

def _get_timestamp(self) -> float:

"""获取当前时间戳(与感知模块时间格式一致)"""

return time.time()

def store_environment_state(self, env_state: Dict):

"""存储环境状态数据(来自感知模块)"""

conn = sqlite3.connect(self.db_path)

cursor = conn.cursor()

processed_data = env_state["processed_data"]

features = env_state["features"]

cursor.execute('''

INSERT INTO environment_states

(timestamp, temperature, humidity, light_intensity, is_hot, is_dry, is_dark)

VALUES (?, ?, ?, ?, ?, ?, ?)

''', (

processed_data["timestamp"],

processed_data["temperature"],

processed_data["humidity"],

processed_data["light_intensity"],

1 if features["is_hot"] else 0,

1 if features["is_dry"] else 0,

1 if features["is_dark"] else 0

))

conn.commit()

conn.close()

print(f"已存储环境状态数据,时间:{datetime.fromtimestamp(processed_data['timestamp'])}")

def store_decision_record(self, current_state: str, chosen_action: str, reward: float):

"""存储决策记录(来自决策模块)"""

conn = sqlite3.connect(self.db_path)

cursor = conn.cursor()

timestamp = self._get_timestamp()

cursor.execute('''

INSERT INTO decision_records

(timestamp, current_state, chosen_action, reward)

VALUES (?, ?, ?, ?)

''', (timestamp, current_state, chosen_action, reward))

conn.commit()

conn.close()

def store_execution_result(self, execution_result: Dict):

"""存储执行结果(来自执行模块)"""

conn = sqlite3.connect(self.db_path)

cursor = conn.cursor()

timestamp = self._get_timestamp()

# 将设备状态字典转换为字符串(SQLite不直接支持JSON,实际可用JSON1扩展)

device_state_str = str(execution_result["current_state"])

cursor.execute('''

INSERT INTO execution_results

(timestamp, action, device_type, execution_status, device_state)

VALUES (?, ?, ?, ?, ?)

''', (

timestamp,

execution_result["command"]["action"] if "command" in execution_result else "",

execution_result["device_type"],

execution_result["status"],

device_state_str

))

conn.commit()

conn.close()

def query_historical_data(self, table_name: str, start_time: float, end_time: float) -> List[Dict]:

"""查询指定时间范围内的历史数据"""

conn = sqlite3.connect(self.db_path)

conn.row_factory = sqlite3.Row # 启用行工厂,返回字典格式

cursor = conn.cursor()

# 验证表名合法性(防止SQL注入)

valid_tables = ["environment_states", "decision_records", "execution_results"]

if table_name not in valid_tables:

conn.close()

raise ValueError(f"无效表名,可选表:{valid_tables}")

# 执行查询

cursor.execute(f'''

SELECT * FROM {table_name}

WHERE timestamp BETWEEN ? AND ?

ORDER BY timestamp ASC

''', (start_time, end_time))

# 转换为字典列表

results = [dict(row) for row in cursor.fetchall()]

conn.close()

return results

def extract_experience(self) -> Dict:

"""从历史数据中提炼经验(如用户行为规律、环境变化趋势)"""

conn = sqlite3.connect(self.db_path)

cursor = conn.cursor()

experience = {}

# 1. 提取环境变化趋势:最近24小时的平均温度、湿度

one_day_ago = self._get_timestamp() - 24 * 3600

cursor.execute('''

SELECT AVG(temperature) as avg_temp, AVG(humidity) as avg_humidity

FROM environment_states

WHERE timestamp >= ?

''', (one_day_ago,))

env_trend = cursor.fetchone()

experience["env_trend_24h"] = {

"avg_temperature": round(env_trend[0], 2) if env_trend[0] else None,

"avg_humidity": round(env_trend[1], 2) if env_trend[1] else None

}

# 2. 提取用户偏好:最常执行的前3个行为

cursor.execute('''

SELECT chosen_action, COUNT(*) as action_count

FROM decision_records

GROUP BY chosen_action

ORDER BY action_count DESC

LIMIT 3

''')

top_actions = cursor.fetchall()

experience["top_actions"] = [

{"action": row[0], "count": row[1]} for row in top_actions

]

conn.close()

return experience

# 测试记忆模块

if __name__ == "__main__":

# 初始化记忆模块

memory = MemoryModule()

# 1. 模拟存储环境状态数据(来自感知模块)

mock_env_state = {

"processed_data": {

"temperature": 29.5,

"humidity": 38.2,

"light_intensity": 150,

"timestamp": time.time()

},

"features": {

"is_hot": True,

"is_dry": True,

"is_dark": True

}

}

memory.store_environment_state(mock_env_state)

# 2. 模拟存储决策记录

memory.store_decision_record(current_state="hot", chosen_action="medium_ac", reward=3.0)

# 3. 模拟存储执行结果

mock_execution_result = {

"status": "success",

"device_type": "air_conditioner",

"command": {"action": "medium_ac"},

"current_state": {"power": "on", "temperature": 24}

}

memory.store_execution_result(mock_execution_result)

# 4. 查询最近1小时的环境数据

end_time = time.time()

start_time = end_time - 3600

env_data = memory.query_historical_data("environment_states", start_time, end_time)

print(f"\n最近1小时环境数据:{env_data}")

# 5. 提炼经验

experience = memory.extract_experience()

print(f"\n提炼的经验:")

print(f"24小时环境趋势:{experience['env_trend_24h']}")

print(f"最常执行行为:{experience['top_actions']}")

2.5 通信模块:多智能体与外部系统的互动

在复杂的环境中(例如智慧城市、工业互联网),单一AI智能体难以独立完成所有任务,需要通过通信模块与其它智能体或外部系统(例如云平台、人类用户)进行交流协作。其关键技术包括消息队列、分布式通信协议(例如MQTT、gRPC)、协同算法等。

2.5.1 通信模块的核心功能

消息发送:向其他智能体或系统传输数据(例如环境状态、决策请求)

消息接收:接收外部消息并解析(例如协作指令、用户指令)

身份验证:保证通信的安全,防止未经授权的访问

协同决策:与其它智能体共同做出决策(例如多车辆协同避障)

2.5.2 基于MQTT的多智能体通信实现(Python)

以智能家居场景中“卧室智能体”与“客厅智能体”的通信为例,使用MQTT协议实现消息交换:

import paho.mqtt.client as mqtt

import time

import json

from typing import Dict, Callable

class CommunicationModule:

"""基于MQTT的通信模块:支持多智能体间消息交互"""

def __init__(self,

client_id: str,

broker_host: str = "test.mosquitto.org", # 公共MQTT broker(测试用)

broker_port: int = 1883,

keepalive: int = 60):

self.client_id = client_id

self.broker_host = broker_host

self.broker_port = broker_port

self.keepalive = keepalive

self.client = mqtt.Client(client_id=client_id)

# 注册回调函数

self.client.on_connect = self._on_connect

self.client.on_message = self._on_message

self.client.on_disconnect = self._on_disconnect

# 消息订阅列表(主题→回调函数)

self.subscriptions = {}

def _on_connect(self, client, userdata, flags, rc):

"""连接成功回调函数"""

if rc == 0:

print(f"[{self.client_id}] 已连接到MQTT Broker")

# 订阅已注册的主题

for topic in self.subscriptions.keys():

client.subscribe(topic)

print(f"[{self.client_id}] 已订阅主题:{topic}")

else:

print(f"[{self.client_id}] 连接失败,错误码:{rc}")

def _on_message(self, client, userdata, msg):

"""接收消息回调函数"""

topic = msg.topic

payload = msg.payload.decode("utf-8")

print(f"\n[{self.client_id}] 收到消息 - 主题:{topic},内容:{payload}")

# 调用该主题对应的回调函数

if topic in self.subscriptions:

try:

# 解析JSON格式的消息内容

payload_dict = json.loads(payload)

self.subscriptions[topic](payload_dict)

except json.JSONDecodeError:

print(f"[{self.client_id}] 消息格式错误,无法解析为JSON:{payload}")

def _on_disconnect(self, client, userdata, rc):

"""断开连接回调函数"""

if rc != 0:

print(f"[{self.client_id}] 意外断开连接,错误码:{rc}")

else:

print(f"[{self.client_id}] 已正常断开连接")

def subscribe_topic(self, topic: str, callback: Callable[[Dict], None]):

"""订阅主题并绑定回调函数"""

self.subscriptions[topic] = callback

# 如果已连接,立即订阅

if self.client.is_connected():

self.client.subscribe(topic)

print(f"[{self.client_id}] 已订阅主题:{topic}")

def publish_message(self, topic: str, message: Dict):

"""发布消息到指定主题(JSON格式)"""

if not self.client.is_connected():

print(f"[{self.client_id}] 未连接到Broker,无法发布消息")

return False

try:

# 将消息转换为JSON字符串

message_str = json.dumps(message, ensure_ascii=False)

result = self.client.publish(topic, message_str, qos=1) # QoS=1:确保消息至少送达一次

result.wait_for_publish() # 等待消息发布完成

if result.rc == mqtt.MQTT_ERR_SUCCESS:

print(f"[{self.client_id}] 已发布消息 - 主题:{topic},内容:{message_str}")

return True

else:

print(f"[{self.client_id}] 消息发布失败,错误码:{result.rc}")

return False

except Exception as e:

print(f"[{self.client_id}] 消息发布异常:{str(e)}")

return False

def connect(self):

"""连接到MQTT Broker"""

try:

self.client.connect(self.broker_host, self.broker_port, self.keepalive)

# 启动网络循环(非阻塞模式)

self.client.loop_start()

return True

except Exception as e:

print(f"[{self.client_id}] 连接Broker异常:{str(e)}")

return False

def disconnect(self):

"""断开与MQTT Broker的连接"""

self.client.loop_stop() # 停止网络循环

self.client.disconnect()

# 测试多智能体通信

def bedroom_agent_callback(message: Dict):

"""卧室智能体的消息回调函数(处理客厅智能体的消息)"""

print(f"[卧室智能体] 处理客厅消息:{message}")

# 若客厅温度过高,卧室智能体调整自身空调(模拟协同行为)

if message.get("type") == "temperature_alert" and message.get("temperature") > 28:

print("[卧室智能体] 收到客厅高温警报,调整自身空调为中功率模式")

def living_room_agent_callback(message: Dict):

"""客厅智能体的消息回调函数(处理卧室智能体的消息)"""

print(f"[客厅智能体] 处理卧室消息:{message}")

if __name__ == "__main__":

# 1. 初始化两个智能体的通信模块

bedroom_agent = CommunicationModule(client_id="bedroom_agent")

living_room_agent = CommunicationModule(client_id="living_room_agent")

# 2. 订阅主题并绑定回调函数

# 卧室智能体订阅客厅主题

bedroom_agent.subscribe_topic(

topic="smart_home/living_room/messages",

callback=bedroom_agent_callback

)

# 客厅智能体订阅卧室主题

living_room_agent.subscribe_topic(

topic="smart_home/bedroom/messages",

callback=living_room_agent_callback

)

# 3. 连接到MQTT Broker

if bedroom_agent.connect() and living_room_agent.connect():

# 4. 客厅智能体发布高温警报消息

living_room_message = {

"type": "temperature_alert",

"temperature": 29.5,

"timestamp": time.time(),

"sender": "living_room_agent"

}

living_room_agent.publish_message(

topic="smart_home/living_room/messages",

message=living_room_message

)

# 5. 卧室智能体发布响应消息

time.sleep(2)

bedroom_message = {

"type": "response",

"content": "已收到高温警报,正在调整卧室空调",

"timestamp": time.time(),

"sender": "bedroom_agent"

}

bedroom_agent.publish_message(

topic="smart_home/bedroom/messages",

message=bedroom_message

)

# 保持连接10秒后断开

time.sleep(10)

bedroom_agent.disconnect()

living_room_agent.disconnect()

else:

print("智能体连接失败,无法进行通信测试")

三、AI智能体的关键支撑技术

除了核心架构模块外,AI智能体的实现还需要一系列关键技术的支持,这些技术为智能体的自主性、适应性和协作性提供了基础保障。

3.1 强化学习(Reinforcement Learning, RL)

强化学习是决策模块的关键技术,通过“智能体与环境的互动→获得奖励→优化策略”的循环过程,增强智能体的自主决策能力。在AI智能体中,强化学习的应用领域包括:

机器人路径规划(例如仓库机器人避障)

资源调度(例如数据中心能耗管理)

用户行为预测(例如智能推荐系统)

3.1.1 强化学习在智能体中的典型应用

以自动驾驶智能体的车道保持为例,强化学习的目标是“使车辆保持在当前车道内,同时最小化转向幅度”:

状态空间:车辆与车道线的横向距离、车速、方向盘角度

行为空间:左转(小幅/大幅)、右转(小幅/大幅)、保持方向

奖励函数:车道内行驶(+1)、偏离车道(-5)、大幅转向(-0.5)

3.1.2 深度强化学习(DRL)的高级应用

当状态空间较为复杂(例如高维图像数据)时,传统的强化学习方法难以有效应对,需要结合深度学习技术(例如 CNN、Transformer)来构建深度强化学习模型。例如:

  • 利用 CNN 提取摄像机图像中的车道线特征
  • 采用 DQN(Deep Q-Network)或 PPO(Proximal Policy Optimization)算法优化决策策略

3.2 多智能体系统(Multi-Agent System, MAS)

在复杂环境中,多个 AI 智能体通过合作完成任务,构成多智能体系统。关键技术包括:

  • 协同机制:例如合同网协议(Contract Net Protocol)、联盟形成算法
  • 冲突解决:例如基于博弈论的纳什均衡、权重分配策略
  • 分布式决策:例如联邦学习(Federated Learning)以保障数据隐私

3.2.1 多智能体系统的典型场景

  • 智慧城市交通管理:多个交通信号灯智能体协同工作,优化路口通行效率
  • 工业协作机器人:多个机械臂智能体协同完成精密装配任务
  • 分布式能源管理:多个家庭能源智能体协同工作,平衡电网负荷

3.3 知识图谱(Knowledge Graph)

知识图谱为 AI 智能体提供了结构化的领域知识,增强了逻辑推理能力。例如:

  • 医疗智能体:通过医疗知识图谱(疾病 - 症状 - 药物关系)进行疾病诊断
  • 金融智能体:通过金融知识图谱(企业 - 股东 - 风险事件关系)评估信贷风险

3.3.2 知识图谱在智能体中的应用流程

  • 知识构建:从结构化 / 非结构化数据中提取实体与关系(例如 “新冠病毒”→“症状”→“发热”)
  • 知识存储:使用图数据库(例如 Neo4j)存储知识图谱
  • 知识推理:通过 SPARQL 查询或规则引擎得出新的结论(例如 “患者有发热症状→可能感染新冠病毒”)

3.4 大语言模型(Large Language Models, LLM)

大语言模型(例如 GPT、LLaMA)为 AI 智能体提供了自然语言理解和生成的能力,使它们能够与人类或其他智能体进行自然交流。核心应用包括:

  • 智能客服智能体:理解用户的自然语言需求,生成个性化的回复
  • 代码生成智能体:根据自然语言描述生成代码(例如本文中的示例代码)
  • 多模态交互:结合文本、图像、语音数据,实现跨模态感知与决策

四、AI 智能体的产业应用场景

AI 智能体已在多个行业得到实际应用,以下从四个典型领域解析其应用逻辑与价值。

4.1 智能家居:个性化生活助手

智能家居 AI 智能体整合家电设备、环境传感器与用户行为数据,实现 “主动服务” 模式:

  • 场景 1:早晨 7 点根据用户的起床习惯,自动开启窗帘、调节卧室温度至 25℃、播放新闻
  • 场景 2:检测到用户外出后,自动关闭灯光、空调,启动安防系统
  • 场景 3:根据用户的历史观影记录,在晚上 8 点主动推荐电影并调整客厅灯光亮度

4.1.1 智能家居智能体系统架构

用户行为数据 → 记忆模块(存储偏好)

环境传感器数据 → 感知模块(温度、湿度、人体存在)

↓

决策模块(基于强化学习,目标:用户满意度最大化)

↓

执行模块(控制空调、灯光、窗帘等设备)

↓

通信模块(与云端平台同步数据,接收用户远程指令)

4.2 自动驾驶:自主决策的出行载体

自动驾驶 AI 智能体是目前最为复杂的 AI 智能体之一,整合了多种传感器(摄像头、雷达、激光雷达)与高精度地图,实现了全场景的自主驾驶:

  • 感知层:融合多传感器数据,识别行人、车辆、交通信号灯等目标
  • 决策层:基于强化学习与规则引擎,选择车道、调整车速、避障
  • 执行层:控制方向盘、油门、刹车等执行机构
  • 通信层:与其他车辆(V2V)、路侧设备(V2I)协同,获取实时交通信息

4.2.2 自动驾驶决策代码片段(Python)

以下代码模拟了自动驾驶智能体的车道保持决策:

def autonomous_driving_decision(sensor_data: Dict) -> Dict:

"""

自动驾驶车道保持决策函数

:param sensor_data: 传感器数据(横向距离、车速、车道线检测结果)

:return: 执行指令(方向盘角度、车速调整)

"""

# 提取传感器关键数据

lateral_distance = sensor_data["lateral_distance"] # 车辆与车道中心线的横向距离(m)

speed = sensor_data["speed"] # 当前车速(km/h)

lane_line_detected = sensor_data["lane_line_detected"] # 是否检测到车道线(True/False)

# 决策逻辑:基于横向距离调整方向盘角度

if not lane_line_detected:

# 未检测到车道线,减速并提示人工干预

return {

"steering_angle": 0, # 保持当前方向

"speed_adjustment": -10, # 减速10km/h

"warning": "未检测到车道线,请人工干预"

}

# 横向距离在±0.3m内:保持方向

if abs(lateral_distance) <= 0.3:

return {

"steering_angle": 0,

"speed_adjustment": 0,

"warning": ""

}

# 横向距离>0.3m且≤0.8m:小幅度转向

elif abs(lateral_distance) <= 0.8:

steering_angle = -lateral_distance * 5 # 距离越远,转向角度越大(负号表示反向)

return {

"steering_angle": round(steering_angle, 1),

"speed_adjustment": 0,

"warning": ""

}

# 横向距离>0.8m:大幅度转向并减速

else:

steering_angle = -lateral_distance * 8

return {

"steering_angle": round(steering_angle, 1),

"speed_adjustment": -5,

"warning": "偏离车道,正在调整"

}

# 测试自动驾驶决策函数

if __name__ == "__main__":

test_sensor_data = [

# 场景1:正常行驶(横向距离0.2m,检测到车道线)

{"lateral_distance": 0.2, "speed": 60, "lane_line_detected": True},

# 场景2:轻微偏离(横向距离0.5m,检测到车道线)

{"lateral_distance": 0.5, "speed": 60, "lane_line_detected": True},

# 场景3:严重偏离(横向距离1.0m,检测到车道线)

{"lateral_distance": 1.0, "speed": 60, "lane_line_detected": True},

# 场景4:未检测到车道线

{"lateral_distance": 0.3, "speed": 60, "lane_line_detected": False}

]

for data in test_sensor_data:

decision = autonomous_driving_decision(data)

print(f"传感器数据:{data}")

print(f"决策结果:{decision}\n")

4.3 医疗健康:辅助诊断与个性化治疗

医疗 AI 智能体整合了电子病历、医学影像、基因数据与医疗知识图谱,为医生提供决策支持:

  • 辅助诊断:通过分析 CT 影像识别肺癌病灶,结合症状与病史生成诊断建议
  • 个性化治疗:根据患者的基因特征与治疗反应,优化化疗方案或药物剂量
  • 健康管理:实时监测慢性病患者的生理指标(如血糖、血压),预警风险事件

4.3.1 医疗诊断智能体的核心流程

  • 感知模块:收集患者的 CT 影像、血常规报告、症状描述
  • 记忆模块:存储患者的历史病历、既往治疗方案与疗效
  • 决策模块:基于医疗知识图谱与深度学习模型,生成诊断概率与治疗建议
  • 通信模块:将诊断结果发送给医生,接收医生的调整指令

4.4 金融服务:智能风控与投资助手

金融 AI 智能体在风险控制、投资管理等领域发挥了重要作用:

  • 智能风控:实时分析企业或个人的交易数据、信用记录,评估信贷风险
  • 量化交易:基于市场数据与政策信息,自主制定交易策略并执行
  • 智能客服:理解用户的金融需求(如理财咨询、账单查询),提供个性化服务

4.4.1 信贷风控智能体的决策逻辑

def credit_risk_decision(user_data: Dict) -> Dict:

"""

信贷风控决策函数:基于用户数据评估信贷风险

:param user_data: 用户数据(收入、信用记录、负债比例等)

:return: 风控结果(是否通过、授信额度、利率)

"""

# 提取关键特征

monthly_income = user_data["monthly_income"] # 月收入(元)

credit_score = user_data["credit_score"] # 信用评分(0-1000)

debt_ratio = user_data["debt_ratio"] # 负债比例(月负债/月收入,0-1)

default_history = user_data["default_history"] # 是否有违约记录(True/False)

# 基础准入规则

if default_history:

return {

"approve": False,

"credit_limit": 0,

"interest_rate": 0,

"reason": "有历史违约记录"

}

if credit_score < 600:

return {

"approve": False,

"credit_limit": 0,

"interest_rate": 0,

"reason": "信用评分低于600分"

}

if debt_ratio > 0.5:

return {

"approve": False,

"credit_limit": 0,

"interest_rate": 0,

"reason": "负债比例超过50%"

}

# 授信额度计算(基于收入与信用评分)

base_limit = monthly_income * 6 # 基础额度:月收入的6倍

credit_adjustment = (credit_score - 600) / 400 * 0.5 # 信用评分调整系数(0-0.5)

final_limit = int(base_limit * (1 + credit_adjustment))

# 利率计算(信用评分越高,利率越低)

if credit_score >= 800:

interest_rate = 0.048 # 4.8%

elif credit_score >= 700:

interest_rate = 0.065 # 6.5%

else:

interest_rate = 0.089 # 8.9%

return {

"approve": True,

"credit_limit": final_limit,

"interest_rate": round(interest_rate * 100, 1), # 转换为百分比

"reason": "符合风控标准"

}

# 测试信贷风控决策函数

if __name__ == "__main__":

test_user_data = [

# 场景1:优质用户(高收入、高信用、低负债)

{

"monthly_income": 20000,

"credit_score": 850,

"debt_ratio": 0.2,

"default_history": False

},

# 场景2:普通用户(中等收入、中等信用、低负债)

{

"monthly_income": 10000,

"credit_score": 720,

"debt_ratio": 0.3,

"default_history": False

},

# 场景3:高负债用户(中等收入、高信用、高负债)

{

"monthly_income": 10000,

"credit_score": 800,

"debt_ratio": 0.6,

"default_history": False

},

# 场景4:有违约记录用户

{

"monthly_income": 15000,

"credit_score": 750,

"debt_ratio": 0.2,

"default_history": True

}

]

for user in test_user_data:

result = credit_risk_decision(user)

print(f"用户数据:{user}")

print(f"风控结果:{result}\n")

五、AI 智能体的技术挑战与未来趋势

5.1 当前面临的核心挑战

5.1.1 鲁棒性与安全性

  • 环境不确定性:传感器故障、数据噪声可能导致智能体决策失误(例如自动驾驶中摄像头被遮挡)
  • 对抗攻击:恶意攻击者通过篡改数据误导智能体(例如在交通标志上贴贴纸,导致自动驾驶识别错误)

安全缺陷:通信或操作组件的缺陷可能遭到利用(例如黑客操控智能家居装置)

5.1.2 解释性与道德议题

不透明决策:深度强化学习等方法的决策流程难以解读(例如医疗助手无法阐述为何做出特定诊断)

道德矛盾:面对多重目标冲突时(例如自动驾驶中“保障乘客安全”与“保护行人”),缺乏一致的道德准则

数据保密:记忆单元保存的个人信息(例如医疗档案、行为倾向)存在泄露的风险

5.1.3 多感官与复杂环境适应性

多感官数据融合:如何高效整合文字、图像、声音等多种信息(例如机器人同时处理视觉与触觉信号)

动态环境适应:智能代理在快速变化的环境(例如突发交通堵塞)中的即时调整能力不足

跨情景迁移:在某一情境下训练的智能代理(例如室内机器人)难以直接应用到其他情境(例如户外环境)

5.2 未来发展动向

5.2.1 通用型智能代理(AGI Agent)

目前的AI代理多数为“专有智能代理”(例如只能控制智能家居的代理),未来将朝着“通用智能代理”发展:

跨任务能力:能够独立完成多种任务(例如既能驾驶车辆,又能处理文件)

自主学习:无需人工标注资料,通过与环境互动自主获取知识

常识推断:拥有类似人类水平的常识(例如“下雨时需要带伞”),支持复杂的决策过程

5.2.2 脑机结合智能代理

结合脑机接口(BCI)技术,实现人类与AI代理的直接沟通:

意志控制:人类通过脑电波直接操控智能代理(例如残障人士用意志控制轮椅代理)

意识回馈:智能代理将决策过程以脑电波的形式反馈给用户,提高解释性

协同进化:人类与智能代理共同学习,建立“人类-智能代理”共生体系

5.2.3 去中心化多代理网络

基于区块链、联邦学习等技术,构建去中心化的多代理合作网络:

隐私保护:通过联邦学习实现数据“可用而不可见”,保护个人隐私

自主协作:代理之间通过智能合约实现信任协作,无需集中式平台

灵活扩展:新加入的代理可以自动连接网络,实现系统规模的动态扩展

六、总结

AI代理作为连接人工智能技术和行业应用的关键桥梁,正通过“感知-决策-行动-记忆-通信”的闭环框架,实现从“工具”到“伙伴”的角色转变。本文通过理论解析和代码实现,系统地介绍了AI代理的技术架构和应用场景,探讨了其在智能家居、自动驾驶、医疗保健、金融服务等领域的实际价值。

尽管当前的AI代理仍然面临稳健性、解释性和道德等方面的挑战,但随着强化学习、大型语言模型、多代理系统等技术的不断进步,未来将朝着通用化、脑机融合、去中心化的方向发展。对于技术研究人员,应重点关注代理的环境适应能力和安全机制;对于行业实践者,则应根据具体的应用场景需求,选择合适的技术路径来实现AI代理的实际部署。AI代理的发展不仅将重塑行业模式,还将深远地影响人类的生活方式,推动社会进入“人机协作”的智能时代。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:智能体 Subscription Optimization Environments environment

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-5 17:01