top of page

LBSocial

OpenClaw Skills:指导 AI 智能体进行数据分析

你是否曾要求 AI 智能体执行复杂的数据分析,却眼睁睁地看着它在生成一段平庸的文本摘要上浪费算力,而不是编写实际的代码?


如果你想超越简单的聊天机器人,构建一个真正自主的 AI 助手,那么你的智能体需要的不仅仅是一个大语言模型(LLM)大脑。它还需要“工具(Tools)”来执行操作,以及“技能(Skills)”来明确知道如何使用这些工具。


如果你还没有设置基础智能体,建议先从我们的 在 Google Cloud 上将 OpenClaw 部署为 24/7 AI 助手 指南开始。今天,我们将为该智能体进行一次重大升级。


OpenClaw Skills: Guiding AI Agents for Data Analytics

整体系统架构


要了解如何增强我们的智能体,直观地展示从用户请求到最终输出的整个工作流至关重要。OpenClaw 平台将多项服务集成到了一个无缝的自动化流水线中。


Flowchart with Gemini AI processes user requests from Telegram via Python, sends results to GitHub. Features GitHub, Telegram icons.
The overall OpenClaw system architecture diagram

如上图所示,该架构分为三个不同的阶段:


  1. 输入接口 (Telegram):这是人机交互发生的地方。你直接通过 Telegram 发送数据分析任务、请求和问题,操作起来就像给同事发短信一样简单。

  2. 处理核心 (Google Cloud 上的 OpenClaw):托管在 Google Cloud 虚拟机上,这是整个操作的引擎。智能体使用 Gemini AI 作为其推理的核心大脑。然而,为了真正执行工作,Gemini 依靠 Python(执行工具)和结构化 SOP(技能/指令)来自动处理任务。

  3. 输出与协作 (GitHub):一旦数据分析完成且代码编写完毕,智能体不会只在 Telegram 中丢回一大堆文本。相反,它会将最终结果(如 Jupyter Notebook、原始数据和 .py 脚本)通过拉取请求(Pull Requests)直接推送到 GitHub。这让你能够像审阅人类队友的工作一样,审查代码、跟踪问题并进行协作。


问题所在:有智能,无执行


像 Gemini 这样的 AI 模型非常聪明,但在开箱即用的情况下,它们的行为可能是不可预测的。当被要求分析特定地缘政治事件后的近期油价变化时,如果缺乏正确的指令,未配置好的 OpenClaw 智能体通常会退回到基础行为:它会搜索网络并将新闻总结为一段文本简报,而不会编写任何 Python 代码,不会处理任何数据,也不会生成可视化图表。


它缺乏执行实际数据科学任务的结构。


Chat discussing recent gas price changes due to US-Iran conflict, highlighting retail oil surges, supply chain issues, and economic impacts.
The Telegram chat shows the AI agent returning a text-only briefing about gas prices instead of a data chart.



解决方案:激活“工具 + 技能”


为了解决这个问题,我们需要激活我们在架构图中强调的两个核心组件:工具 (Tools) 和 技能 (Skills)。我们不能仅仅依靠 LLM 的推理来回答提示词,而必须明确地为其提供用于代码执行的 Python 环境,以及需要遵循的精确标准操作程序(SOP)。


正如架构图中心所示,这两个元素直接喂给 Gemini AI,使其同时具备指令(SOP)和物理能力(Python)来成功完成任务。


第 1 步:为智能体配备 Python 工具


由于我们使用的是 Google Cloud 虚拟机,Python 实际上已经预装好了。但是,为了下载特定的数据科学库,我们的智能体需要 pip(Python 包管理器)和对虚拟环境的支持。


在某些权限设置下,你的 AI 智能体可能能够自行安装这些工具。但如果它没有所需的 root 权限,你可以通过 SSH 登录 Google Cloud 虚拟机并运行以下命令:


  1. 安装 Pip

sudo apt update && sudo apt install python3-pip -y
  1. 安装虚拟环境支持

sudo apt install python3-venv -y

注:强烈建议使用虚拟环境 (venv) 以保持 OpenClaw 环境的整洁并避免包冲突。


Terminal screen showing installation of Python3 packages via apt. Text in green, yellow, white on black background. Commands and outputs visible.
 Terminal window showing the successful installation of python3-venv.

一旦安装完成,智能体就具备了执行 Python 代码的物理工具。由于我们之前已经将智能体连接到了仓库(你可以回顾我们的 OpenClaw GitHub AI 队友教程),智能体现在可以自动将生成的 Python 文件和 Jupyter Notebook 推送到 GitHub。



第 2 步:构建数据分析技能 (Skill)


拥有工具但不知道工作流也是徒劳的。我们使用 OpenClaw 内置的“技能创建者(Skill Creator)”模式,为智能体起草一套基于 Markdown 的指令集 (SKILL.md)。

我们指示智能体,每当收到数据分析请求时,必须严格遵守以下五个步骤:


  1. 识别数据源。

  2. 下载或收集数据。

  3. 使用 Python 处理数据。

  4. 使用 Jupyter Notebook 进行总结和可视化。

  5. 通过拉取请求将分析结果上传至 GitHub。


  1. 进入技能工作区

cd ~/.openclaw/workspace/skills

  1. 查看具体的技能文件夹


cd data-analysis && ls -R

  1. 查看技能指令 (SOP)


cat SKILL.md

Terminal with commands and directory listing for a data analysis skill. Text describes workflow steps: identify source, download data, process.
Terminal view of the SKILL.md file showing the numbered Markdown instructions.

第 3 步:投入实战


现在是时候使用该技能来分析数据了。在 Telegram 中,你可以在提示词中明确调用该技能。例如:


"Use the data analysis skill to analyze the recent gas prices in the United States during the US-Iran airstrike."

因为技能已激活,智能体不再仅仅进行简单的网络搜索,而是系统地执行 5 步 SOP:它识别开源数据集,编写 Python 脚本(使用 pandas 和 yfinance),创建 Jupyter Notebook,并打包所有内容。


Chat with a message about analyzing gas prices post-US-Iran airstrike. Options include APIs, Python libraries, or CSV files.
A Telegram chat showing the prompt that invokes the skill, followed by the agent's step-by-step technical response.

最终输出:可操作的智能


智能体的工作在分析结果可供审阅时才算完成。它会将格式化好的项目推送到你的仓库。你会看到包含可视化图表和数据表的 Jupyter Notebook 已成功生成在 GitHub 上。


Line graph showing RBOB Gasoline Futures from Feb-Mar 2026. Blue line for daily close prices, orange dashed line for 3-day moving average.
The final output visualization from the video showing the Jupyter Notebook on GitHub with the generated gas price charts and tables


第 4 步:持续优化(精进你的技能)


构建 AI 智能体是一个持续的过程。你很难在第一次尝试时就写出完美的技能,这完全没关系。


在审查输出后,你可能会发现希望智能体能更安全地处理 API 密钥,或者以不同的方式格式化 GitHub 上传。你可以再次调用 OpenClaw Skill Creator,告诉它你想更新现有的“数据分析”技能,并用自然语言添加新约束:


"When you download data, ask me if I have API keys and store them securely. Also, when uploading to GitHub, always use a Pull Request."

OpenClaw 会自动更新底层的 SKILL.MD 文件。通过不断更新技能,你可以完善智能体的行为,节省算力 Token,并确保它每次都遵循你精确的数据分析工作流。

留言


bottom of page