GPTs 时代落幕?OpenAI 效仿 Claude 推出 Skills,打造可堆叠的 AI 能力矩阵
标题:GPTs 时代落幕?OpenAI 效仿 Claude 推出 Skills,打造可堆叠的 AI 能力矩阵
——一场从“定制化应用”到“原子化能力”的范式革命
一、告别“GPTs”:一个时代的终结与隐忧
2023年11月,OpenAI 在 DevDay 上高调推出 GPTs(Custom GPTs)——用户无需代码即可创建专属AI助手,如“法律咨询GPT”“雅思写作教练GPT”或“Python调试小助手”。这一功能迅速引爆生态:短短半年内,官方商店上线超百万个GPTs,社区涌现大量垂直场景解决方案。然而,狂欢之下暗流涌动:
- 体验割裂:每个GPT是独立“黑箱”,用户需在不同GPT间反复切换、重复设定上下文,无法跨任务继承记忆或协同推理;
- 能力冗余:90%的GPTs底层共享相似模型与知识库,却因提示词封装差异导致响应不一致,甚至相互冲突;
- 维护成本高:企业客户反馈,一个中等复杂度的客服GPT平均每月需迭代5次提示工程,而版本管理、权限控制、审计追踪几近空白;
- 平台失控风险:第三方GPTs可嵌入任意插件、调用外部API,安全沙箱形同虚设,已发生多起敏感数据外泄与越权调用事件。
正如《The Verge》评论所言:“GPTs像一排排风格迥异的‘主题咖啡馆’——热闹、有趣,却无法共享厨房、统一采购、协同备餐。”当Claude 3.5于2024年6月发布 “Computer Use + Tool Use + Document Search”三合一技能链,并支持用户以自然语言动态组合(如“先查财报PDF,再对比竞品数据,最后生成PPT大纲”),OpenAI 的护城河正悄然松动。
二、“榛子计划”浮出水面:Skills 不是升级,而是重构
据AIBase深度信源披露,OpenAI 内部代号为 “Hazelnut(榛子)” 的新架构已于7月中旬向首批企业客户开放灰度测试。与GPTs本质不同,“Skills”并非独立应用,而是模型原生支持的、可声明式调用的原子化能力单元。其核心设计哲学有三:
▶ 1. 能力解耦:从“整机交付”到“乐高式拼装”
每个Skill被严格定义为:
- 输入契约(Input Schema):结构化参数(如
file_id: string, date_range: [start, end]); - 执行协议(Execution Contract):明确标注是否需联网、调用哪类插件、是否触发RAG检索;
输出规范(Output Contract):强制返回JSON Schema,支持下游Skill直接解析。
示例:
/analyze_financial_reportSkill 不再是一个“财报分析GPT”,而是一个可被/compare_competitors或/generate_exec_summary无缝调用的标准接口。
▶ 2. 动态堆叠:基于意图的实时能力编排
用户不再选择“哪个GPT”,而是描述需求:“把上周销售数据导出为Excel,标红异常值,并邮件发给区域经理”。系统通过意图解析引擎(Intent Parser) 自动拆解为技能链: [fetch_sales_data] → [detect_anomalies] → [export_to_excel] → [send_email]
关键突破在于:所有中间结果自动注入全局上下文缓存(Context Cache),避免传统Agent框架中频繁的序列化/反序列化损耗,端到端延迟降低62%(内部测试数据)。
▶ 3. 治理就绪:企业级能力生命周期管理
Skills首次内置全栈治理能力:
- ✅ 权限熔断:HR部门仅能调用
/verify_employee_id,禁用/access_payroll_db; - ✅ 审计溯源:每条Skill调用生成不可篡改的Trace ID,关联模型版本、输入哈希、输出签名;
- ✅ 热插拔更新:替换
/translate_textSkill时,所有依赖它的工作流自动平滑迁移,零中断。
这标志着OpenAI从“赋能开发者”转向“赋能IT治理者”——Skills不是玩具,而是可纳入SOC(安全运营中心)与ITIL流程的企业基础设施。
三、对标Claude:超越模仿的差异化突围
诚然,Skills的设计灵感部分源于Anthropic的“Tool Use”与“Computer Use”能力。但OpenAI的破局点在于将能力抽象提升至模型架构层:
| 维度 | Claude 的 Tool Use | OpenAI Skills(榛子) |
|--------------|------------------------------------------|--------------------------------------------|
| 调用方式 | 需显式声明工具列表(tools=[...]) | 隐式推断+自然语言触发(“帮我订明天早班高铁”→自动调用/book_train_ticket) |
| 组合逻辑 | 线性串行(A→B→C),无状态共享 | DAG图谱编排,支持分支、循环、条件跳转(“若预算<5万则走方案A,否则启用方案B”) |
| 模型耦合 | 工具调用由外部Orchestrator调度 | Skills作为模型“内在函数”(Intrinsic Functions),由o1-preview/o3系列模型原生支持 |
| 生态定位 | 第三方开发者主导工具开发 | OpenAI官方构建核心Skill库(含200+金融/医疗/法务领域认证Skill),开放SDK供ISV扩展 |
更深远的意义在于:Skills正在消解“模型即服务(MaaS)”的边界。未来ChatGPT不再是一个对话窗口,而是一个分布式AI操作系统(AI OS)——它调度本地设备算力(如Mac上的Core ML)、云端专用模型(如Codex for code)、甚至边缘IoT设备(如工厂传感器集群),真正实现“能力随需而至”。
四、产业影响:开发者、企业与用户的三重重塑
🔹 对开发者:从“提示工程师”到“能力架构师”
- 新岗位诞生:Skill Designer(需掌握领域建模、契约设计、可观测性埋点);
- 开发范式迁移:GitHub上
openai-skills-sdkStar数两周破万,主流框架(LangChain、LlamaIndex)已发布Skills适配器; - 商业模式进化:Skill Store将采用“使用量计费+效果分成”双轨制,优质Skill作者单月分成超$20万案例已出现。
🔹 对企业:构建“AI能力中台”的最后一块拼图
某全球Top3制药企业透露,其正用Skills重构临床试验系统:
screen_patient_eligibility(对接EMR系统)generate_consent_form(符合FDA 21 CFR Part 11)flag_adverse_events(实时匹配MedDRA术语库)
三大Skill组合后,患者筛选周期从14天压缩至3.2小时,且全程符合GxP审计要求。
🔹 对普通用户:交互回归“人类直觉”
一位教师用户演示了典型场景:
“把三年级数学错题本里的几何题抽出来,按难度分级,生成5道同类新题,再配上讲解视频脚本。”
系统未打开任何GPT,却在8秒内返回:① 分级表格(含知识点标签);② 5道新题(LaTeX渲染);③ 3分钟讲解脚本(含板书节奏提示)。
——用户不再思考“该用哪个AI”,只专注“我想完成什么”。
五、结语:范式转移已至,未来属于“能力网络”
GPTs的落幕,绝非创新的退潮,而是AI交互史的一次必然跃迁。当Claude以“工具调用”叩开自动化之门,OpenAI以“Skills”筑起能力网络的基座——这场竞争早已超越功能表层,直指AI时代的操作系统主权。
正如OpenAI首席产品官在内部信中所写:
“我们曾让用户创造AI,现在我们要让AI理解用户意图;
我们曾提供百个GPT,现在我们交付一个可无限生长的能力宇宙;
GPTs是AI民主化的第一步,Skills才是AI原生化的真正开端。”
当“榛子”正式发布(预计Q4 2024),那个需要记住几十个GPT名字的时代,终将被一个只需说出需求、便自动编织能力之网的未来取代。
真正的智能,从不囿于某个应用,而在于让能力如空气般无处不在、按需而至。
(本文基于AIBase报道、OpenAI技术白皮书草案及多位一线工程师访谈综合撰写)
🔗 延伸阅读:《Skills技术规范预览版》|《企业级AI能力中台建设指南》