正大中国 AI 使用培训

从大模型发展与原理开始,建立 AI 使用的系统认知

本课程面向集团业务同事,围绕大模型、生成式 AI、Prompt 使用方法、知识库、Skills、工作流、正大Agentic平台、Agent 与安全边界展开,帮助大家形成统一、清晰、可落地的 AI 使用认知。

完整学习文档

AI 使用基础:从理解原理到业务落地

这份材料采用文档式阅读结构。每一章先解释概念,再用业务语言说明含义,最后给出适用场景、常见误区和使用建议。阅读时不需要关注模型开发细节,重点放在理解能力边界、Prompt 表达、Skills 复用、工作流协作和风险控制。

Chapter 01

课程说明:学习目标、方法与 AI 在业务中的定位

AI 已经从单一工具功能,逐步变成办公软件、业务系统和知识管理平台中的基础能力。对业务人员而言,关键不是掌握技术实现,而是能够判断 AI 能辅助什么、不能代替什么,以及如何在安全边界内获得稳定结果。

本课程的核心目标

建立共同语言,理解大模型与 Agent 的基本概念,形成可复用的 AI 使用方法,并在业务实践中保持必要的复核和风险意识。

学习重点

理解 AI、大模型、生成式 AI、知识库、Agent 等概念之间的关系,避免把所有 AI 能力都理解为“聊天”。

使用重点

把业务目标、背景材料、限制条件和输出格式说明清楚,让 AI 更稳定地辅助整理、起草、总结和分析。

安全重点

涉及客户、合同、价格、经营数据、制度口径和对外发布时,应遵循公司流程并保留人工复核。

AI 在业务工作中的定位

AI 更适合被定位为“信息处理与内容生成的辅助能力”。它可以帮助人更快整理材料、形成初稿、提出备选思路、生成结构化摘要,也可以嵌入系统中帮助完成检索、问答和流程协作。但 AI 不应被视为最终负责人,也不应绕过组织已有的审批、授权和复核机制。

一个稳妥的使用方式是:先选择低风险、可复核、文本密集的任务进行尝试,例如会议纪要、培训材料、制度问答、邮件草稿和表格摘要。随着团队对能力边界和流程要求更清楚,再逐步探索更复杂的协作方式。

Chapter 02

AI 与大模型发展脉络:从规则系统到生成式 AI

理解 AI 的第一步,是把它放回发展脉络中看。AI 并不是突然出现的一项单点技术,而是经历了规则系统、机器学习、深度学习、大模型和生成式 AI 等阶段。

阶段一 规则系统

早期系统更多依赖人工规则。例如“满足某些条件就触发某个流程”。这类系统边界清晰、可解释性强,但适应复杂变化的能力有限。

阶段二 机器学习

系统开始从历史数据中学习规律,用于分类、预测和推荐。例如销量预测、异常识别、风险评分等。

阶段三 深度学习

通过更复杂的模型结构处理图像、语音和语言,使机器在识别、理解和生成方面有明显进展。

阶段四 大模型与生成式 AI

模型规模、训练数据和通用能力进一步提升,可以围绕自然语言完成总结、解释、生成、改写、问答和初步规划。

几个容易混淆的概念

AI

人工智能的总称,覆盖感知、预测、生成、决策辅助、自动化等多种能力。

机器学习

AI 的重要方法之一,强调从数据中学习规律,而不是完全依赖人工写规则。

大模型

在大规模数据上训练形成的通用模型,通常具备较强的语言理解、生成和推理辅助能力。

生成式 AI

强调生成新内容,包括文本、图片、音频、视频、表格说明和方案草稿等。

业务视角的理解方式

规则系统像一套固定操作手册,适合流程明确的任务;机器学习像从历史数据中总结经验,适合预测和识别;大模型则像一个具备通用语言能力的协作助手,能阅读材料、总结要点、生成内容和解释概念。不同技术形态适合不同场景,业务价值取决于它能否解决真实流程中的效率、质量或知识传递问题。

Chapter 03

大模型基本原理:数据、训练、参数、预训练与对齐

大模型的能力来自大规模训练。它通过大量文本、代码、图文说明等材料学习语言结构和知识关联,再通过指令训练、人工反馈和安全规则,让输出更符合人类使用方式。

数据

模型训练需要大量材料。材料越丰富,模型越容易学习语言表达、知识关联和常见问题的回答方式。

训练

训练可以理解为反复练习和调整。模型不断根据样本修正内部规律,使后续生成更接近合理表达。

参数

参数是模型内部保存规律的方式。业务人员可以把它理解为模型学习后形成的复杂连接和权重。

预训练

模型先学习通用语言和知识基础,形成理解、总结、续写、改写等基础能力。

对齐

通过指令样例、人工反馈和安全规则,让模型更符合人的提问方式、表达规范和风险要求。

推理

用户输入任务后,模型会根据当前上下文逐步生成回应。这里的推理是生成过程,不等同于人类完全可靠的判断。

为什么大模型看起来“理解”语言

大模型不是简单从固定答案表里查找内容。它在训练中学习了词语、句子、段落、主题和任务之间的关系,因此能够根据上下文生成结构完整、语气自然的回答。它能把一段会议记录整理成纪要,把一份制度解释成问答,也能按要求生成邮件、清单或汇报提纲。

但这种能力并不意味着模型掌握了企业内部全部事实。模型生成内容时会根据上下文预测合适表达,如果材料不足、问题不清楚,或涉及最新信息和内部规则,就可能出现不准确内容。因此,语言流畅只是可读性的表现,不等于事实可靠。

视频导学:大模型与生成式 AI 基础

建议结合本章和下一章观看,重点理解大模型如何形成语言处理能力,以及为什么输出需要复核。

业务提醒

当 AI 回答涉及制度、价格、合同、客户、法律、经营数据、对外口径时,应回到可信材料和公司流程中复核。

Chapter 04

大模型如何处理信息:Token、上下文窗口、系统指令与稳定性

业务使用者不需要掌握模型开发,但理解几个基础概念,可以明显提升 AI 使用的稳定性:Token、上下文窗口、系统指令、输出格式和随机性。

Token

模型处理文本的基本片段,可理解为字、词或词的一部分。文本越长,消耗的 Token 越多。

上下文窗口

模型一次能参考的问题、材料和历史对话范围。超出范围的信息可能无法被充分参考。

系统指令

系统或工具预先设定的规则,例如回答语气、可做事项、禁止事项和安全边界。

输出格式

明确要求表格、清单、邮件、汇报提纲或行动项,可以提升结果可用性。

上下文窗口可以理解为“当前桌面”

可以把上下文窗口想象成模型当前桌面上能看到的材料。桌面上没有放制度原文,模型就容易根据一般经验回答;桌面上放了大量材料但没有结构,模型又可能抓不到重点。因此,业务材料应尽量清晰分段,标明哪些是背景、哪些是必须遵守的规则、哪些是希望输出的结果。

随机性与稳定性

一些 AI 工具会提供“创造性”“温度”或类似选项。随机性较高时,回答可能更发散,适合头脑风暴、创意方向和备选标题;随机性较低时,回答通常更稳定,适合制度解释、流程说明和标准化文本。业务场景中,若追求一致口径,通常应优先选择更稳定的生成方式。

示例:让 AI 生成汇报提纲

表达较弱:请写一个汇报。

表达更清晰:请基于以下会议记录,面向部门负责人生成一份 5 分钟汇报提纲。请包含背景、关键进展、风险问题、需要协调的事项和下一步安排,使用分点结构,避免补充未经确认的数据。

Chapter 05

生成式 AI 与多模态:文本、图片、语音、表格的能力边界

生成式 AI 的核心特征是根据上下文生成新内容。随着多模态能力发展,AI 不再只处理文字,也可以辅助理解图片、语音、表格和图表。

文本

总结、改写、翻译、邮件、方案、通知、制度解释和培训材料初稿。

图片

识别画面内容、解释图表、提取视觉信息、生成视觉创意方向。

语音

会议转写、语音摘要、客服质检、培训回顾和访谈材料整理。

表格

整理字段、形成摘要、发现异常、生成管理层可读说明。

多模态为什么重要

真实业务材料往往不是单一文本。一次会议可能有录音、纪要、PPT 和表格;一次市场活动可能有照片、报名名单、费用明细和反馈表。多模态能力让 AI 能更接近真实办公材料的形态,辅助完成跨材料整理。

使用边界

多模态并不意味着结果可以直接采用。图片识别可能看错细节,表格摘要可能忽略异常值,语音转写可能出现人名、数字或专业词错误。涉及品牌、版权、客户隐私、经营数据和对外发布时,应按照公司要求复核。

Chapter 06

幻觉、偏差与事实复核:判断 AI 输出是否可信

AI 输出可能流畅、完整、有条理,但仍可能包含错误信息。理解幻觉、偏差和时效性,是企业安全使用 AI 的基础。

幻觉

生成看似合理但事实不准确的内容,例如不存在的来源、错误的数据或不准确的结论。

偏差

输出受到训练数据、问题表达、材料选择和上下文限制影响,可能呈现片面视角。

时效性

模型未必掌握最新政策、价格、组织架构、制度版本和业务变化。

复核

事实、数字、条款、政策、对外口径和承诺事项都需要回到可信来源核对。

为什么会出现幻觉

大模型的生成过程是根据上下文组织可能合适的回答。当它缺少关键材料、无法访问最新信息,或用户要求它给出确定结论时,模型可能会用看似合理的表达补齐空白。这种“补齐”在语言上可能很自然,但事实并不一定成立。

可信度判断清单

  • 是否引用了明确来源,来源是否真实可靠。
  • 数字、日期、政策名称、合同条款是否可核对。
  • 是否符合公司当前制度、授权范围和审批要求。
  • 是否把不确定信息标注出来,而不是包装成确定结论。
  • 是否涉及对外承诺、客户权益、价格、交期、法律或合规风险。
业务提醒

越是表达流畅、结构完整的输出,越容易让人忽略核对环节。对关键材料,应把“复核来源和责任人”作为固定步骤。

Chapter 07

知识库与 RAG:让回答贴近企业资料

企业知识库可以把制度、流程、产品材料和培训资料组织起来。RAG 的核心思路是先检索相关资料,再让模型基于资料生成回答。

知识库

经过整理、分组、版本管理和权限控制的企业资料集合。

Embedding

把文字转成便于计算的表示方式,用来比较语义相似度。

检索

从知识库中找到与问题相关的片段、制度或说明。

生成

模型基于检索到的材料组织回答,并尽量保持可追溯。

RAG 的通俗理解

可以把 RAG 理解为“先查资料,再组织回答”。普通大模型回答时,更多依赖它已有的通用能力和当前输入;RAG 则会先从企业知识库里找到相关材料,再把材料交给模型整理成可读答案。这样可以提升回答与企业资料的一致性,也便于追溯来源。

知识库质量决定效果上限

知识库并不是把所有文件堆在一起。资料是否为最新版本、标题是否清晰、权限是否正确、内容是否重复冲突,都会影响回答质量。一个成熟的企业知识库,需要有人负责资料治理、版本更新、权限管理和反馈闭环。

业务例子

制度问答、产品知识问答、客服知识检索、培训材料查询都适合使用 RAG 思路。但重要回答应附带来源位置,方便业务人员确认是否引用了正确材料。

Chapter 08

Prompt 基础与使用方式:让 AI 更准确理解任务

Prompt 可以理解为向 AI 发出的任务说明。它不仅是一句话的提问,也包括任务目标、背景材料、限制条件、示例、输出格式和复核要求。Prompt 写得越清楚,AI 越容易给出结构稳定、便于使用的结果。

任务目标

说明希望 AI 完成什么,例如总结、改写、比较、提炼、生成清单或形成初稿。

上下文

提供必要背景、使用对象、材料来源和业务目的,帮助模型理解回答应服务什么场景。

约束条件

说明不能编造、需要保留原意、需要标注不确定信息或需要遵守特定口径。

输出格式

指定表格、清单、邮件、汇报提纲、行动项或风险清单,让结果更容易进入工作流程。

Prompt 为什么重要

大模型会根据当前上下文生成回答。如果任务表达很短,模型只能根据一般经验补充信息;如果目标、材料和限制都很明确,模型就更容易围绕真实需求组织内容。Prompt 的作用不是“命令 AI 一次给出完美答案”,而是帮助人把模糊需求整理成可执行任务。

Prompt 的四个层级

直接提问

适合概念解释、简单改写和快速获取思路,例如“请解释这个概念”。优点是快,缺点是结果可能泛泛而谈。

带背景提问

补充对象、用途、材料来源和业务目标,让 AI 知道回答应服务哪个场景。

带标准提问

说明输出长度、结构、语气、禁止事项、判断标准和复核要求,让结果更接近可用稿。

迭代协作

先生成结构,再补材料;先列问题,再写初稿;先输出版本,再压缩、改写和补充风险提醒。

表达不充分

帮我总结一下。

表达更清晰

请基于下面材料,为内部汇报整理一份 5 点摘要。每点不超过 40 字,按“结论、依据、待确认事项”组织,不补充材料中没有的信息。

Prompt 的基本结构

可复用表达:请你作为一名办公协作助手,基于我提供的材料,完成以下任务:

  • 任务目标:说明需要总结、改写、分析、生成还是比较。
  • 背景说明:说明结果面向谁、用于什么场合、需要保持什么语气。
  • 输入材料:粘贴或上传需要参考的内容,并说明哪些材料优先级更高。
  • 限制条件:说明不能编造、需要标注不确定信息、需要保留原始数据。
  • 输出格式:指定清单、表格、邮件、提纲、行动项或风险清单。
  • 复核要求:请列出需要人工确认的事实、数字、口径和风险点。

好 Prompt 的判断标准

  • 目标明确:能看出希望 AI 生成什么成果,而不是只表达一个笼统意图。
  • 材料清楚:能区分背景、参考材料、必须采用的信息和可忽略的信息。
  • 边界明确:说明不能编造、不能外推、需要标注不确定内容。
  • 格式可用:输出结构能直接进入邮件、纪要、汇报、清单或表格。
  • 便于复核:要求列出事实来源、待确认点、风险点和人工判断事项。

迭代追问

Prompt 不一定一次完成。更稳妥的方式是先让 AI 生成结构,再补充材料和限制;先让 AI 提出待确认问题,再进入正式起草;先获得初稿,再要求它压缩、改写、调整语气或补充风险提醒。这个过程更像协作编辑,而不是一次性交付。

Chapter 09

AI 使用方法:从业务需求到高质量 Prompt

业务需求通常是模糊的,Prompt 的作用是把需求转化成 AI 可以处理的任务。一个高质量 Prompt 应同时说明目标、背景、材料、限制、格式和复核要求。

1 目标

希望 AI 协助完成什么任务,例如总结、改写、分析、起草或生成清单。

2 背景

任务发生在什么业务场景,面向谁,结果用于什么目的。

3 材料

需要参考哪些会议记录、制度、数据、邮件、表格或说明。

4 限制

哪些内容不能编造,哪些口径需要保持,哪些风险需要标注。

5 格式

希望输出为表格、清单、邮件、汇报提纲、行动项或方案结构。

业务需求原话

帮我把这些材料整理一下,做成汇报。

转化后的 Prompt

请基于以下材料,面向内部管理汇报整理一份 8 页以内的汇报提纲。请包含背景、关键发现、问题归纳、建议动作和待确认事项。不要补充材料外的数据,涉及数字和判断请标注来源位置。

通用 Prompt 模板

模板:请基于我提供的材料,围绕【任务目标】输出【成果形式】。背景是【使用场景】,对象是【阅读或使用对象】。请重点关注【重点事项】,避免【禁止或需谨慎事项】。输出请采用【格式要求】,并在最后列出【需要人工确认的问题】。

这个模板适合记录整理、材料摘要、内容初稿、方案框架、风险清单和待办整理等通用工作任务。实际使用时,应把括号中的内容替换为具体业务背景。

Prompt 工作法:从模糊需求到可复用表达

第一步 先定义成果

先说明最终要得到什么,例如纪要、清单、表格、汇报提纲、邮件初稿或风险清单。

第二步 再整理材料

把材料按背景、事实、数据、限制、历史记录分开,不把所有内容混在一段里。

第三步 设置边界

明确哪些内容不能编造,哪些结论需要标注不确定,哪些数字和来源需要保留。

第四步 要求自检

让 AI 在输出后列出待确认事项、可能遗漏的信息和需要人工判断的风险点。

多轮协作的常用方式

先问问题

在材料不完整时,先让 AI 列出需要补充的信息,而不是直接生成结论。

先搭框架

复杂任务先生成目录和结构,再逐段补充材料,减少一次性输出偏离目标。

先做校验

输出后要求 AI 检查是否存在无来源数据、过度推断、语气不当或风险遗漏。

常见错误

  • 任务描述过短,缺少业务背景和使用目的。
  • 没有提供材料,却要求 AI 给出确定结论。
  • 没有说明输出格式,导致结果不便于使用。
  • 没有提醒 AI 标注不确定信息和需要人工确认的部分。
  • 把一次输出当作最终稿,没有进行追问、修订和复核。
Chapter 10

通用工作场景案例:从信息处理到协同推进

AI 的通用价值不只体现在办公室文书工作中。只要某个场景存在信息量大、记录分散、标准不一致、反复沟通、需要复核等特点,就可以考虑用 AI 辅助整理、理解、生成、检查和沉淀经验。

知识查询与依据定位

输入材料:制度、说明、操作手册、常见问题和历史答复。

AI 辅助:根据问题检索相关内容,整理答案、依据位置和需要确认的条款。

人工复核:确认材料版本、适用范围和例外情况。

记录整理与信息复盘

输入材料:现场记录、沟通记录、语音转写、图片说明或过程备注。

AI 辅助:提炼事实、时间线、待办、异常点和需要补充的信息。

人工复核:确认事实是否完整,避免把主观判断写成客观结论。

多源材料汇总

输入材料:多份文档、表格、图片说明、历史记录和背景信息。

AI 辅助:归纳共性、差异、关键结论、待确认问题和建议阅读顺序。

人工复核:核对来源、数字、口径和材料之间的冲突。

流程跟进与节点提醒

输入材料:任务清单、流程节点、进展记录、反馈信息和时间要求。

AI 辅助:整理当前状态、阻塞事项、下一步动作和需要提醒的节点。

人工复核:确认责任边界、优先级和是否需要升级处理。

异常初筛与风险提示

输入材料:记录明细、表格数据、检查结果、反馈描述和标准要求。

AI 辅助:识别可能异常、归类风险类型、生成核查清单和补充问题。

人工复核:确认判断依据,避免把初筛结果当成最终结论。

经验沉淀与培训支持

输入材料:复盘记录、优秀案例、常见问题、标准说明和注意事项。

AI 辅助:整理知识卡片、学习材料、检查清单、问答题和新人说明。

人工复核:确认口径、适用范围和是否符合集团要求。

判断一个场景是否适合 AI 辅助

可以从四个问题判断:是否有可提供的材料,任务是否需要整理、理解、生成或检查,输出是否便于人工复核,错误是否可以在进入正式流程前被发现。如果答案较明确,通常适合作为 AI 辅助切入点。若任务涉及授权、审批、承诺、敏感数据或关键决策,应先明确制度边界和人工确认机制。

从单点任务到通用工作流

当一个场景被反复使用时,可以把它从单次 Prompt 升级为工作流。比如“记录整理与信息复盘”可以沉淀为:上传材料、识别材料类型、提取事实、生成时间线、列出异常与待确认问题、等待人工确认、形成归档。这样做的价值不是追求完全自动化,而是把重复步骤标准化,让每次输出都有稳定结构和明确复核点。

场景沉淀的判断标准

如果某个工作任务反复出现,输入材料相似,输出格式相对固定,并且可以明确人工确认点,就适合沉淀为 Skill 或工作流。

Chapter 11

Agent 入门:目标、规划、工具、记忆与人机协作

普通聊天式 AI 主要围绕单次问答提供帮助。Agent 更强调围绕目标拆解步骤、调用工具、记录过程,并输出阶段性结果。

目标

明确最终要完成的任务,例如整理资料、生成报告或完成一组流程动作。

规划

把复杂任务拆解为可执行步骤,并根据中间结果调整顺序。

工具

读取文件、检索资料、调用系统、访问表格或触发流程。

记忆

保留上下文、过程信息、用户偏好和任务状态。

视频导学:Agent 入门

重点理解 Agent 如何围绕目标、步骤和工具支持流程协作。

Agent 与普通聊天 AI 的区别

普通聊天 AI 更像“问一句答一句”的助手,Agent 更像“按任务清单推进”的协作者。它可以先理解目标,再规划步骤,再调用知识库、表格、文件或工作流工具完成部分动作,并把关键节点交给负责人确认。

Agent 与 Prompt、知识库的关系

Prompt 更像单次任务说明,知识库提供可检索的企业材料,Agent 则把目标、Prompt、知识库、工具和流程连接起来。一个成熟的 Agent 场景通常不是让 AI 自行决定一切,而是在明确边界内完成资料整理、步骤推进、结果生成和人工确认。

Agent、Skills 与工作流的关系

Prompt

描述单次任务,让 AI 理解“这一次要做什么、按什么要求输出”。

Skill

把一类常见任务沉淀为可复用能力,例如纪要整理、材料摘要、风险清单生成。

工作流

把多步任务串起来,明确输入、处理、判断、输出和人工确认节点。

Agent

围绕目标调用 Prompt、Skills、知识库和工具,协助完成一段较完整的任务流程。

风险提示

Agent 涉及工具调用和流程执行时,更需要权限控制、日志记录、异常处理和人工确认。流程越自动化,越要明确责任边界。

Chapter 12

Skills、工作流与正大Agentic平台:把 Agent 能力纳入统一管理

正大Agentic平台可以理解为集团内部承载 Agent 能力的平台化入口。它不是单个聊天窗口,而是把模型能力、企业知识、Skills、工作流、工具连接、权限控制和日志审计组织在一起,让 AI 应用从个人尝试逐步走向可管理、可复用、可追溯的业务能力。

统一入口

让员工通过统一平台访问经过配置的 AI 助手、知识问答和流程型 Agent。

统一知识

把已治理的资料、制度、说明和常见问题接入知识库,减少各自维护材料造成的不一致。

统一流程

将常见办公步骤沉淀为可复用流程,例如材料整理、摘要生成、任务分发和结果回收。

统一治理

围绕权限、日志、人工确认和风险控制建立管理机制,避免 AI 应用分散失控。

什么是 Skills

在正大Agentic平台中,Skills 可以理解为“经过沉淀的可复用 AI 能力单元”。它把一类反复出现的任务,整理成相对稳定的能力配置,包括任务说明、输入材料要求、参考知识、输出格式、质量标准和复核提醒。业务同事不需要每次从零编写完整 Prompt,而是可以在平台中调用已经配置好的能力。

换句话说,Prompt 更像“这一次怎么问”,Skill 更像“把一类问题沉淀成标准能力”。当某个任务在不同人、不同时间反复出现时,如果每个人都重新写 Prompt,结果就容易不一致;如果把它沉淀为 Skill,就可以统一任务边界、输入要求、输出格式和复核标准。

基础型 Skill

处理单步任务,例如摘要生成、语言润色、表格说明、待办提取和问题清单生成。

知识型 Skill

结合企业知识库回答问题、解释材料、查找依据,并提示需要确认的来源位置。

流程型 Skill

把多个步骤组合起来,例如“读取材料、提炼重点、生成草稿、列出风险、等待确认”。

为什么需要 Skills

降低重复表达成本

常见任务不必每次重新组织 Prompt,减少不同员工之间表达差异带来的结果波动。

统一输出质量

把标准格式、必填字段、口径要求和复核项写入 Skill,让同类任务输出更稳定。

沉淀组织经验

将优秀 Prompt、常用知识、检查清单和流程经验转化为团队可复用的能力资产。

强化安全边界

在 Skill 中预设数据范围、敏感信息提醒、人工确认点和不允许自动推进的环节。

Skill 通常包含什么

输入要求

说明需要用户提供什么材料,例如会议记录、表格、制度片段或背景说明。

处理规则

定义如何整理、提炼、比较、生成或校验,避免每次使用都重新说明。

输出标准

规定输出结构、字段、长度、语气和可复核信息,让结果更稳定。

复核提示

提示哪些事实、数据、口径、外部发送内容需要人工确认。

Skill、Prompt、工作流、Agent 的区别

Prompt 与 Skill

Prompt 是一次性任务表达,适合临时提问和即时生成。Skill 是把常见任务固化为可复用能力,适合多人重复使用。

Skill 与工作流

Skill 通常解决一个能力点,例如提取、摘要、改写、校验;工作流把多个 Skill 或步骤串起来,形成更完整的任务过程。

工作流与 Agent

工作流更强调固定步骤和稳定流程;Agent 更强调围绕目标进行规划、调用能力、处理上下文并推进任务。

Agent 与平台

单个 Agent 解决某类任务,正大Agentic平台负责统一管理多个 Agent、Skills、知识库、权限和日志。

一个 Skill 从设计到使用的过程

识别 找到重复任务

优先选择频繁出现、输入材料相似、输出格式稳定、风险可控的工作任务。

定义 明确能力边界

说明 Skill 能做什么、不能做什么、需要哪些材料、输出给谁使用。

配置 沉淀规则与模板

配置任务说明、参考知识、输出结构、质量标准和人工确认点。

使用 调用并复核

业务人员调用 Skill 生成结果,并按提示核对事实、数据、口径和风险。

平台化 Agent 解决什么问题

个人直接使用 AI 工具时,常见问题是材料来源不统一、Prompt 难复用、结果无法追溯、权限边界不清晰。平台化 Agent 的价值在于把可复用场景沉淀下来,让同类任务使用统一知识、统一流程和统一复核要求,从而提升稳定性和管理能力。

Skills

沉淀可复用能力,减少重复编写 Prompt,提升同类任务的输出稳定性。

知识库

为 Agent 提供企业可控资料来源,减少凭空生成和口径不一致。

工作流

把多步任务拆成稳定流程,明确每一步输入、输出和人工确认点。

工具连接

在授权范围内连接文件、表格、系统或服务,让 Agent 能处理更完整的任务链条。

权限与日志

记录谁使用、使用了什么材料、产生了什么结果,为安全管理和复盘提供依据。

工作流如何理解

工作流是把一个复杂任务拆成可管理的步骤。它不只是“让 AI 连续回答几次”,而是明确每一步的输入、处理动作、输出结果、判断条件和人工确认点。例如通用材料处理工作流可以包括:上传材料、识别材料类型、提炼摘要、生成结构化输出、列出待确认问题、等待人工确认后再形成最终稿。

输入 接收材料

收集文档、表格、会议记录或背景说明,并确认是否可用于 AI 处理。

处理 调用 Skills

根据任务类型调用摘要、提取、问答、改写、校验等能力。

判断 设置确认点

涉及事实、数字、外发内容、权限和承诺事项时,暂停并等待人工确认。

输出 形成成果

生成纪要、清单、汇报提纲、风险提示或流程结果,并保留必要记录。

业务人员需要理解的边界

正大Agentic平台的重点不是要求业务同事理解底层开发方式,而是理解平台能把哪些重复办公流程沉淀下来,以及哪些环节必须保留人工判断。越是涉及数据、权限、外部发送、审批结论和关键承诺的流程,越需要明确复核人和确认节点。

Chapter 13

OpenClaw 与开源 Agent:从业务视角理解工具生态

OpenClaw 这类开源 Agent 工具的价值,不在于要求业务同事部署使用,而在于帮助大家理解 Agent 工具如何连接目标、工具、流程和结果。

看场景

它解决谁的什么问题?原来需要几步,现在减少了哪些重复动作?

看连接

它需要连接哪些系统、文件、账号、网页或数据源?

看风险

输出错误谁复核?流程中断谁接手?是否保留过程记录?

看维护

谁负责配置、权限、版本、异常处理和持续优化?

视频导学:OpenClaw 与 Agent 核心理解

重点观察 Agent 工具如何围绕目标、工具和流程组织起来。

业务人员应关注什么

观察开源 Agent 工具时,应重点看它如何拆解任务、如何调用工具、如何处理文件和网页、如何记录过程,以及如何把结果交还给用户确认。演示效果不等于企业落地效果,真正落地还需要考虑数据权限、系统连接、审计记录、运维责任和异常处理。

Chapter 14

安全与落地:数据分类、人工复核与企业红线

AI 使用培训既要关注效率,也要关注安全。集团部署私有模型、建设正大Agentic平台,核心目的之一就是让 AI 能力在更可控的环境中使用,把数据、权限、日志、知识库和人工复核纳入统一治理。

为什么要建设集团自己的 AI 能力

当 AI 从个人试用进入组织流程后,安全问题会从“能不能用”变成“在哪里用、用什么数据、谁有权限、结果如何复核、过程能否追溯”。私有模型和正大Agentic平台的价值,是把这些关键环节放在集团可管理、可审计、可持续优化的范围内。

数据可控

通过集团统一环境处理材料,降低敏感信息随意进入外部工具的风险。

权限可控

不同人员、场景、知识库和工具连接应匹配相应权限,避免越权访问。

过程可追溯

记录使用过程、材料来源、调用能力和输出结果,便于复盘和审计。

复核可执行

在 Skills、工作流和 Agent 中设置人工确认点,避免关键内容未经确认直接进入后续流程。

可尝试

公开资料学习、非敏感文本总结、内部草稿起草、个人学习复盘。

需复核

对外文案、经营分析、客户沟通、制度解释、管理汇报。

需严格保护

客户隐私、合同价格、商业秘密、未公开经营数据、账号权限信息。

私有模型与平台化治理的关系

私有模型解决的是模型能力和数据处理环境的可控性,正大Agentic平台解决的是使用入口、知识库、Skills、工作流、工具连接、权限和日志的治理问题。二者配合后,AI 不再只是个人临时使用的工具,而是可以在组织规则下运行的受控能力。

企业使用红线

  • 敏感信息和未公开经营数据应优先在集团认可的受控环境中处理,不得随意输入外部工具。
  • AI 输出不得作为唯一事实来源,关键内容必须复核。
  • 审批、授权和关键业务决策必须保留人工判断。
  • 对外发布内容需要确认事实、口径、品牌规范和合规要求。
  • 涉及系统调用或自动化流程时,需要明确权限、日志和异常处理。
  • 平台化 Agent 场景需要设置人工确认点,避免流程自动推进到不适当环节。
落地建议

从低风险任务开始,建立示例、模板、复核清单和反馈机制。优先把高频、可复核、边界清晰的任务沉淀到正大Agentic平台中,让 AI 使用逐步进入可管理、可追溯、可复盘的业务流程。

Test Center

测试中心:集中检查课程理解

本区域集中放置章节理解题和课程综合测验。建议完成全部正文阅读后再作答,提交后会显示得分和回顾建议。

章节理解题

14 道题,覆盖每个章节的关键概念

未提交
1. 本课程的主要目标是什么?
2. AI、大模型和生成式 AI 的关系更接近哪一项?
3. 大模型为什么需要复核输出?
4. 上下文窗口主要影响什么?
5. 生成式 AI 的典型能力是什么?
6. AI 出现“幻觉”通常指什么?
7. RAG 的主要价值是什么?
8. Prompt 的作用更接近哪一项?
9. 从业务需求转化为高质量 Prompt 时,通常应包含什么?
10. 通用工作场景中,AI 更适合承担什么角色?
11. Agent 和普通聊天 AI 的关键区别是什么?
12. 在正大Agentic平台中,Skills 更适合被理解为什么?
13. 对 OpenClaw 这类工具,更成熟的理解方式是什么?
14. 集团部署私有模型和建设正大Agentic平台的重要原因是什么?
提交后将显示章节理解题得分。

课程综合测验

10 道题,检查基础认知与安全边界

未提交
1. 大模型相比传统规则系统,核心变化是什么?
2. Token 与上下文窗口对业务使用的启发是什么?
3. 生成式 AI 更适合辅助哪类工作?
4. 处理幻觉风险时,最稳妥的做法是什么?
5. 企业知识库建设中,哪项最关键?
6. Prompt 质量较高时,通常会体现什么?
7. 选择 AI 应用场景时,应优先考虑什么?
8. Agent 适合被理解为哪类能力?
9. 正大Agentic平台更适合被理解为什么?
10. 私有模型与正大Agentic平台在安全上的共同价值是什么?
提交后将显示综合测验得分和回顾建议。