完整学习文档
AI 使用基础:从理解原理到业务落地
这份材料采用文档式阅读结构。每一章先解释概念,再用业务语言说明含义,最后给出适用场景、常见误区和使用建议。阅读时不需要关注模型开发细节,重点放在理解能力边界、Prompt 表达、Skills 复用、工作流协作和风险控制。
课程说明:学习目标、方法与 AI 在业务中的定位
AI 已经从单一工具功能,逐步变成办公软件、业务系统和知识管理平台中的基础能力。对业务人员而言,关键不是掌握技术实现,而是能够判断 AI 能辅助什么、不能代替什么,以及如何在安全边界内获得稳定结果。
建立共同语言,理解大模型与 Agent 的基本概念,形成可复用的 AI 使用方法,并在业务实践中保持必要的复核和风险意识。
理解 AI、大模型、生成式 AI、知识库、Agent 等概念之间的关系,避免把所有 AI 能力都理解为“聊天”。
把业务目标、背景材料、限制条件和输出格式说明清楚,让 AI 更稳定地辅助整理、起草、总结和分析。
涉及客户、合同、价格、经营数据、制度口径和对外发布时,应遵循公司流程并保留人工复核。
AI 在业务工作中的定位
AI 更适合被定位为“信息处理与内容生成的辅助能力”。它可以帮助人更快整理材料、形成初稿、提出备选思路、生成结构化摘要,也可以嵌入系统中帮助完成检索、问答和流程协作。但 AI 不应被视为最终负责人,也不应绕过组织已有的审批、授权和复核机制。
一个稳妥的使用方式是:先选择低风险、可复核、文本密集的任务进行尝试,例如会议纪要、培训材料、制度问答、邮件草稿和表格摘要。随着团队对能力边界和流程要求更清楚,再逐步探索更复杂的协作方式。
AI 与大模型发展脉络:从规则系统到生成式 AI
理解 AI 的第一步,是把它放回发展脉络中看。AI 并不是突然出现的一项单点技术,而是经历了规则系统、机器学习、深度学习、大模型和生成式 AI 等阶段。
早期系统更多依赖人工规则。例如“满足某些条件就触发某个流程”。这类系统边界清晰、可解释性强,但适应复杂变化的能力有限。
系统开始从历史数据中学习规律,用于分类、预测和推荐。例如销量预测、异常识别、风险评分等。
通过更复杂的模型结构处理图像、语音和语言,使机器在识别、理解和生成方面有明显进展。
模型规模、训练数据和通用能力进一步提升,可以围绕自然语言完成总结、解释、生成、改写、问答和初步规划。
几个容易混淆的概念
人工智能的总称,覆盖感知、预测、生成、决策辅助、自动化等多种能力。
AI 的重要方法之一,强调从数据中学习规律,而不是完全依赖人工写规则。
在大规模数据上训练形成的通用模型,通常具备较强的语言理解、生成和推理辅助能力。
强调生成新内容,包括文本、图片、音频、视频、表格说明和方案草稿等。
业务视角的理解方式
规则系统像一套固定操作手册,适合流程明确的任务;机器学习像从历史数据中总结经验,适合预测和识别;大模型则像一个具备通用语言能力的协作助手,能阅读材料、总结要点、生成内容和解释概念。不同技术形态适合不同场景,业务价值取决于它能否解决真实流程中的效率、质量或知识传递问题。
大模型基本原理:数据、训练、参数、预训练与对齐
大模型的能力来自大规模训练。它通过大量文本、代码、图文说明等材料学习语言结构和知识关联,再通过指令训练、人工反馈和安全规则,让输出更符合人类使用方式。
模型训练需要大量材料。材料越丰富,模型越容易学习语言表达、知识关联和常见问题的回答方式。
训练可以理解为反复练习和调整。模型不断根据样本修正内部规律,使后续生成更接近合理表达。
参数是模型内部保存规律的方式。业务人员可以把它理解为模型学习后形成的复杂连接和权重。
模型先学习通用语言和知识基础,形成理解、总结、续写、改写等基础能力。
通过指令样例、人工反馈和安全规则,让模型更符合人的提问方式、表达规范和风险要求。
用户输入任务后,模型会根据当前上下文逐步生成回应。这里的推理是生成过程,不等同于人类完全可靠的判断。
为什么大模型看起来“理解”语言
大模型不是简单从固定答案表里查找内容。它在训练中学习了词语、句子、段落、主题和任务之间的关系,因此能够根据上下文生成结构完整、语气自然的回答。它能把一段会议记录整理成纪要,把一份制度解释成问答,也能按要求生成邮件、清单或汇报提纲。
但这种能力并不意味着模型掌握了企业内部全部事实。模型生成内容时会根据上下文预测合适表达,如果材料不足、问题不清楚,或涉及最新信息和内部规则,就可能出现不准确内容。因此,语言流畅只是可读性的表现,不等于事实可靠。
建议结合本章和下一章观看,重点理解大模型如何形成语言处理能力,以及为什么输出需要复核。
当 AI 回答涉及制度、价格、合同、客户、法律、经营数据、对外口径时,应回到可信材料和公司流程中复核。
大模型如何处理信息:Token、上下文窗口、系统指令与稳定性
业务使用者不需要掌握模型开发,但理解几个基础概念,可以明显提升 AI 使用的稳定性:Token、上下文窗口、系统指令、输出格式和随机性。
模型处理文本的基本片段,可理解为字、词或词的一部分。文本越长,消耗的 Token 越多。
模型一次能参考的问题、材料和历史对话范围。超出范围的信息可能无法被充分参考。
系统或工具预先设定的规则,例如回答语气、可做事项、禁止事项和安全边界。
明确要求表格、清单、邮件、汇报提纲或行动项,可以提升结果可用性。
上下文窗口可以理解为“当前桌面”
可以把上下文窗口想象成模型当前桌面上能看到的材料。桌面上没有放制度原文,模型就容易根据一般经验回答;桌面上放了大量材料但没有结构,模型又可能抓不到重点。因此,业务材料应尽量清晰分段,标明哪些是背景、哪些是必须遵守的规则、哪些是希望输出的结果。
随机性与稳定性
一些 AI 工具会提供“创造性”“温度”或类似选项。随机性较高时,回答可能更发散,适合头脑风暴、创意方向和备选标题;随机性较低时,回答通常更稳定,适合制度解释、流程说明和标准化文本。业务场景中,若追求一致口径,通常应优先选择更稳定的生成方式。
示例:让 AI 生成汇报提纲
表达较弱:请写一个汇报。
表达更清晰:请基于以下会议记录,面向部门负责人生成一份 5 分钟汇报提纲。请包含背景、关键进展、风险问题、需要协调的事项和下一步安排,使用分点结构,避免补充未经确认的数据。
生成式 AI 与多模态:文本、图片、语音、表格的能力边界
生成式 AI 的核心特征是根据上下文生成新内容。随着多模态能力发展,AI 不再只处理文字,也可以辅助理解图片、语音、表格和图表。
总结、改写、翻译、邮件、方案、通知、制度解释和培训材料初稿。
识别画面内容、解释图表、提取视觉信息、生成视觉创意方向。
会议转写、语音摘要、客服质检、培训回顾和访谈材料整理。
整理字段、形成摘要、发现异常、生成管理层可读说明。
多模态为什么重要
真实业务材料往往不是单一文本。一次会议可能有录音、纪要、PPT 和表格;一次市场活动可能有照片、报名名单、费用明细和反馈表。多模态能力让 AI 能更接近真实办公材料的形态,辅助完成跨材料整理。
使用边界
多模态并不意味着结果可以直接采用。图片识别可能看错细节,表格摘要可能忽略异常值,语音转写可能出现人名、数字或专业词错误。涉及品牌、版权、客户隐私、经营数据和对外发布时,应按照公司要求复核。
幻觉、偏差与事实复核:判断 AI 输出是否可信
AI 输出可能流畅、完整、有条理,但仍可能包含错误信息。理解幻觉、偏差和时效性,是企业安全使用 AI 的基础。
生成看似合理但事实不准确的内容,例如不存在的来源、错误的数据或不准确的结论。
输出受到训练数据、问题表达、材料选择和上下文限制影响,可能呈现片面视角。
模型未必掌握最新政策、价格、组织架构、制度版本和业务变化。
事实、数字、条款、政策、对外口径和承诺事项都需要回到可信来源核对。
为什么会出现幻觉
大模型的生成过程是根据上下文组织可能合适的回答。当它缺少关键材料、无法访问最新信息,或用户要求它给出确定结论时,模型可能会用看似合理的表达补齐空白。这种“补齐”在语言上可能很自然,但事实并不一定成立。
可信度判断清单
- 是否引用了明确来源,来源是否真实可靠。
- 数字、日期、政策名称、合同条款是否可核对。
- 是否符合公司当前制度、授权范围和审批要求。
- 是否把不确定信息标注出来,而不是包装成确定结论。
- 是否涉及对外承诺、客户权益、价格、交期、法律或合规风险。
越是表达流畅、结构完整的输出,越容易让人忽略核对环节。对关键材料,应把“复核来源和责任人”作为固定步骤。
知识库与 RAG:让回答贴近企业资料
企业知识库可以把制度、流程、产品材料和培训资料组织起来。RAG 的核心思路是先检索相关资料,再让模型基于资料生成回答。
经过整理、分组、版本管理和权限控制的企业资料集合。
把文字转成便于计算的表示方式,用来比较语义相似度。
从知识库中找到与问题相关的片段、制度或说明。
模型基于检索到的材料组织回答,并尽量保持可追溯。
RAG 的通俗理解
可以把 RAG 理解为“先查资料,再组织回答”。普通大模型回答时,更多依赖它已有的通用能力和当前输入;RAG 则会先从企业知识库里找到相关材料,再把材料交给模型整理成可读答案。这样可以提升回答与企业资料的一致性,也便于追溯来源。
知识库质量决定效果上限
知识库并不是把所有文件堆在一起。资料是否为最新版本、标题是否清晰、权限是否正确、内容是否重复冲突,都会影响回答质量。一个成熟的企业知识库,需要有人负责资料治理、版本更新、权限管理和反馈闭环。
业务例子
制度问答、产品知识问答、客服知识检索、培训材料查询都适合使用 RAG 思路。但重要回答应附带来源位置,方便业务人员确认是否引用了正确材料。
Prompt 基础与使用方式:让 AI 更准确理解任务
Prompt 可以理解为向 AI 发出的任务说明。它不仅是一句话的提问,也包括任务目标、背景材料、限制条件、示例、输出格式和复核要求。Prompt 写得越清楚,AI 越容易给出结构稳定、便于使用的结果。
说明希望 AI 完成什么,例如总结、改写、比较、提炼、生成清单或形成初稿。
提供必要背景、使用对象、材料来源和业务目的,帮助模型理解回答应服务什么场景。
说明不能编造、需要保留原意、需要标注不确定信息或需要遵守特定口径。
指定表格、清单、邮件、汇报提纲、行动项或风险清单,让结果更容易进入工作流程。
Prompt 为什么重要
大模型会根据当前上下文生成回答。如果任务表达很短,模型只能根据一般经验补充信息;如果目标、材料和限制都很明确,模型就更容易围绕真实需求组织内容。Prompt 的作用不是“命令 AI 一次给出完美答案”,而是帮助人把模糊需求整理成可执行任务。
Prompt 的四个层级
适合概念解释、简单改写和快速获取思路,例如“请解释这个概念”。优点是快,缺点是结果可能泛泛而谈。
补充对象、用途、材料来源和业务目标,让 AI 知道回答应服务哪个场景。
说明输出长度、结构、语气、禁止事项、判断标准和复核要求,让结果更接近可用稿。
先生成结构,再补材料;先列问题,再写初稿;先输出版本,再压缩、改写和补充风险提醒。
帮我总结一下。
请基于下面材料,为内部汇报整理一份 5 点摘要。每点不超过 40 字,按“结论、依据、待确认事项”组织,不补充材料中没有的信息。
Prompt 的基本结构
可复用表达:请你作为一名办公协作助手,基于我提供的材料,完成以下任务:
- 任务目标:说明需要总结、改写、分析、生成还是比较。
- 背景说明:说明结果面向谁、用于什么场合、需要保持什么语气。
- 输入材料:粘贴或上传需要参考的内容,并说明哪些材料优先级更高。
- 限制条件:说明不能编造、需要标注不确定信息、需要保留原始数据。
- 输出格式:指定清单、表格、邮件、提纲、行动项或风险清单。
- 复核要求:请列出需要人工确认的事实、数字、口径和风险点。
好 Prompt 的判断标准
- 目标明确:能看出希望 AI 生成什么成果,而不是只表达一个笼统意图。
- 材料清楚:能区分背景、参考材料、必须采用的信息和可忽略的信息。
- 边界明确:说明不能编造、不能外推、需要标注不确定内容。
- 格式可用:输出结构能直接进入邮件、纪要、汇报、清单或表格。
- 便于复核:要求列出事实来源、待确认点、风险点和人工判断事项。
迭代追问
Prompt 不一定一次完成。更稳妥的方式是先让 AI 生成结构,再补充材料和限制;先让 AI 提出待确认问题,再进入正式起草;先获得初稿,再要求它压缩、改写、调整语气或补充风险提醒。这个过程更像协作编辑,而不是一次性交付。
AI 使用方法:从业务需求到高质量 Prompt
业务需求通常是模糊的,Prompt 的作用是把需求转化成 AI 可以处理的任务。一个高质量 Prompt 应同时说明目标、背景、材料、限制、格式和复核要求。
希望 AI 协助完成什么任务,例如总结、改写、分析、起草或生成清单。
任务发生在什么业务场景,面向谁,结果用于什么目的。
需要参考哪些会议记录、制度、数据、邮件、表格或说明。
哪些内容不能编造,哪些口径需要保持,哪些风险需要标注。
希望输出为表格、清单、邮件、汇报提纲、行动项或方案结构。
帮我把这些材料整理一下,做成汇报。
请基于以下材料,面向内部管理汇报整理一份 8 页以内的汇报提纲。请包含背景、关键发现、问题归纳、建议动作和待确认事项。不要补充材料外的数据,涉及数字和判断请标注来源位置。
通用 Prompt 模板
模板:请基于我提供的材料,围绕【任务目标】输出【成果形式】。背景是【使用场景】,对象是【阅读或使用对象】。请重点关注【重点事项】,避免【禁止或需谨慎事项】。输出请采用【格式要求】,并在最后列出【需要人工确认的问题】。
这个模板适合会议纪要、材料摘要、邮件初稿、方案框架、风险清单和待办整理等通用办公任务。实际使用时,应把括号中的内容替换为具体业务背景。
Prompt 工作法:从模糊需求到可复用表达
先说明最终要得到什么,例如纪要、清单、表格、汇报提纲、邮件初稿或风险清单。
把材料按背景、事实、数据、限制、历史记录分开,不把所有内容混在一段里。
明确哪些内容不能编造,哪些结论需要标注不确定,哪些数字和来源需要保留。
让 AI 在输出后列出待确认事项、可能遗漏的信息和需要人工判断的风险点。
多轮协作的常用方式
在材料不完整时,先让 AI 列出需要补充的信息,而不是直接生成结论。
复杂任务先生成目录和结构,再逐段补充材料,减少一次性输出偏离目标。
输出后要求 AI 检查是否存在无来源数据、过度推断、语气不当或风险遗漏。
常见错误
- 任务描述过短,缺少业务背景和使用目的。
- 没有提供材料,却要求 AI 给出确定结论。
- 没有说明输出格式,导致结果不便于使用。
- 没有提醒 AI 标注不确定信息和需要人工确认的部分。
- 把一次输出当作最终稿,没有进行追问、修订和复核。
通用办公场景案例:从材料处理到协同推进
通用办公场景通常具有材料多、沟通多、版本多、整理成本高的特点。AI 适合作为信息整理和初稿生成的辅助能力,帮助把零散材料转化为更清晰的结构,再由人完成判断、确认和推进。
会议到行动项
输入材料:会议记录、录音转写、聊天补充。
AI 辅助:整理议题、共识、分歧、待办、负责人和时间节点。
人工复核:确认责任归属、截止时间和未决事项。
多材料研读到汇报
输入材料:多份文档、表格、过往纪要和背景说明。
AI 辅助:提炼关键结论、共性问题、差异点和汇报结构。
人工复核:核对事实、数字、引用来源和表达口径。
沟通内容起草
输入材料:沟通目的、背景事实、对象特点和注意事项。
AI 辅助:生成邮件、通知、说明、FAQ 或不同语气版本。
人工复核:确认措辞、承诺事项、敏感信息和发送范围。
项目跟进与周报
输入材料:任务清单、进展记录、风险问题和会议结论。
AI 辅助:整理进度摘要、阻塞事项、下一步计划和需协调问题。
人工复核:确认状态是否准确,避免把未确认事项写成结论。
表格摘要与异常提示
输入材料:表格字段说明、明细数据、统计口径和分析目标。
AI 辅助:生成文字摘要、趋势描述、异常提示和待确认问题。
人工复核:核对公式、口径、样本范围和异常解释。
方案初稿与风险清单
输入材料:目标、限制、已有材料、时间要求和相关约束。
AI 辅助:形成方案框架、步骤安排、资源清单和风险提示。
人工复核:确认可行性、责任边界、审批要求和风险处置方式。
判断一个场景是否适合 AI 辅助
可以从四个问题判断:材料是否已经存在,任务是否以整理和表达为主,输出是否便于人工复核,错误是否可以在进入正式流程前被发现。如果答案较明确,通常适合作为 AI 辅助切入点。若任务涉及授权、审批、承诺、敏感数据或关键决策,应先明确制度边界和人工确认机制。
从单点任务到通用工作流
当一个场景被反复使用时,可以把它从单次 Prompt 升级为工作流。比如“会议到行动项”可以沉淀为:上传记录、提取议题、生成待办、识别风险、发送确认、形成归档。这样做的价值不是追求完全自动化,而是把重复步骤标准化,让每次输出都有稳定结构和明确复核点。
如果某个办公任务每周或每月反复出现,输入材料相似,输出格式相对固定,并且可以明确人工确认点,就适合沉淀为 Skill 或工作流。
Agent 入门:目标、规划、工具、记忆与人机协作
普通聊天式 AI 主要围绕单次问答提供帮助。Agent 更强调围绕目标拆解步骤、调用工具、记录过程,并输出阶段性结果。
明确最终要完成的任务,例如整理资料、生成报告或完成一组流程动作。
把复杂任务拆解为可执行步骤,并根据中间结果调整顺序。
读取文件、检索资料、调用系统、访问表格或触发流程。
保留上下文、过程信息、用户偏好和任务状态。
重点理解 Agent 如何围绕目标、步骤和工具支持流程协作。
Agent 与普通聊天 AI 的区别
普通聊天 AI 更像“问一句答一句”的助手,Agent 更像“按任务清单推进”的协作者。它可以先理解目标,再规划步骤,再调用知识库、表格、文件或工作流工具完成部分动作,并把关键节点交给负责人确认。
Agent 与 Prompt、知识库的关系
Prompt 更像单次任务说明,知识库提供可检索的企业材料,Agent 则把目标、Prompt、知识库、工具和流程连接起来。一个成熟的 Agent 场景通常不是让 AI 自行决定一切,而是在明确边界内完成资料整理、步骤推进、结果生成和人工确认。
Agent、Skills 与工作流的关系
描述单次任务,让 AI 理解“这一次要做什么、按什么要求输出”。
把一类常见任务沉淀为可复用能力,例如纪要整理、材料摘要、风险清单生成。
把多步任务串起来,明确输入、处理、判断、输出和人工确认节点。
围绕目标调用 Prompt、Skills、知识库和工具,协助完成一段较完整的任务流程。
Agent 涉及工具调用和流程执行时,更需要权限控制、日志记录、异常处理和人工确认。流程越自动化,越要明确责任边界。
Skills、工作流与正大Agentic平台:把 Agent 能力纳入统一管理
正大Agentic平台可以理解为集团内部承载 Agent 能力的平台化入口。它不是单个聊天窗口,而是把模型能力、企业知识、Skills、工作流、工具连接、权限控制和日志审计组织在一起,让 AI 应用从个人尝试逐步走向可管理、可复用、可追溯的业务能力。
让员工通过统一平台访问经过配置的 AI 助手、知识问答和流程型 Agent。
把已治理的资料、制度、说明和常见问题接入知识库,减少各自维护材料造成的不一致。
将常见办公步骤沉淀为可复用流程,例如材料整理、摘要生成、任务分发和结果回收。
围绕权限、日志、人工确认和风险控制建立管理机制,避免 AI 应用分散失控。
什么是 Skills
在正大Agentic平台中,Skills 可以理解为“经过沉淀的可复用 AI 能力单元”。它把一类反复出现的任务,整理成相对稳定的能力配置,包括任务说明、输入材料要求、参考知识、输出格式、质量标准和复核提醒。业务同事不需要每次从零编写完整 Prompt,而是可以在平台中调用已经配置好的能力。
换句话说,Prompt 更像“这一次怎么问”,Skill 更像“把一类问题沉淀成标准能力”。当某个任务在不同人、不同时间反复出现时,如果每个人都重新写 Prompt,结果就容易不一致;如果把它沉淀为 Skill,就可以统一任务边界、输入要求、输出格式和复核标准。
处理单步任务,例如摘要生成、语言润色、表格说明、待办提取和问题清单生成。
结合企业知识库回答问题、解释材料、查找依据,并提示需要确认的来源位置。
把多个步骤组合起来,例如“读取材料、提炼重点、生成草稿、列出风险、等待确认”。
为什么需要 Skills
常见任务不必每次重新组织 Prompt,减少不同员工之间表达差异带来的结果波动。
把标准格式、必填字段、口径要求和复核项写入 Skill,让同类任务输出更稳定。
将优秀 Prompt、常用知识、检查清单和流程经验转化为团队可复用的能力资产。
在 Skill 中预设数据范围、敏感信息提醒、人工确认点和不允许自动推进的环节。
Skill 通常包含什么
说明需要用户提供什么材料,例如会议记录、表格、制度片段或背景说明。
定义如何整理、提炼、比较、生成或校验,避免每次使用都重新说明。
规定输出结构、字段、长度、语气和可复核信息,让结果更稳定。
提示哪些事实、数据、口径、外部发送内容需要人工确认。
Skill、Prompt、工作流、Agent 的区别
Prompt 是一次性任务表达,适合临时提问和即时生成。Skill 是把常见任务固化为可复用能力,适合多人重复使用。
Skill 通常解决一个能力点,例如提取、摘要、改写、校验;工作流把多个 Skill 或步骤串起来,形成更完整的任务过程。
工作流更强调固定步骤和稳定流程;Agent 更强调围绕目标进行规划、调用能力、处理上下文并推进任务。
单个 Agent 解决某类任务,正大Agentic平台负责统一管理多个 Agent、Skills、知识库、权限和日志。
一个 Skill 从设计到使用的过程
优先选择频繁出现、输入材料相似、输出格式稳定、风险可控的办公任务。
说明 Skill 能做什么、不能做什么、需要哪些材料、输出给谁使用。
配置任务说明、参考知识、输出结构、质量标准和人工确认点。
业务人员调用 Skill 生成结果,并按提示核对事实、数据、口径和风险。
平台化 Agent 解决什么问题
个人直接使用 AI 工具时,常见问题是材料来源不统一、Prompt 难复用、结果无法追溯、权限边界不清晰。平台化 Agent 的价值在于把可复用场景沉淀下来,让同类任务使用统一知识、统一流程和统一复核要求,从而提升稳定性和管理能力。
沉淀可复用能力,减少重复编写 Prompt,提升同类任务的输出稳定性。
为 Agent 提供企业可控资料来源,减少凭空生成和口径不一致。
把多步任务拆成稳定流程,明确每一步输入、输出和人工确认点。
在授权范围内连接文件、表格、系统或服务,让 Agent 能处理更完整的任务链条。
记录谁使用、使用了什么材料、产生了什么结果,为安全管理和复盘提供依据。
工作流如何理解
工作流是把一个复杂任务拆成可管理的步骤。它不只是“让 AI 连续回答几次”,而是明确每一步的输入、处理动作、输出结果、判断条件和人工确认点。例如通用材料处理工作流可以包括:上传材料、识别材料类型、提炼摘要、生成结构化输出、列出待确认问题、等待人工确认后再形成最终稿。
收集文档、表格、会议记录或背景说明,并确认是否可用于 AI 处理。
根据任务类型调用摘要、提取、问答、改写、校验等能力。
涉及事实、数字、外发内容、权限和承诺事项时,暂停并等待人工确认。
生成纪要、清单、汇报提纲、风险提示或流程结果,并保留必要记录。
业务人员需要理解的边界
正大Agentic平台的重点不是要求业务同事理解底层开发方式,而是理解平台能把哪些重复办公流程沉淀下来,以及哪些环节必须保留人工判断。越是涉及数据、权限、外部发送、审批结论和关键承诺的流程,越需要明确复核人和确认节点。
OpenClaw 与开源 Agent:从业务视角理解工具生态
OpenClaw 这类开源 Agent 工具的价值,不在于要求业务同事部署使用,而在于帮助大家理解 Agent 工具如何连接目标、工具、流程和结果。
它解决谁的什么问题?原来需要几步,现在减少了哪些重复动作?
它需要连接哪些系统、文件、账号、网页或数据源?
输出错误谁复核?流程中断谁接手?是否保留过程记录?
谁负责配置、权限、版本、异常处理和持续优化?
重点观察 Agent 工具如何围绕目标、工具和流程组织起来。
业务人员应关注什么
观察开源 Agent 工具时,应重点看它如何拆解任务、如何调用工具、如何处理文件和网页、如何记录过程,以及如何把结果交还给用户确认。演示效果不等于企业落地效果,真正落地还需要考虑数据权限、系统连接、审计记录、运维责任和异常处理。
安全与落地:数据分类、人工复核与企业红线
AI 使用培训既要关注效率,也要关注安全。集团部署私有模型、建设正大Agentic平台,核心目的之一就是让 AI 能力在更可控的环境中使用,把数据、权限、日志、知识库和人工复核纳入统一治理。
当 AI 从个人试用进入组织流程后,安全问题会从“能不能用”变成“在哪里用、用什么数据、谁有权限、结果如何复核、过程能否追溯”。私有模型和正大Agentic平台的价值,是把这些关键环节放在集团可管理、可审计、可持续优化的范围内。
通过集团统一环境处理材料,降低敏感信息随意进入外部工具的风险。
不同人员、场景、知识库和工具连接应匹配相应权限,避免越权访问。
记录使用过程、材料来源、调用能力和输出结果,便于复盘和审计。
在 Skills、工作流和 Agent 中设置人工确认点,避免关键内容未经确认直接进入后续流程。
公开资料学习、非敏感文本总结、内部草稿起草、个人学习复盘。
对外文案、经营分析、客户沟通、制度解释、管理汇报。
客户隐私、合同价格、商业秘密、未公开经营数据、账号权限信息。
私有模型与平台化治理的关系
私有模型解决的是模型能力和数据处理环境的可控性,正大Agentic平台解决的是使用入口、知识库、Skills、工作流、工具连接、权限和日志的治理问题。二者配合后,AI 不再只是个人临时使用的工具,而是可以在组织规则下运行的受控能力。
企业使用红线
- 敏感信息和未公开经营数据应优先在集团认可的受控环境中处理,不得随意输入外部工具。
- AI 输出不得作为唯一事实来源,关键内容必须复核。
- 审批、授权和关键业务决策必须保留人工判断。
- 对外发布内容需要确认事实、口径、品牌规范和合规要求。
- 涉及系统调用或自动化流程时,需要明确权限、日志和异常处理。
- 平台化 Agent 场景需要设置人工确认点,避免流程自动推进到不适当环节。
从低风险任务开始,建立示例、模板、复核清单和反馈机制。优先把高频、可复核、边界清晰的任务沉淀到正大Agentic平台中,让 AI 使用逐步进入可管理、可追溯、可复盘的业务流程。
测试中心:集中检查课程理解
本区域集中放置章节理解题和课程综合测验。建议完成全部正文阅读后再作答,提交后会显示得分和回顾建议。
章节理解题
14 道题,覆盖每个章节的关键概念
课程综合测验