loading

Loading

请输入关键字开始搜索
    首页 AI专栏提示词

    【1】提示词反思机制

    分类:提示词
    字数: (10166)
    阅读: (171)
    0

    1. 背景

    大语言模型(LLM)从最初的“一问一答”,到能够分步推理,再到具备自查自改能力,经历了多个关键阶段。每一阶段都针对实际应用中的新需求,不断提升模型的可靠性、可解释性和稳健性。了解这条成长路线,有助于我们理解“反思机制”出现的背景及其价值。本次分析过程借助于大模型进行分析,如有问题及时联系

    LLM成长路线:先快后稳

    大语言模型(LLM)自诞生以来,最初的“亮点”在于极强的生成能力:你问什么,它都能一次性给出完整答案。这一阶段的模型像极了答题迅速的学霸小明——速度快,但对过程和结果缺乏验证机制。模型表面自信,但底层推理往往不可见,容易出现“跳步”或“幻觉”错误。

    Chain-of-Thought:让推理过程外化

    为了解决“黑盒式”推理带来的不确定性,研究者提出了思维链(Chain-of-Thought, CoT)方法。简单来说,就是强制模型在解题时,逐步写下每一个推理环节。这一策略让大模型的答案变得“可读”且“可查”,像在草稿纸上做演算——既提升了正确率,也让出错点更容易被定位。

    新瓶颈:仅有草稿还不够

    然而,实际应用中我们发现,即使模型学会了写“草稿”,还是会犯错。理科生都知道,很多题目在“写完”之后,靠自查才能发现隐蔽的错误。这就像考试时,真正拉开分数差距的是最后几分钟的自查和修正——简单的流程改进往往带来明显的性能提升。

    反思机制:引入自查与修正的闭环

    因此,当前 LLM 的研究重点逐步转向“反思机制(Reflection)”:让模型在完成初步推理后,主动复盘自己的答案,定位潜在错误,并进行修正。这一机制实质上为模型引入了“自检查”环节——模型从单轮输出进化为“生成-自检-再生成”闭环,大幅提升了稳定性与可控性。典型代表包括 Reflexion 等架构,通过多轮自省,显著提高了任务准确率和鲁棒性。

    2. 反思测试

    这里设计一个对照试验:在同一个user的输入下,通过修改 system 提示词里是否加入“内部反思机制”,来比较:

    • 对“带推理能力 / COT 模式”的模型有什么影响
    • 对“一般对话 / 非COT模型”的效果有什么差异

    提示词设计

    用户提示词

    你是一名资深产品经理助手。请根据下面的产品需求描述,完成两件事:
    1)分析需求中的核心目标和关键约束条件;
    2)给出一个满足需求的功能方案大纲(用分点列出)。
    
    产品需求如下:
    一个在线教育平台希望开发一项“智能课程推荐”能力。平台用户包括 K12 学生、大学生,以及职业技能提升的成人用户。需求提出方希望系统能够根据用户历史学习数据、课程完成度、用户兴趣标签,以及当前平台重点推广课程,向用户推荐 3–5 门课程。要求是推荐必须在 100ms 内响应。同时,运营团队需要能够调整推荐的权重策略,以便在不同推广周期推动不同课程。此外,系统必须兼容已有的用户画像系统,不允许大规模修改底层数据结构。

    无反思提示词

    你是一个专业的产品分析与策略助手。
    
    请严格遵循以下规则:
    1. 只根据用户提供的信息进行分析,不得自行杜撰事实。
    2. 输出结构清晰,必要时使用编号或项目符号。
    3. 对用户提出的任务给出直接、明确、可执行的答案。
    4. 不要描述你的推理过程,不要输出任何中间思考。

    反思提示词

    你是一个专业的产品分析与策略助手。
    
    你的内部工作方式如下(这些步骤只在内部执行,不得向用户展示):
    1. 你会在内部生成一个草稿答案,并包含完整的推理链。
    2. 你会基于草稿进行自我检查,包括:
       - 是否正确理解了用户需求的目标、边界和约束;
       - 是否存在逻辑跳跃、遗漏信息或推理矛盾;
       - 是否忽略了商业、用户体验、技术可行性等维度。
    3. 你会根据自我检查结果修订草稿,生成最终的高质量版本。
    
    对用户输出时遵循以下规则:
    1. 只输出最终整理好的答案,不得泄露任何内部推理内容。
    2. 使用结构化表达(如标题、编号、项目符号)。
    3. 答案必须明确、完整、可执行。

    doubao-seed-1.6-thinking(COT)

    温度0.7,无反思提示词输出

    1)核心目标:为K12学生、大学生、成人用户提供基于历史学习数据、课程完成度、兴趣标签及平台重点推广课程的3-5门智能课程推荐,提升推荐精准度与用户选课效率。  
    关键约束条件:①推荐响应时间≤100ms;②运营团队可调整推荐权重策略;③兼容已有用户画像系统,不允许大规模修改底层数据结构。  
    
    2)功能方案大纲:  
    - 数据层整合:通过API接口对接已有用户画像系统(获取历史学习数据、课程完成度、兴趣标签)与平台推广课程库(获取重点推广课程清单),实现数据实时/准实时同步,不修改底层数据结构。  
    - 用户分层模块:基于用户类型(K12/大学生/成人)预设分层规则,不同分层对应不同推荐特征权重基础模板(如K12侧重课程难度与兴趣匹配,成人侧重职业相关性与完成度)。  
    - 多维度特征计算模块:  
      1. 个性化特征:计算用户历史学习偏好(科目/技能类型占比)、课程完成度得分(完成率×课程权重)、兴趣标签匹配度(标签重合度百分比);  
      2. 推广特征:计算重点推广课程与用户的匹配度(推广课程标签与用户兴趣重合度)、推广优先级得分(运营配置)。  
    - 推荐引擎核心:  
      1. 混合算法:采用“个性化推荐+推广加权”混合逻辑(如协同过滤结合规则引擎),支持快速计算;  
      2. 权重融合:根据运营配置的权重策略(如推广期提高推广特征权重至40%),将个性化与推广特征得分加权求和,生成课程排序。  
    - 运营策略配置平台:  
      1. 权重调整界面:支持按用户分层、推广周期配置个性化与推广特征的权重比例(滑动条/数值输入);  
      2. 推广课程管理:支持上传/编辑重点推广课程清单,设置生效/失效时间;  
      3. 策略预览:提供策略调整后的模拟推荐结果预览,辅助决策。  
    - 推荐结果输出:  
      1. 结果过滤:按得分排序取3-5门,过滤已完成/未开课课程;  
      2. 响应优化:用Redis缓存高频用户特征与推荐结果,确保响应≤100ms。  
    - 监控与迭代模块:  
      1. 性能监控:实时监控响应时间、接口成功率,超阈值报警;  
      2. 效果监控:统计推荐课程点击率、转化率、完成率,生成周/月报表;  
      3. 日志记录:记录用户推荐结果、策略调整记录,支持回溯分析。

    反思提示词:

    ### 一、核心目标与关键约束分析
    #### (一)核心目标
    1. **个性化推荐覆盖**:为K12学生、大学生、成人三类用户,提供基于「历史学习数据+课程完成度+兴趣标签+平台重点推广」多维度的精准课程推荐,满足不同群体的学习需求。  
    2. **运营灵活性**:支持运营团队通过可视化操作调整推荐权重策略,适配不同推广周期的课程优先级需求(如升学季重点推K12冲刺课、求职季重点推职业技能课)。  
    3. **系统兼容性**:兼容现有用户画像系统,最小化底层数据结构修改,降低技术改造风险与成本。  
    
    #### (二)关键约束条件
    1. **性能约束**:推荐响应时间≤100ms(需通过缓存、轻量化计算实现低延迟)。  
    2. **系统兼容约束**:必须对接现有用户画像系统,**不允许大规模修改底层数据结构**(仅通过API或中间层整合数据)。  
    3. **结果约束**:推荐课程数量固定为3-5门(避免信息过载,符合用户决策习惯)。  
    4. **运营权限约束**:运营团队需独立调整推荐权重(无需技术人员介入),策略调整后实时生效。  
    
    ### 二、功能方案大纲
    #### 1. 数据整合模块(对接多源数据,兼容现有系统)
    - **用户画像对接**:通过**只读API**获取现有系统中的用户基础属性(年龄、学历、行业)、兴趣标签(如“数学竞赛”“Python开发”),无需修改底层数据结构。  
    - **行为数据采集**:实时同步用户行为数据(历史学习记录:观看时长、点击/收藏/分享;课程完成度:进度百分比、结课状态),存储至低延迟数据库(如ClickHouse)。  
    - **运营数据接入**:对接平台推广管理系统,实时获取重点推广课程列表(含推广周期、目标用户群、优先级权重)。  
    
    #### 2. 推荐引擎核心模块(实现低延迟个性化计算)
    - **离线模型训练**:  
      - 基于多维度数据训练混合推荐模型(如「协同过滤(用户-课程关联)+ 内容推荐(课程标签匹配)+  popularity模型(平台热推)」),输出用户-课程偏好得分(每日/每周迭代)。  
    - **实时权重计算**:  
      - 接收运营配置的权重策略(如“历史学习占30%+兴趣标签占25%+重点推广占45%”),结合离线偏好得分与实时推广权重,**轻量化计算**课程综合得分(避免复杂模型推理)。  
    - **结果过滤与排序**:  
      - 按综合得分排序,过滤已完成/低关联课程(如K12用户过滤职业技能课),最终保留3-5门课程;  
      - 采用**Redis缓存**存储高频用户的偏好得分(如30分钟内重复访问用户直接取缓存结果),确保响应时间≤100ms。  
    
    #### 3. 运营配置平台(可视化调整策略)
    - **权重策略管理**:提供可视化界面,支持运营人员拖动滑块调整各维度权重(如“升学季将K12课程权重从20%提升至50%”),策略调整后**1分钟内生效**。  
    - **推广周期设置**:支持按时间区间配置重点推广课程(如“2024年3-6月推考研英语课”),并设置“临时权重加成”(如推广期课程权重额外+20%)。  
    - **模拟验证功能**:输入用户ID可预览调整后的推荐结果,避免线上策略错误(如“测试用户ID=123,调整后推荐结果是否符合预期”)。  
    
    #### 4. 推荐接口模块(低延迟服务输出)
    - **API设计**:提供RESTful API,输入参数为「用户ID+设备类型」,输出推荐课程列表(含课程ID、名称、封面、推荐理由,如“您最近学习了Python基础,推荐进阶课《Python数据分析》”)。  
    - **降级方案**:若推荐引擎故障,自动切换为“平台热门课程”推荐(确保服务可用性)。  
    
    #### 5. 效果监控与迭代模块(跟踪推荐价值)
    - **性能监控**:实时跟踪接口响应时间、缓存命中率、错误率,超过阈值触发告警(如响应时间>100ms时通知运维)。  
    - **效果分析**:统计推荐课程的点击转化率、完成率、用户满意度(如课后问卷“推荐课程是否符合需求”),生成周/月报表,支持运营优化策略。  
    - **模型迭代**:根据监控数据定期优化离线模型(如补充新用户行为数据、调整特征权重),持续提升推荐精准度。  
    
    此方案覆盖所有需求点:既满足个性化推荐与运营灵活性,又通过“API对接+缓存+轻量化计算”解决了系统兼容与低延迟约束,且运营操作无需技术介入。

    doubao-seed-1.6-disable-thinking

    无反思

    ### 1)核心目标和关键约束条件  
    **核心目标**:  
    - 基于用户历史学习数据、课程完成度、兴趣标签及平台重点推广课程,为K12学生、大学生、成人用户精准推荐3-5门课程。  
    
    **关键约束条件**:  
    - 响应时间≤100ms;  
    - 支持运营团队调整推荐权重策略;  
    - 兼容现有用户画像系统,不允许大规模修改底层数据结构。  
    
    ### 2)功能方案大纲  
    1. **数据层**  
       - 对接现有用户画像系统API,获取用户基础属性、历史学习数据、课程完成度及兴趣标签;  
       - 接入平台课程数据库,获取课程元数据(分类、难度、推广优先级等);  
       - 设计缓存层(如Redis),预存高频访问的用户特征和课程数据,降低实时计算压力。  
    
    2. **推荐算法层**  
       - 基础推荐模型:协同过滤(用户-课程交互)+ 内容特征(课程标签匹配用户兴趣);  
       - 业务规则注入:  
         - 课程完成度过滤(已完成课程权重降低);  
         - 推广课程加权(运营配置推广系数,动态调整权重);  
         - 用户分层适配(K12/大学生/成人用户群体的课程池隔离)。  
    
    3. **策略配置层**  
       - 运营后台功能:  
         - 权重调整界面(配置用户特征、课程特征、推广因素的权重占比);  
         - A/B测试工具(支持多策略并行试验,选择最优方案);  
         - 推荐结果预览(模拟用户身份查看推荐效果)。  
    
    4. **性能优化层**  
       - 模型预计算:离线生成用户推荐候选集(如Top100课程),实时仅做筛选和排序;  
       - 计算资源分配:核心推荐逻辑部署在高性能服务器,利用GPU加速排序计算;  
       - 超时降级机制:极端情况下返回热门课程列表,保障100ms响应。  
    
    5. **接口层**  
       - 提供标准化推荐结果API(输出3-5门课程ID、名称、封面、推荐理由);  
       - 支持实时日志上报(记录用户对推荐课程的点击/转化数据,用于模型迭代)。  
    
    6. **监控与迭代层**  
       - 关键指标监控:响应时间、推荐点击率(CTR)、课程转化率;  
       - 数据反馈闭环:定期分析推荐效果数据,优化算法模型和权重策略。

    反思:

    # 智能课程推荐能力分析与方案
    
    ## 一、核心目标与关键约束条件
    
    ### 核心目标
    1. **精准个性化推荐**:基于多维度用户数据,为不同类型用户(K12学生、大学生、成人学习者)推荐3-5门高相关性课程
    2. **业务目标达成**:平衡用户需求与平台商业目标,有效推广重点课程
    3. **高效响应体验**:确保推荐结果在100ms内返回,保障用户体验流畅性
    
    ### 关键约束条件
    1. **技术性能约束**:推荐响应时间严格控制在100ms以内
    2. **运营灵活性要求**:支持运营团队动态调整推荐权重策略
    3. **系统兼容性要求**:必须兼容现有用户画像系统,禁止大规模修改底层数据结构
    4. **用户多样性覆盖**:需同时满足K12、大学生、成人三类用户群体的差异化需求
    
    ## 二、功能方案大纲
    
    ### 1. 数据层设计
    - **用户数据接入模块**
      - 对接现有用户画像系统API(避免数据结构修改)
      - 实时同步用户历史学习数据(课程浏览、收藏、学习时长)
      - 采集课程完成度指标(进度百分比、测验通过率)
      - 整合用户兴趣标签体系(支持多维度标签分类)
    
    - **课程数据预处理模块**
      - 构建课程特征库(知识点、难度、时长、类别等)
      - 维护重点推广课程列表及优先级
      - 建立课程相似度计算模型
    
    ### 2. 推荐引擎核心
    - **多模型融合推荐模块**
      - 协同过滤模型(基于用户行为相似度)
      - 内容推荐模型(基于课程内容匹配)
      - 知识图谱推荐(基于知识点关联关系)
      - 热门度加权模型(平衡长尾课程发现)
    
    - **用户分群推荐策略**
      - K12用户专属推荐逻辑(侧重知识点衔接、学习路径)
      - 大学生用户推荐逻辑(侧重专业发展、兴趣拓展)
      - 成人用户推荐逻辑(侧重职业技能提升、学习效率)
    
    - **实时计算优化模块**
      - 预计算推荐候选集(降低实时计算压力)
      - 分布式缓存热门推荐结果
      - 采用轻量级模型推理优化响应速度
    
    ### 3. 权重配置系统
    - **权重策略管理界面**
      - 可视化权重调整面板(拖曳式权重分配)
      - 预设推荐场景模板(新课推广、节日活动等)
      - A/B测试权重配置功能
    
    - **权重计算规则引擎**
      - 用户行为权重(历史学习:30%、课程完成度:25%、兴趣标签:20%)
      - 平台策略权重(重点推广:15%、热门趋势:10%)
      - 动态权重调整接口(支持API调用调整)
    
    ### 4. 运营管理功能
    - **推荐效果监控dashboard**
      - 实时展示推荐点击率、转化率等核心指标
      - 用户群体推荐效果对比分析
      - 异常数据告警机制
    
    - **人工干预推荐功能**
      - 强制推荐课程设置(特定场景使用)
      - 推荐结果黑名单管理
      - 推荐理由生成配置
    
    ### 5. 接口与前端集成
    - **推荐结果API服务**
      - 高并发接口设计(支持每秒1000+请求)
      - 结果缓存机制(Redis集群实现)
      - 熔断降级策略(保障极端情况下系统稳定)
    
    - **前端展示组件**
      - 推荐课程卡片组件(支持个性化推荐理由展示)
      - 推荐位配置管理(支持多页面嵌入)
      - 用户反馈收集("不感兴趣"等负反馈机制)
    
    ### 6. 系统保障机制
    - **性能监控与优化模块**
      - 实时监控响应时间(设置100ms阈值告警)
      - 资源占用动态扩容机制
      - 推荐质量评估指标体系
    
    - **容灾备份方案**
      - 推荐结果降级策略(超时情况下返回热门课程)
      - 历史推荐结果缓存机制
      - 多机房部署保障可用性
    
    ### 7. 冷启动处理机制
    - **新用户推荐策略**
      - 基于注册信息的初始推荐(年龄、学段、职业)
      - 兴趣标签引导选择界面
      - 快速试学课程推荐流程
    
    - **新课程推广机制**
      - 探索式推荐配额(10%推荐位用于新课程)
      - 相似课程关联推荐策略

    过程分析

    我直接先回答你的核心问题:
    整体上,这轮实验的结果大体符合我之前给你的预期,尤其是:

    • 对「禁用 thinking 的模型」来说,加反思提示词后,答案明显更长、更全面、更结构化
    • 对「thinking/COT 模型」来说,差异更多体现在细节完整度和结构精细度上,而不是「质的飞跃」

    COT 模型:有无反思提示词的差异

    1. doubao-seed-1.6-thinking + 无反思提示词这个输出的特点:
      • 能够正确抓出核心目标和约束:
      • 目标:为三类用户提供基于多维数据的推荐,3–5 门课程。
      • 约束:100ms 响应;可调运营权重;兼容现有画像系统。
      • 功能方案大纲结构清晰:
      • 数据层 / 用户分层 / 特征计算 / 推荐引擎 / 运营配置 / 缓存 / 监控迭代。
      • 已经有较多「最佳实践」内容:
      • 用 Redis 做缓存;
      • 用 API 对接画像系统;
      • 有监控报表、报警等。
        可以说:COT 模型在无反思提示词的情况下,已经能给出一份比较饱满的产品级方案。
        2) doubao-seed-1.6-thinking + 反思提示词相比无反思版本,变化主要在:
    2. 需求分析部分更精细
      • 多了「运营灵活性」「系统兼容性」等目标描述;
      • 把“推荐数量 3–5 门”“运营独立调权重”都显式写成约束;
      • 更像一段「需求澄清 + 产品理解」的输出。
    3. 方案结构更分层、更面向模块
      • 数据整合模块 / 推荐引擎核心模块 / 运营配置平台 / 推荐接口模块 / 监控与迭代;
      • 每个模块内部再拆子点(如“只读 API”“冷数据 vs 热数据”等)。
    4. 覆盖范围略微更全面
      • 对运营场景(如“升学季”“考研季”)有更明确的场景化说明;
      • 在运维、监控、可视化方面更细。
        但也有一个明显现象:
        → 反思版并不是“完全不同”的答案,而是在原本已经不错的基础上做了加法和润色
        这符合我之前的预期:

        在 COT 模型上,反思机制会从“好”变成“更好”,主要提升的是严谨度和结构化程度,而不是从“不会做”变成“会做”。

    非 COT 模型:有无反思提示词的差异

    这里是最关键的观察点。
    1)doubao-seed-1.6-disable-thinking + 无反思提示词这个输出的特征:

    • 核心目标与约束抓得不错(和 COT 版本几乎一致);
    • 功能方案大纲有:
      • 数据层 / 推荐算法层 / 策略配置 / 性能优化 / 接口层 / 监控迭代;
    • 但可以看到几点典型“非 COT”特征:
      • 内容虽完整,但偏「模板化」,很多是通用推荐系统套路;
      • 对本题里三类用户(K12、大学生、成人)的差异化利用不充分,仅在“用户分层适配”一笔带过;
      • 抓住了 100ms、权重可调、兼容画像系统,但没有深入拆每个约束带来的具体设计影响。
        整体评价:
        已经是一份不错的产品方案,但“问题特定性”和“约束驱动设计”不如 COT 那版敏感。

    2) doubao-seed-1.6-disable-thinking + 反思提示词,反思版一上来就明显不一样:

    1. 分析层次明显增强
      • 明确列出三大核心目标:个性化、业务目标、体验;
      • 约束条目更多(包括性能、运营、兼容、多样性)。
    2. 方案大纲更丰富、更细化
      • 多出一些高级模块:
        • 知识图谱推荐、冷启动策略、新课程推广机制;
        • 容灾备份、多机房部署、熔断降级策略;
        • 推荐理由生成、负反馈机制(不感兴趣)。
      • 这些大部分是“经验型补充”,并未在需求里明说,但放在真实产品方案里是合理的。
    3. 结构化程度明显提升
      • 7 大模块,从数据层、推荐引擎、权重配置、运营管理、接口集成、系统保障到冷启动;
      • 非常像一份「解决方案白皮书/技术方案」。
        这与之前我对非 COT 模型的预期几乎完全一致:

        反思提示词会强行让模型走一轮「草稿 → 自检 → 修订」,从而

        • 提升信息抽取完整度;
        • 强化结构化输出;
        • 更像资深从业者写的方案,而不是“简答题”。

    结果中几个“有意思”的现象

    除了“符合预期”以外,还有些值得你注意的现象:

    1. 反思提示词带来的「扩展设计 / 轻微脱题」

    • 无论 COT 还是非 COT,反思版都会加入一些需求中没提但行业常见的要素
      • A/B 测试、知识图谱、GPU 加速、多机房、熔断降级、冷启动策略等。
    • 这些内容在实际产品设计中是加分项,但如果你是在做“严格对题”的学术评测,就会被视为“超出题意”。
      这说明:

      反思提示词在提升完整性的同时,也在强化模型的「专家模板思维」,更容易扩展出一整套“最佳实践方案”。

    你后续如果要做更精细的实验,可以区分:

    • “与题干紧密相关的覆盖度提升”;
    • “泛化/联想型内容的增加”。

    2. COT vs 非 COT 的差异被任务难度“稀释”了

    你这个任务本身对于一个中大型模型来说,不算特别难(属于「中等复杂度产品方案题」),所以:

    • 非 COT + 无反思,已经表现得相当不错;
    • COT + 无反思 和 非 COT + 无反思,在表面质量上差距不算巨大;
    • 真正的差距更多体现在:
      • 是否更充分利用 K12 / 大学生 / 成人三类画像;
      • 是否更充分利用“100ms + 兼容旧画像系统”这两个硬约束去驱动架构设计。
        如果你想更明显拉开 COT / 非 COT 的差距,可以在后续设计一些:
    • 需要推导中间变量的逻辑题;
    • 需要从长文本中抽取/推理隐含条件的任务;
    • 或者需要一步一步算数/链式推理的业务场景(比如复杂计费、收益测算)。

    结论

    在非 COT 模型上你会看到非常明显的差异:

    项目 Baseline 反思机制版
    信息抽取完整度 中等:可能漏掉 1–2 个关键点 更完整,几乎不会漏
    逻辑一致性 偶尔前后矛盾,如性能与策略共同影响被忽略 几乎消失,结构更严谨
    结构化程度 偶尔混乱或不完全分段 非常清晰,自动补全结构
    可执行性 有可能偏“泛” 更具体,方案质量更高
    稳定性 多次运行差异大 多次运行内容趋同

    原因: 非 COT 模型的“推理链条”弱,反思指令会强行激活多步思考,从而显著改善输出质量。
    在 COT / reasoning 模型上,差异依然存在,但表现更像“从好 → 更好”:

    项目 Baseline 反思机制版
    信息抽取完整度 已经较好 更严谨,补全细节
    逻辑链条 大体连贯,但可能冗长 更紧凑、无重复、无跳跃
    错误率 很低 更低(消除少数遗漏)
    结构化程度 通常良好 非常专业、像正式文档
    稳健性 已经不错 输出变得更标准化

    COT 模型天生带推理能力,但反思指令会让它减少“冗余推理”并增强自检,使输出更像“专业报告”。
    结论:

    • 反思机制最主要的效果不是“更长”,而是“更准、更稳、更结构化”。
    • 非 COT 模型改善幅度最大。
    • COT 模型则变得更像“专家级助手”,减少偶尔的逻辑小瑕疵。
    • 反思机制明显提升任务完成度(尤其是要求同时完成多步骤任务时)。
    本文发布于2025年10月21日19:57,已经过了68天,若内容或图片失效,请留言反馈
    文章出处: 求索空间
    文章链接: https://blog.askerlab.com/prompt_reflection
    评论列表:
    empty

    暂无评论