【1】提示词反思机制
1. 背景
大语言模型(LLM)从最初的“一问一答”,到能够分步推理,再到具备自查自改能力,经历了多个关键阶段。每一阶段都针对实际应用中的新需求,不断提升模型的可靠性、可解释性和稳健性。了解这条成长路线,有助于我们理解“反思机制”出现的背景及其价值。本次分析过程借助于大模型进行分析,如有问题及时联系
LLM成长路线:先快后稳
大语言模型(LLM)自诞生以来,最初的“亮点”在于极强的生成能力:你问什么,它都能一次性给出完整答案。这一阶段的模型像极了答题迅速的学霸小明——速度快,但对过程和结果缺乏验证机制。模型表面自信,但底层推理往往不可见,容易出现“跳步”或“幻觉”错误。
Chain-of-Thought:让推理过程外化
为了解决“黑盒式”推理带来的不确定性,研究者提出了思维链(Chain-of-Thought, CoT)方法。简单来说,就是强制模型在解题时,逐步写下每一个推理环节。这一策略让大模型的答案变得“可读”且“可查”,像在草稿纸上做演算——既提升了正确率,也让出错点更容易被定位。
新瓶颈:仅有草稿还不够
然而,实际应用中我们发现,即使模型学会了写“草稿”,还是会犯错。理科生都知道,很多题目在“写完”之后,靠自查才能发现隐蔽的错误。这就像考试时,真正拉开分数差距的是最后几分钟的自查和修正——简单的流程改进往往带来明显的性能提升。
反思机制:引入自查与修正的闭环
因此,当前 LLM 的研究重点逐步转向“反思机制(Reflection)”:让模型在完成初步推理后,主动复盘自己的答案,定位潜在错误,并进行修正。这一机制实质上为模型引入了“自检查”环节——模型从单轮输出进化为“生成-自检-再生成”闭环,大幅提升了稳定性与可控性。典型代表包括 Reflexion 等架构,通过多轮自省,显著提高了任务准确率和鲁棒性。
2. 反思测试
这里设计一个对照试验:在同一个user的输入下,通过修改 system 提示词里是否加入“内部反思机制”,来比较:
- 对“带推理能力 / COT 模式”的模型有什么影响
- 对“一般对话 / 非COT模型”的效果有什么差异
提示词设计
用户提示词
你是一名资深产品经理助手。请根据下面的产品需求描述,完成两件事:
1)分析需求中的核心目标和关键约束条件;
2)给出一个满足需求的功能方案大纲(用分点列出)。
产品需求如下:
一个在线教育平台希望开发一项“智能课程推荐”能力。平台用户包括 K12 学生、大学生,以及职业技能提升的成人用户。需求提出方希望系统能够根据用户历史学习数据、课程完成度、用户兴趣标签,以及当前平台重点推广课程,向用户推荐 3–5 门课程。要求是推荐必须在 100ms 内响应。同时,运营团队需要能够调整推荐的权重策略,以便在不同推广周期推动不同课程。此外,系统必须兼容已有的用户画像系统,不允许大规模修改底层数据结构。
无反思提示词
你是一个专业的产品分析与策略助手。
请严格遵循以下规则:
1. 只根据用户提供的信息进行分析,不得自行杜撰事实。
2. 输出结构清晰,必要时使用编号或项目符号。
3. 对用户提出的任务给出直接、明确、可执行的答案。
4. 不要描述你的推理过程,不要输出任何中间思考。
反思提示词
你是一个专业的产品分析与策略助手。
你的内部工作方式如下(这些步骤只在内部执行,不得向用户展示):
1. 你会在内部生成一个草稿答案,并包含完整的推理链。
2. 你会基于草稿进行自我检查,包括:
- 是否正确理解了用户需求的目标、边界和约束;
- 是否存在逻辑跳跃、遗漏信息或推理矛盾;
- 是否忽略了商业、用户体验、技术可行性等维度。
3. 你会根据自我检查结果修订草稿,生成最终的高质量版本。
对用户输出时遵循以下规则:
1. 只输出最终整理好的答案,不得泄露任何内部推理内容。
2. 使用结构化表达(如标题、编号、项目符号)。
3. 答案必须明确、完整、可执行。
doubao-seed-1.6-thinking(COT)
温度0.7,无反思提示词输出
1)核心目标:为K12学生、大学生、成人用户提供基于历史学习数据、课程完成度、兴趣标签及平台重点推广课程的3-5门智能课程推荐,提升推荐精准度与用户选课效率。
关键约束条件:①推荐响应时间≤100ms;②运营团队可调整推荐权重策略;③兼容已有用户画像系统,不允许大规模修改底层数据结构。
2)功能方案大纲:
- 数据层整合:通过API接口对接已有用户画像系统(获取历史学习数据、课程完成度、兴趣标签)与平台推广课程库(获取重点推广课程清单),实现数据实时/准实时同步,不修改底层数据结构。
- 用户分层模块:基于用户类型(K12/大学生/成人)预设分层规则,不同分层对应不同推荐特征权重基础模板(如K12侧重课程难度与兴趣匹配,成人侧重职业相关性与完成度)。
- 多维度特征计算模块:
1. 个性化特征:计算用户历史学习偏好(科目/技能类型占比)、课程完成度得分(完成率×课程权重)、兴趣标签匹配度(标签重合度百分比);
2. 推广特征:计算重点推广课程与用户的匹配度(推广课程标签与用户兴趣重合度)、推广优先级得分(运营配置)。
- 推荐引擎核心:
1. 混合算法:采用“个性化推荐+推广加权”混合逻辑(如协同过滤结合规则引擎),支持快速计算;
2. 权重融合:根据运营配置的权重策略(如推广期提高推广特征权重至40%),将个性化与推广特征得分加权求和,生成课程排序。
- 运营策略配置平台:
1. 权重调整界面:支持按用户分层、推广周期配置个性化与推广特征的权重比例(滑动条/数值输入);
2. 推广课程管理:支持上传/编辑重点推广课程清单,设置生效/失效时间;
3. 策略预览:提供策略调整后的模拟推荐结果预览,辅助决策。
- 推荐结果输出:
1. 结果过滤:按得分排序取3-5门,过滤已完成/未开课课程;
2. 响应优化:用Redis缓存高频用户特征与推荐结果,确保响应≤100ms。
- 监控与迭代模块:
1. 性能监控:实时监控响应时间、接口成功率,超阈值报警;
2. 效果监控:统计推荐课程点击率、转化率、完成率,生成周/月报表;
3. 日志记录:记录用户推荐结果、策略调整记录,支持回溯分析。
反思提示词:
### 一、核心目标与关键约束分析
#### (一)核心目标
1. **个性化推荐覆盖**:为K12学生、大学生、成人三类用户,提供基于「历史学习数据+课程完成度+兴趣标签+平台重点推广」多维度的精准课程推荐,满足不同群体的学习需求。
2. **运营灵活性**:支持运营团队通过可视化操作调整推荐权重策略,适配不同推广周期的课程优先级需求(如升学季重点推K12冲刺课、求职季重点推职业技能课)。
3. **系统兼容性**:兼容现有用户画像系统,最小化底层数据结构修改,降低技术改造风险与成本。
#### (二)关键约束条件
1. **性能约束**:推荐响应时间≤100ms(需通过缓存、轻量化计算实现低延迟)。
2. **系统兼容约束**:必须对接现有用户画像系统,**不允许大规模修改底层数据结构**(仅通过API或中间层整合数据)。
3. **结果约束**:推荐课程数量固定为3-5门(避免信息过载,符合用户决策习惯)。
4. **运营权限约束**:运营团队需独立调整推荐权重(无需技术人员介入),策略调整后实时生效。
### 二、功能方案大纲
#### 1. 数据整合模块(对接多源数据,兼容现有系统)
- **用户画像对接**:通过**只读API**获取现有系统中的用户基础属性(年龄、学历、行业)、兴趣标签(如“数学竞赛”“Python开发”),无需修改底层数据结构。
- **行为数据采集**:实时同步用户行为数据(历史学习记录:观看时长、点击/收藏/分享;课程完成度:进度百分比、结课状态),存储至低延迟数据库(如ClickHouse)。
- **运营数据接入**:对接平台推广管理系统,实时获取重点推广课程列表(含推广周期、目标用户群、优先级权重)。
#### 2. 推荐引擎核心模块(实现低延迟个性化计算)
- **离线模型训练**:
- 基于多维度数据训练混合推荐模型(如「协同过滤(用户-课程关联)+ 内容推荐(课程标签匹配)+ popularity模型(平台热推)」),输出用户-课程偏好得分(每日/每周迭代)。
- **实时权重计算**:
- 接收运营配置的权重策略(如“历史学习占30%+兴趣标签占25%+重点推广占45%”),结合离线偏好得分与实时推广权重,**轻量化计算**课程综合得分(避免复杂模型推理)。
- **结果过滤与排序**:
- 按综合得分排序,过滤已完成/低关联课程(如K12用户过滤职业技能课),最终保留3-5门课程;
- 采用**Redis缓存**存储高频用户的偏好得分(如30分钟内重复访问用户直接取缓存结果),确保响应时间≤100ms。
#### 3. 运营配置平台(可视化调整策略)
- **权重策略管理**:提供可视化界面,支持运营人员拖动滑块调整各维度权重(如“升学季将K12课程权重从20%提升至50%”),策略调整后**1分钟内生效**。
- **推广周期设置**:支持按时间区间配置重点推广课程(如“2024年3-6月推考研英语课”),并设置“临时权重加成”(如推广期课程权重额外+20%)。
- **模拟验证功能**:输入用户ID可预览调整后的推荐结果,避免线上策略错误(如“测试用户ID=123,调整后推荐结果是否符合预期”)。
#### 4. 推荐接口模块(低延迟服务输出)
- **API设计**:提供RESTful API,输入参数为「用户ID+设备类型」,输出推荐课程列表(含课程ID、名称、封面、推荐理由,如“您最近学习了Python基础,推荐进阶课《Python数据分析》”)。
- **降级方案**:若推荐引擎故障,自动切换为“平台热门课程”推荐(确保服务可用性)。
#### 5. 效果监控与迭代模块(跟踪推荐价值)
- **性能监控**:实时跟踪接口响应时间、缓存命中率、错误率,超过阈值触发告警(如响应时间>100ms时通知运维)。
- **效果分析**:统计推荐课程的点击转化率、完成率、用户满意度(如课后问卷“推荐课程是否符合需求”),生成周/月报表,支持运营优化策略。
- **模型迭代**:根据监控数据定期优化离线模型(如补充新用户行为数据、调整特征权重),持续提升推荐精准度。
此方案覆盖所有需求点:既满足个性化推荐与运营灵活性,又通过“API对接+缓存+轻量化计算”解决了系统兼容与低延迟约束,且运营操作无需技术介入。
doubao-seed-1.6-disable-thinking
无反思
### 1)核心目标和关键约束条件
**核心目标**:
- 基于用户历史学习数据、课程完成度、兴趣标签及平台重点推广课程,为K12学生、大学生、成人用户精准推荐3-5门课程。
**关键约束条件**:
- 响应时间≤100ms;
- 支持运营团队调整推荐权重策略;
- 兼容现有用户画像系统,不允许大规模修改底层数据结构。
### 2)功能方案大纲
1. **数据层**
- 对接现有用户画像系统API,获取用户基础属性、历史学习数据、课程完成度及兴趣标签;
- 接入平台课程数据库,获取课程元数据(分类、难度、推广优先级等);
- 设计缓存层(如Redis),预存高频访问的用户特征和课程数据,降低实时计算压力。
2. **推荐算法层**
- 基础推荐模型:协同过滤(用户-课程交互)+ 内容特征(课程标签匹配用户兴趣);
- 业务规则注入:
- 课程完成度过滤(已完成课程权重降低);
- 推广课程加权(运营配置推广系数,动态调整权重);
- 用户分层适配(K12/大学生/成人用户群体的课程池隔离)。
3. **策略配置层**
- 运营后台功能:
- 权重调整界面(配置用户特征、课程特征、推广因素的权重占比);
- A/B测试工具(支持多策略并行试验,选择最优方案);
- 推荐结果预览(模拟用户身份查看推荐效果)。
4. **性能优化层**
- 模型预计算:离线生成用户推荐候选集(如Top100课程),实时仅做筛选和排序;
- 计算资源分配:核心推荐逻辑部署在高性能服务器,利用GPU加速排序计算;
- 超时降级机制:极端情况下返回热门课程列表,保障100ms响应。
5. **接口层**
- 提供标准化推荐结果API(输出3-5门课程ID、名称、封面、推荐理由);
- 支持实时日志上报(记录用户对推荐课程的点击/转化数据,用于模型迭代)。
6. **监控与迭代层**
- 关键指标监控:响应时间、推荐点击率(CTR)、课程转化率;
- 数据反馈闭环:定期分析推荐效果数据,优化算法模型和权重策略。
反思:
# 智能课程推荐能力分析与方案
## 一、核心目标与关键约束条件
### 核心目标
1. **精准个性化推荐**:基于多维度用户数据,为不同类型用户(K12学生、大学生、成人学习者)推荐3-5门高相关性课程
2. **业务目标达成**:平衡用户需求与平台商业目标,有效推广重点课程
3. **高效响应体验**:确保推荐结果在100ms内返回,保障用户体验流畅性
### 关键约束条件
1. **技术性能约束**:推荐响应时间严格控制在100ms以内
2. **运营灵活性要求**:支持运营团队动态调整推荐权重策略
3. **系统兼容性要求**:必须兼容现有用户画像系统,禁止大规模修改底层数据结构
4. **用户多样性覆盖**:需同时满足K12、大学生、成人三类用户群体的差异化需求
## 二、功能方案大纲
### 1. 数据层设计
- **用户数据接入模块**
- 对接现有用户画像系统API(避免数据结构修改)
- 实时同步用户历史学习数据(课程浏览、收藏、学习时长)
- 采集课程完成度指标(进度百分比、测验通过率)
- 整合用户兴趣标签体系(支持多维度标签分类)
- **课程数据预处理模块**
- 构建课程特征库(知识点、难度、时长、类别等)
- 维护重点推广课程列表及优先级
- 建立课程相似度计算模型
### 2. 推荐引擎核心
- **多模型融合推荐模块**
- 协同过滤模型(基于用户行为相似度)
- 内容推荐模型(基于课程内容匹配)
- 知识图谱推荐(基于知识点关联关系)
- 热门度加权模型(平衡长尾课程发现)
- **用户分群推荐策略**
- K12用户专属推荐逻辑(侧重知识点衔接、学习路径)
- 大学生用户推荐逻辑(侧重专业发展、兴趣拓展)
- 成人用户推荐逻辑(侧重职业技能提升、学习效率)
- **实时计算优化模块**
- 预计算推荐候选集(降低实时计算压力)
- 分布式缓存热门推荐结果
- 采用轻量级模型推理优化响应速度
### 3. 权重配置系统
- **权重策略管理界面**
- 可视化权重调整面板(拖曳式权重分配)
- 预设推荐场景模板(新课推广、节日活动等)
- A/B测试权重配置功能
- **权重计算规则引擎**
- 用户行为权重(历史学习:30%、课程完成度:25%、兴趣标签:20%)
- 平台策略权重(重点推广:15%、热门趋势:10%)
- 动态权重调整接口(支持API调用调整)
### 4. 运营管理功能
- **推荐效果监控dashboard**
- 实时展示推荐点击率、转化率等核心指标
- 用户群体推荐效果对比分析
- 异常数据告警机制
- **人工干预推荐功能**
- 强制推荐课程设置(特定场景使用)
- 推荐结果黑名单管理
- 推荐理由生成配置
### 5. 接口与前端集成
- **推荐结果API服务**
- 高并发接口设计(支持每秒1000+请求)
- 结果缓存机制(Redis集群实现)
- 熔断降级策略(保障极端情况下系统稳定)
- **前端展示组件**
- 推荐课程卡片组件(支持个性化推荐理由展示)
- 推荐位配置管理(支持多页面嵌入)
- 用户反馈收集("不感兴趣"等负反馈机制)
### 6. 系统保障机制
- **性能监控与优化模块**
- 实时监控响应时间(设置100ms阈值告警)
- 资源占用动态扩容机制
- 推荐质量评估指标体系
- **容灾备份方案**
- 推荐结果降级策略(超时情况下返回热门课程)
- 历史推荐结果缓存机制
- 多机房部署保障可用性
### 7. 冷启动处理机制
- **新用户推荐策略**
- 基于注册信息的初始推荐(年龄、学段、职业)
- 兴趣标签引导选择界面
- 快速试学课程推荐流程
- **新课程推广机制**
- 探索式推荐配额(10%推荐位用于新课程)
- 相似课程关联推荐策略
过程分析
我直接先回答你的核心问题:
整体上,这轮实验的结果大体符合我之前给你的预期,尤其是:
- 对「禁用 thinking 的模型」来说,加反思提示词后,答案明显更长、更全面、更结构化;
- 对「thinking/COT 模型」来说,差异更多体现在细节完整度和结构精细度上,而不是「质的飞跃」。
COT 模型:有无反思提示词的差异
- doubao-seed-1.6-thinking + 无反思提示词这个输出的特点:
- 能够正确抓出核心目标和约束:
- 目标:为三类用户提供基于多维数据的推荐,3–5 门课程。
- 约束:100ms 响应;可调运营权重;兼容现有画像系统。
- 功能方案大纲结构清晰:
- 数据层 / 用户分层 / 特征计算 / 推荐引擎 / 运营配置 / 缓存 / 监控迭代。
- 已经有较多「最佳实践」内容:
- 用 Redis 做缓存;
- 用 API 对接画像系统;
- 有监控报表、报警等。
可以说:COT 模型在无反思提示词的情况下,已经能给出一份比较饱满的产品级方案。
2) doubao-seed-1.6-thinking + 反思提示词相比无反思版本,变化主要在:
- 需求分析部分更精细
- 多了「运营灵活性」「系统兼容性」等目标描述;
- 把“推荐数量 3–5 门”“运营独立调权重”都显式写成约束;
- 更像一段「需求澄清 + 产品理解」的输出。
- 方案结构更分层、更面向模块
- 数据整合模块 / 推荐引擎核心模块 / 运营配置平台 / 推荐接口模块 / 监控与迭代;
- 每个模块内部再拆子点(如“只读 API”“冷数据 vs 热数据”等)。
- 覆盖范围略微更全面
- 对运营场景(如“升学季”“考研季”)有更明确的场景化说明;
- 在运维、监控、可视化方面更细。
但也有一个明显现象:
→ 反思版并不是“完全不同”的答案,而是在原本已经不错的基础上做了加法和润色。
这符合我之前的预期:在 COT 模型上,反思机制会从“好”变成“更好”,主要提升的是严谨度和结构化程度,而不是从“不会做”变成“会做”。
非 COT 模型:有无反思提示词的差异
这里是最关键的观察点。
1)doubao-seed-1.6-disable-thinking + 无反思提示词这个输出的特征:
- 核心目标与约束抓得不错(和 COT 版本几乎一致);
- 功能方案大纲有:
- 数据层 / 推荐算法层 / 策略配置 / 性能优化 / 接口层 / 监控迭代;
- 但可以看到几点典型“非 COT”特征:
- 内容虽完整,但偏「模板化」,很多是通用推荐系统套路;
- 对本题里三类用户(K12、大学生、成人)的差异化利用不充分,仅在“用户分层适配”一笔带过;
- 抓住了 100ms、权重可调、兼容画像系统,但没有深入拆每个约束带来的具体设计影响。
整体评价:
已经是一份不错的产品方案,但“问题特定性”和“约束驱动设计”不如 COT 那版敏感。
2) doubao-seed-1.6-disable-thinking + 反思提示词,反思版一上来就明显不一样:
- 分析层次明显增强
- 明确列出三大核心目标:个性化、业务目标、体验;
- 约束条目更多(包括性能、运营、兼容、多样性)。
- 方案大纲更丰富、更细化
- 多出一些高级模块:
- 知识图谱推荐、冷启动策略、新课程推广机制;
- 容灾备份、多机房部署、熔断降级策略;
- 推荐理由生成、负反馈机制(不感兴趣)。
- 这些大部分是“经验型补充”,并未在需求里明说,但放在真实产品方案里是合理的。
- 多出一些高级模块:
- 结构化程度明显提升
- 7 大模块,从数据层、推荐引擎、权重配置、运营管理、接口集成、系统保障到冷启动;
- 非常像一份「解决方案白皮书/技术方案」。
这与之前我对非 COT 模型的预期几乎完全一致:反思提示词会强行让模型走一轮「草稿 → 自检 → 修订」,从而
- 提升信息抽取完整度;
- 强化结构化输出;
- 更像资深从业者写的方案,而不是“简答题”。
结果中几个“有意思”的现象
除了“符合预期”以外,还有些值得你注意的现象:
1. 反思提示词带来的「扩展设计 / 轻微脱题」
- 无论 COT 还是非 COT,反思版都会加入一些需求中没提但行业常见的要素:
- A/B 测试、知识图谱、GPU 加速、多机房、熔断降级、冷启动策略等。
- 这些内容在实际产品设计中是加分项,但如果你是在做“严格对题”的学术评测,就会被视为“超出题意”。
这说明:反思提示词在提升完整性的同时,也在强化模型的「专家模板思维」,更容易扩展出一整套“最佳实践方案”。
你后续如果要做更精细的实验,可以区分:
- “与题干紧密相关的覆盖度提升”;
- “泛化/联想型内容的增加”。
2. COT vs 非 COT 的差异被任务难度“稀释”了
你这个任务本身对于一个中大型模型来说,不算特别难(属于「中等复杂度产品方案题」),所以:
- 非 COT + 无反思,已经表现得相当不错;
- COT + 无反思 和 非 COT + 无反思,在表面质量上差距不算巨大;
- 真正的差距更多体现在:
- 是否更充分利用 K12 / 大学生 / 成人三类画像;
- 是否更充分利用“100ms + 兼容旧画像系统”这两个硬约束去驱动架构设计。
如果你想更明显拉开 COT / 非 COT 的差距,可以在后续设计一些:
- 需要推导中间变量的逻辑题;
- 需要从长文本中抽取/推理隐含条件的任务;
- 或者需要一步一步算数/链式推理的业务场景(比如复杂计费、收益测算)。
结论
在非 COT 模型上你会看到非常明显的差异:
| 项目 | Baseline | 反思机制版 |
|---|---|---|
| 信息抽取完整度 | 中等:可能漏掉 1–2 个关键点 | 更完整,几乎不会漏 |
| 逻辑一致性 | 偶尔前后矛盾,如性能与策略共同影响被忽略 | 几乎消失,结构更严谨 |
| 结构化程度 | 偶尔混乱或不完全分段 | 非常清晰,自动补全结构 |
| 可执行性 | 有可能偏“泛” | 更具体,方案质量更高 |
| 稳定性 | 多次运行差异大 | 多次运行内容趋同 |
原因: 非 COT 模型的“推理链条”弱,反思指令会强行激活多步思考,从而显著改善输出质量。
在 COT / reasoning 模型上,差异依然存在,但表现更像“从好 → 更好”:
| 项目 | Baseline | 反思机制版 |
|---|---|---|
| 信息抽取完整度 | 已经较好 | 更严谨,补全细节 |
| 逻辑链条 | 大体连贯,但可能冗长 | 更紧凑、无重复、无跳跃 |
| 错误率 | 很低 | 更低(消除少数遗漏) |
| 结构化程度 | 通常良好 | 非常专业、像正式文档 |
| 稳健性 | 已经不错 | 输出变得更标准化 |
COT 模型天生带推理能力,但反思指令会让它减少“冗余推理”并增强自检,使输出更像“专业报告”。
结论:
- 反思机制最主要的效果不是“更长”,而是“更准、更稳、更结构化”。
- 非 COT 模型改善幅度最大。
- COT 模型则变得更像“专家级助手”,减少偶尔的逻辑小瑕疵。
- 反思机制明显提升任务完成度(尤其是要求同时完成多步骤任务时)。
本文发布于2025年10月21日19:57,已经过了68天,若内容或图片失效,请留言反馈 -
github大模型软件评测
1. 背景 互联网上有许多开源的大模型软件,每种软件都有其独特的功能和优缺点。我曾试用过许多大模型软件,但最终效果和具体内容都未能完全记住。因此,本文将主要记录我所了解和使用过的大模型软件。此外,文中...
2025/02/19
-
whisper.cpp安装
1. 背景 whisper是OpenAI官方发布的一款开源语音识别大模型,使用python实现。可以将语音信息转化为文本信息。其实也叫做ASR"自动语音识别”(Automatic Speech Rec...
2025/03/02
-
【1】COGVIDEO生成视频
1. 背景 cogvideoX是清华和清影同源的开源视频生成大模型,详情可以查看:CogvideoXhttps://modelscope.cn/models/ZhipuAI/CogVideoX-5b-...
2024/11/19
-
whisper.cpp测试与使用
whipser.cpp安装完毕后,加载了多个大模型,分别进行测试。 测试项目 下载模型命令: bash sh ./models/download-ggml-model.sh base 测试命令: 转化...
2025/04/21
求索空间
apostle9891
360视觉云
360智慧生活
gitea
导航
hoppscotch
暂无评论