10:36Chase AI
Log in to leave a comment
No posts yet
Claude 3.5 Sonnet 是一款被设定得非常“礼貌”的模型。如果你只是简单地要求它“简短回答”,它往往会为了维持礼仪而浪费 Token。模型对提示词的开头和结尾关注度最高。利用这一特性,请在系统消息的最顶端赋予其“原始人工程师”的角色人格,并在最底端明确标注“禁止问候”和“禁止总结”。仅通过在末尾再次强调指令,即可让单次 API 调用的 Token 成本即刻降低 30%。
减少输出并不意味着需要降低模型的智能。在编写逻辑复杂的代码时,请活用 <thinking> 标签。让模型在内部标签中详细执行思考过程,并对承载最终结果的 <answer> 标签应用 Caveman(原始人)风格。以 2026 年为准,Claude 4.6 Sonnet 仅需 Opus 模型 30% 左右的成本即可展现极高的通过率。将思考过程通过缓存 Token 廉价处理,而让昂贵的输出 Token 集中在核心代码上,可以同时兼顾准确性与经济性。
如果要求模型像原始人一样说话,有时会破坏 JSON 语法或遗漏必要的 import 语句。对于独立开发者来说,这种解析错误会产生手动修改的成本。请在系统提示词中强制使用如 ---BEGIN JSON--- 之类的分隔符,并在流水线中加入使用 Python re 模块剔除 Markdown 代码块标记的后处理脚本。仅凭这一道护栏,就能阻断 90% 以上自动化过程中的手动干预。
截至 2026 年,Claude 3.5 Sonnet 的输出 Token 单价为每百万 Token 15.00 美元,比输入贵 5 倍。一名每天进行 100 次编码请求的开发者,若应用 Caveman 模式,可将月度成本从 54 美元降低到 31 美元左右。请根据任务性质调节强度:简单修改使用 Lite 模板,大量数据转换则使用 Ultra 模式。只需投入 15 分钟修改提示词,一年就能节省 276 美元。高效的工程师不会与人工智能长篇大论,他们只会精准地提取所需的信息密度。