数码之家

 找回密码
 立即注册
搜索
查看: 188|回复: 0

[业界] 月之暗面 Kimi 开放平台将启动 Context Caching 内测

[复制链接]
发表于 2024-6-20 20:55:17 | 显示全部楼层 |阅读模式

爱科技、爱创意、爱折腾、爱极致,我们都是技术控

您需要 登录 才可以下载或查看,没有账号?立即注册

x
月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。
▲ 图源 Kimi 开放平台官方公众号,下同
据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:
官方表示,Context Caching 可提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带来的收益越大。
Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:
  • 提供大量预设内容的 QA Bot,例如 Kimi API 小助手。
  • 针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。
  • 对静态代码库或知识库的周期性分析,例如各类 Copilot Agent。
  • 瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles。
  • 交互规则复杂的 Agent 类应用,例如什么值得买 Kimi+ 等。
官方后续将发布 Context Caching 功能的场景最佳实践 / 计费方案 / 技术文档,IT之家将保持关注,并在第一时间带来相关报道。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-5-29 22:24 , Processed in 0.109201 second(s), 10 queries , Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表