OpenAI的Prompt Caching功能是自动启用的,无需开发者手动开启。以下是关于OpenAI Prompt Caching的主要信息:
1. 自动应用:
Prompt Caching自动应用于最新版本的GPT-4o、GPT-4o mini、o1-preview和o1-mini模型,以及这些模型的微调版本[
2. 触发条件:
- 缓存自动应用于长度超过1024个token的提示[
- 缓存以128个token为增量进行,从1024个token开始[
2
](https://platform.openai.com/docs/guides/prompt-caching).
1. 价格优势:
- 缓存的提示比未缓存的提示更便宜,可获得50%的折扣[
1
](https://cookbook.openai.com/examples/prompt_caching101)[
4
](https://www.53ai.com/news/finetuning/2024100330976.html).
- 例如,GPT-4o模型的原价为$2.50/1K tokens,缓存价格为$1.25/1K tokens[
4
](https://www.53ai.com/news/finetuning/2024100330976.html).
1. 性能提升:
- 可以减少延迟高达80%[
1
](https://cookbook.openai.com/examples/prompt_caching101).
- 对于长提示(超过10,000个token),延迟减少尤为显著[
1
](https://cookbook.openai.com/examples/prompt_caching101).
1. 使用建议:
- 将静态内容(如指令和示例)放在提示的开头,将可变内容(如用户特定信息)放在末尾[
2
](https://platform.openai.com/docs/guides/prompt-caching).
- 这种结构可以增加缓存命中率,从而提高效率[
6
](https://www.53ai.com/news/finetuning/2024100945782.html).
1. 监控使用情况:
- API响应中的'usage'字段包含'cached_tokens'值,显示有多少token被缓存[
5
](https://openai.com/index/api-prompt-caching/).
1. 缓存持续时间:
- 缓存通常在5-10分钟不活动后清除,最长保留1小时[
4
](https://www.53ai.com/news/finetuning/2024100330976.html)[
5
](https://openai.com/index/api-prompt-caching/).
总之,开发者无需采取任何特殊操作来启用Prompt Caching。只要使用支持的模型并发送超过1024个token的提示,系统就会自动应用缓存,从而降低成本并提高性能
入参是 项目 id,截止时间,返回是[{docName:,lastCommit:,lastDiff}]
```Java
入参:
groupId:str
queryTime:str
出参:
[
{
"docName": "文档名称",
"lastCommit": "最后commit的文本",
"lastDiff": "最后 commit 和前一次的 diff 文本"
},
{
"docName": "文档名称",
"lastCommit": "最后commit的文本",
"lastDiff": "最后 commit 和前一次的 diff 文本"
},
]
```