什么是 Token?

基本上一个 Token 就是一个字,有一些字可能需要两个 Token 组合编码。Token 这个东西你可以理解为一个数字,通过这种方式编码后的内容 GPT 模型才能理解,而 GPT 模型生成的内容,也需要通过对应的 Token 解码才能变成人类能懂的文字。

ChatGPT API Token 收费标准

暂定收费标准是 ¥ 0.028/1K tokens,大概 750 词。虽然 1k 个 token 看起来很多。但其实,发送一段供 API 响应的文本可能就会花费不少 token。

据我观察,基本问 1 个问题就要耗费 100 多个 token,算起来其实不少的,尤其在连续会话中,为了保持对话的连续性,必须每次都要回传历史消息,并且输入都要算 token 数算钱的,满打满算,按量付费其实也不便宜。 按照一般的经验来看,在英语中“一个 token 通常对应大约 4 个字符”,而 1 个汉字大致是 2~2.5 个 token。 举一个官方的说明例子可能更直观一些:根据 OpenAI 官方文档,“ChatGPT is great!”这组单词就需要六个 token —— 它的 API 将其分解为 “Chat”、“G”、“PT”、“is”、“great”和“!”。

如果你想查询一串指定的文本到底需要耗费多少个 token(钱 💰),下面提供一个免费查询计算器:

Tokens
0
Characters
0

结果仅供参考,实际以官方计算为准。

购买 10 元 Token 卡能用多久?

收费标准是¥ 0.028/1K tokens。换算一下 10 元大概是 360K tokens。够一个人用很长一段时间了。

为什么有的问题短但消耗点数更多?

消耗的点数并不取决模型单次回答的长度,而是本次会话中,你发送的以及模型回答的消息总数。因为支持上下文,在每一次发送消息时,本次会话中的所有历史记录都会一并输入,以便模型回忆起之前的内容。

怎么才能节省点数?

每一次发消息,都会将本次会话中所有的历史记录作为输入传给模型。这就导致上下文越多,每一次回答的成本就越高。模型处理最大可达 4096 个 token,粗略计算的话,就是 0.08 点数了。所以尽量每一个会话保持同一个话题,不同的话题没有必要保持上下文。实际上,绝大多数时候,单次询问就足以得到正确答案了。

单个会话的历史长度有限制吗?

有,上文提到模型单次处理的文本最大长度是 4096 个 Token,事实上换算成文字可能不足 4000 字,所以整个会话的所有文字加起来最多差不多 4000 字就是一个会话所能支持的最大长度了。当然,这并不是说这个会话就不能再继续了,如果达到了这个限制,会自动抛弃最早的历史数据以使请求符合模型限制。

我的提问记录安全吗,会被任何人看到吗?

安全。我们不会存储你的提问记录,你的提问记录只有你自己知道并存储在浏览器中,换了浏览器就没有了。如果有需要请自行做好备份。

服务稳定性如何?

我们用的是官方 API,平均响应速度为 1-2 秒。

反馈和建议都可以在公众号留言

同时也欢迎进群讨论

进群二维码