TikToken计数令牌
tiktoken是OpenAI提供的快速开源令牌化器,可将文本字符串拆分为一系列令牌以便于文本模型处理。支持OpenAI模型使用的三种编码:gpt2、p50k_base和cl100k_base。通常情况下,令牌从一个字符到一个单词的长度不等,通常将空格与单词开头分组。使用tiktoken,你可以快速检查字符串的令牌化方式。
开源令牌
tiktoken 是 OpenAI 提供的快速开源令牌化器。
给定一个文本字符串(例如,"tiktoken is great!")和一个编码(例如,"gpt2"),令牌化器可以将文本字符串拆分为一系列令牌(例如,["t", "ik", "token", " is", " great", "!"])。
将文本字符串拆分为令牌很有用,因为像 GPT-3 这样的模型以令牌的形式看到文本。知道文本字符串中有多少令牌可以告诉你(a)字符串是否太长,文本模型无法处理,(b)OpenAI API 调用的成本(因为使用以令牌为单位计价)。不同的模型使用不同的编码。
tiktoken 支持 OpenAI 模型使用的三种编码:
| 编码名称 | OpenAI 模型 |
|---|---|
| gpt2(或 r50k_base) | 大多数 GPT-3 模型 |
| p50k_base | 代码模型,text-davinci-002,text-davinci-003 |
| cl100k_base | text-embedding-ada-002 |
tiktoken 支持 OpenAI 模型使用的三种编码p50k_base 与 gpt2 大部分重叠,对于非代码应用,它们通常会给出相同的令牌。
令牌化器库和语言
对于 gpt2 编码,令牌化器可以用许多语言提供:
Python:tiktoken(或者可选GPT2TokenizerFast)
JavaScript:gpt-3-encoder
.NET / C#:GPT Tokenizer
Java:gpt2-tokenizer-java
PHP:GPT-3-Encoder-PHP (OpenAI 不做任何认可或保证第三方库。)
对于 p50k_base 和 cl100k_base 编码,截至2023年1月,tiktoken 是唯一可用的令牌化器。
Python:tiktoken
字符串通常如何令牌化
在英语中,令牌通常从一个字符到一个单词(例如,"t" 或 " great")的长度不等,尽管在某些语言中令牌可能比一个字符短或比一个单词长。通常将空格与单词开头分组(例如," is" 而不是 "is " 或 " "+"is")。您可以在OpenAI Tokenizer上快速检查字符串的令牌化方式。
0. 安装 tiktoken
在终端中使用 pip 安装 tiktoken:
pip install tiktoken
1. 导入 tiktoken
import tiktoken
2.加载编码
使用 tiktoken.get_encoding() 按名称加载编码。
第一次运行时,需要互联网连接才能下载。 以后的运行将不需要互联网连接。
encoding = tiktoken.get_encoding("gpt2")
3. 使用以下方法将文本转换为令牌:
.encode() 方法将文本字符串转换为一系列令牌整数列表。
encoding.encode("tiktoken is great!")
[83, 1134, 30001, 318, 1049, 0] Count tokens by counting the length of the list returned by .encode().
def num_tokens_from_string(string: str, encoding_name: str) -> int:
"""Returns the number of tokens in a text string."""
encoding = tiktoken.get_encoding(encoding_name)
num_tokens = len(encoding.encode(string))
return num_tokens
num_tokens_from_string("tiktoken is great!", "gpt2")
6
4.使用 encoding.decode() 将标记转换为文本
.decode() 将令牌整数列表转换为字符串。
encoding.decode([83, 1134, 30001, 318, 1049, 0])
'tiktoken is great!' Warning: although .decode() can be applied to single tokens, beware that it can be lossy for tokens that aren't on utf-8 boundaries. For single tokens, .decode_single_token_bytes() safely converts a single integer token to the bytes it represents.
[encoding.decode_single_token_bytes(token) for token in [83, 1134, 30001, 318, 1049, 0]]
[b't', b'ik', b'token', b' is', b' great', b'!']
(字符串前面的 b 表示该字符串是字节串。)
5.比较编码
不同的编码在拆分单词、分组空格和处理非英语字符的方式上可能有所不同。 使用上述方法,我们可以比较几个示例字符串的不同编码。
def compare_encodings(example_string: str) -> None:
"""Prints a comparison of three string encodings."""
# print the example string
print(f'\nExample string: "{example_string}"')
# for each encoding, print the # of tokens, the token integers, and the token bytes
for encoding_name in ["gpt2", "p50k_base", "cl100k_base"]:
encoding = tiktoken.get_encoding(encoding_name)
token_integers = encoding.encode(example_string)
num_tokens = len(token_integers)
token_bytes = [encoding.decode_single_token_bytes(token) for token in token_integers]
print()
print(f"{encoding_name}: {num_tokens} tokens")
print(f"token integers: {token_integers}")
print(f"token bytes: {token_bytes}")
compare_encodings("antidisestablishmentarianism")
Example string: "antidisestablishmentarianism" gpt2: 5 tokens token integers: [415, 29207, 44390, 3699, 1042] token bytes: [b'ant', b'idis', b'establishment', b'arian', b'ism'] p50k_base: 5 tokens token integers: [415, 29207, 44390, 3699, 1042] token bytes: [b'ant', b'idis', b'establishment', b'arian', b'ism'] cl100k_base: 6 tokens token integers: [519, 85342, 34500, 479, 8997, 2191] token bytes: [b'ant', b'idis', b'establish', b'ment', b'arian', b'ism']
compare_encodings("2 + 2 = 4")
Example string: "2 + 2 = 4" gpt2: 5 tokens token integers: [17, 1343, 362, 796, 604] token bytes: [b'2', b' +', b' 2', b' =', b' 4'] p50k_base: 5 tokens token integers: [17, 1343, 362, 796, 604] token bytes: [b'2', b' +', b' 2', b' =', b' 4'] cl100k_base: 7 tokens token integers: [17, 489, 220, 17, 284, 220, 19] token bytes: [b'2', b' +', b' ', b'2', b' =', b' ', b'4']
compare_encodings("お誕生日おめでとう")
Example string: "お誕生日おめでとう" gpt2: 14 tokens token integers: [2515, 232, 45739, 243, 37955, 33768, 98, 2515, 232, 1792, 223, 30640, 30201, 29557] token bytes: [b'\xe3\x81', b'\x8a', b'\xe8\xaa', b'\x95', b'\xe7\x94\x9f', b'\xe6\x97', b'\xa5', b'\xe3\x81', b'\x8a', b'\xe3\x82', b'\x81', b'\xe3\x81\xa7', b'\xe3\x81\xa8', b'\xe3\x81\x86'] p50k_base: 14 tokens token integers: [2515, 232, 45739, 243, 37955, 33768, 98, 2515, 232, 1792, 223, 30640, 30201, 29557] token bytes: [b'\xe3\x81', b'\x8a', b'\xe8\xaa', b'\x95', b'\xe7\x94\x9f', b'\xe6\x97', b'\xa5', b'\xe3\x81', b'\x8a', b'\xe3\x82', b'\x81', b'\xe3\x81\xa7', b'\xe3\x81\xa8', b'\xe3\x81\x86'] cl100k_base: 9 tokens token integers: [33334, 45918, 243, 21990, 9080, 33334, 62004, 16556, 78699] token bytes: [b'\xe3\x81\x8a', b'\xe8\xaa', b'\x95', b'\xe7\x94\x9f', b'\xe6\x97\xa5', b'\xe3\x81\x8a', b'\xe3\x82\x81', b'\xe3\x81\xa7', b'\xe3\x81\xa8\xe3\x81\x86']
此文章由OpenAI开源维基百科原创发布,如若转载请注明出处:https://openai.wiki/how_to_count_tokens_with_tiktoken.html