Tokens 是 Azure OpenAI GPT 模型(包括 GPT3.5/4)用來計算文本長度的基本單位。它們是字符的組合,有時候與單詞數相同,但並不總是如此。具體來說,它取決於字符數量並包括標點符號或表情符號。這就是為什麼 Tokens 數量通常與單詞數量不同。 為了準確知道你的文本中花費了多少個 Tokens,你需要將你的文本進行 Tokens 化,意味著運行一個 Tokens 化算法來計數所有的 Tokens。聽起來困難?實際上只需複製粘貼而已,十分簡單。 你可以使用 https://www.gptcalculator.xyz/ 來計算。 想知更多關於 Token 的資訊
|