changes.mady.by.user 林佳頤
儲存日期: 11月 10, 2023
...
Tokens是Azure OpenAI GPT模型(包括 GPT3.5/4)用來計算文本長度的基本單位。它們是字符的組合,有時候與單詞數相同,但並不總是如此。具體來說,它取決於字符數量並包括標點符號或表情符號。這就是為什麼tokens數量通常與單詞數量不同。
為了確切地知道您的文本中花費了多少個tokens,您需要將您的文本進行tokens化,意味著運行一個tokens化算法來計數所有的tokens。聽起來困難?實際上只需複製粘貼就很簡單。您可以使用 為了確切地知道您的文本中花費了多少個tokens,您需要將您的文本進行tokens化,意味著運行一個tokens化算法來計數所有的tokens。聽起來困難?實際上只需複製粘貼而已,十分簡單。您可以使用 https://www.gptcalculator.xyz/
欲知更多關於token的資訊
我們強烈建議您從下列資源學習以獲得更佳的創建提示技巧:
外部資源:大量的影片可以協助您提升創建prompt的技巧
下列是一些最佳的創建提示範本,供您參考:下列是一些極佳的創建提示範本,供您參考:https://github.com/f/awesome-chatgpt-prompts