水城社区 - Kitchener, Waterloo, Cambridge & Guelph 华人的网上家园
   论坛首页   滑铁卢黄页   滑铁卢租房   滑铁卢房产市场 
Linear -->     

科普一下,在AI领域,token并不是和米,公里,千瓦时一样的标准计量单位。不同的大模型厂家计算方式不同。这如同武松喝了十八碗“三碗不过岗”去打虎,谁知道碗多大? (水城百事)

by 这是基本知识吧?, Wednesday, April 29, 2026, 10:16

[ No text ]

  36 views

仅仅中文英文,token的计量方式都有差异。

by 匿名, Wednesday, April 29, 2026, 10:17 @ 这是基本知识吧?

[ No text ]

  38 views

中文token远比英文高效。不少美国模型。底层都是中文。

by 匿名, Wednesday, April 29, 2026, 10:24 @ 这是基本知识吧?

[ No text ]

  39 views

高效一般怎么衡量呢?

by 匿名, Wednesday, April 29, 2026, 10:33 @ 匿名

[ No text ]

  36 views

不懂的话,你可以去问一下AI

by 匿名, Wednesday, April 29, 2026, 11:04 @ 匿名

[ No text ]

  34 views

他们已经掌握了中文写底层源代码

by , Wednesday, April 29, 2026, 10:36 @ 匿名

[ No text ]

  34 views

不是。是向量矩阵存的是中文词汇。中文词元要比英文少的多。存储量小很多。而且中文的词关联性高很多。

by 匿名, Wednesday, April 29, 2026, 10:56 @ 赞

[ No text ]

  30 views

中文天生是高级语言。是为ai量身定制的。

by 华西不高兴, Wednesday, April 29, 2026, 10:59 @ 匿名

[ No text ]

  30 views

行业通用简易换算:1个中文字约等于1个Token,2个汉字标点约等于1个Token。英文以及其他拉丁语系语言的大概规则是1个英文单词约等于1.3个Token,简单估算一下750个英文单词大约就是1000个Token。这个是Gemini给的回答

by 匿名, Wednesday, April 29, 2026, 11:13 @ 匿名

[ No text ]

  31 views

但是OpenAI计算中文token不太一样,它一个汉字算两个token

by 匿名, Wednesday, April 29, 2026, 11:14 @ 匿名

[ No text ]

  30 views

我孩子也有,中文学校玩游戏挣的,没换奖品剩下了

by 匿名, Wednesday, April 29, 2026, 18:54 @ 匿名

[ No text ]

  17 views

我家还剩了一些token

by 匿名, Wednesday, April 29, 2026, 10:54 @ 这是基本知识吧?

[ No text ]

  34 views

大瀑布的?

by 这不就是2000年的比特币吗?, Wednesday, April 29, 2026, 10:56 @ 匿名

[ No text ]

  32 views

是多伦多公交用的

by 匿名, Wednesday, April 29, 2026, 10:58 @ 这不就是2000年的比特币吗?

[ No text ]

  31 views

大瀑布用的那个叫薯片,Chips

by 匿名, Wednesday, April 29, 2026, 11:15 @ 这不就是2000年的比特币吗?

[ No text ]

  29 views

我问了一下AI,不同模型确实有些差异,但是差异极小。主要差异在于用中文还是英文。所以虽然不是米,但也差不多了,可以比较

by 匿名, Wednesday, April 29, 2026, 11:02 @ 这是基本知识吧?

[ No text ]

  31 views

比如都用英文,不同模型的token数量差异主要来自于词汇量和分词策略,但是一般结果很小

by 匿名, Wednesday, April 29, 2026, 11:03 @ 匿名

[ No text ]

  33 views

所以用token数量来估量AI使用量,以及成本,都非常合理。而不是楼主说的区别那么大

by 匿名, Wednesday, April 29, 2026, 11:04 @ 匿名

[ No text ]

  31 views

在工程领域,大,小,差不多,都是不太规范的用词。

by 匿名, Wednesday, April 29, 2026, 11:39 @ 匿名

[ No text ]

  30 views

刻意的模糊化,有可能是为了获得话语权,解释权或者寻租空间。

by 匿名, Wednesday, April 29, 2026, 11:40 @ 匿名

[ No text ]

  34 views

你如果真懂得工程,就应该知道没有绝对的准确。都有一定误差。不影响大概结论即可

by 匿名, Wednesday, April 29, 2026, 17:06 @ 匿名

[ No text ]

  17 views

这里的大概,具体多大?;-)

by 匿名, Wednesday, April 29, 2026, 17:40 @ 匿名

[ No text ]

  16 views

有兴趣自己去查

by 匿名, Thursday, April 30, 2026, 08:26 @ 匿名

[ No text ]

  7 views

英文哪家的AI基本上使用TOKEN数都差不多,但是中文的话,差的有点远。例如每100万个Token,DeepSeek V4:≈ 75 万汉字 / 75 万英文单词, OpenAI(GPT-3.5/4):≈ 50 万汉字 / 75 万英文单词, Claude(3/3.5/4):≈ 50~67 万汉字 / 75 万英文单词,

by 匿名, Wednesday, April 29, 2026, 17:59 @ 这是基本知识吧?

[ No text ]

  16 views

中文还是deepseek好用

by 匿名, Wednesday, April 29, 2026, 23:17 @ 匿名

[ No text ]

  16 views
1329271 Postings in 193845 Threads, 2660 registered users, 681 users online (2 registered, 679 guests)
滑铁卢华人|KWCG生活论坛-Kitchener, Waterloo, Cambridge & Guelph华人的网上家园