QQ:355128452

导航菜单

新闻资讯

余光中经典散文 篇23

新智元报道编辑:Aeneas 好困【新智元导读】曾以低价高性能震撼市场的DeepSeek,为何在自家平台遇冷,市场份额下滑?背后隐藏的「Token经济学」和这场精心策划的战略转移,正悄然改变着AI的价值链与分发模式。最近,全世界的大厂都在蠢蠢欲动了!GPT-5、Grok 4,甚至Claude,都已经纷纷有了消息,一场恶战仿佛就在眼前!DeepSeek这边,似乎也有新动静了。就在昨天,一个疑似DeepSeek的新模型现身LM Arena。也有人猜测,这个模型更可能是DeepSeek V4,而DeepSeek R2会稍后发布。套路很可能和之前是一样的,先在第一个月发布V3,然后在下个月发布R1。所以,曾经轰动全球AI圈的中国大模型DeepSeek R1,如今怎样了?到今天为止,DeepSeek R1已经发布超过150天了。当时一经问世,它就以OpenAI同等级的推理能力和低90%的价格而迅速出圈,甚至一度撼动了西方的资本市场。可是如今,它在用户留存和官网流量上却双双遇冷,市场份额持续下滑。DeepSeek就这样昙花一现,红极一时后迅速衰落了?其实不然,在这背后,其实隐藏着另一条增长曲线——在第三方平台上,R1已经成爆炸性增长,这背后,正是折射出AI模型分发与价值链的悄然变革。SemiAnalysis今天发布的这篇文章,挖出了不少一手的内幕信息。DeepSeek,盛极而衰?DeepSeek发布后,消费者应用的流量一度激增,市场份额也随之急剧上升。为此,SemiAnalysis做出了下面这份统计曲线。当然,他们也承认,由于中国的用户活动数据难以追踪,且西方实验室在中国无法运营,下面这些数据实际上低估了DeepSeek的总覆盖范围。不过即便如此,曾经它爆炸性的增长势头也未能跟上其他AI应用的步伐,可以确定,DeepSeek的市场份额此后已然下滑。而在网络浏览器流量方面,它的数据就更为惨淡了:绝对流量一直在下降,但其他顶尖模型的用户数却噌噌飞涨,十分可观。不过,虽然DeepSeek自家托管模型的用户增长乏力,但在第三方平台那里,就完全是冰火两重天了。可以看到,R1和V3模型的总使用量一直在持续快速增长,自R1首次发布以来,已经增长将近20倍!如果进一步深挖数据,就会发现:只看由DeepSeek自己托管的那部分Token流量,那它在总Token中的份额的确是逐月下降的。那么,问题来了:为何在DeepSeek模型本身越来越受欢迎、官方价格非常低廉的情况下,用户反而从DeepSeek自家的网页应用和API流失,转向了其他开源提供商呢?SemiAnalysis点出了问题关键——答案就在于「Token经济学」,以及在平衡模型服务的各项KPI时所做的无数权衡。这些权衡意味着,每个Token的价格并非一个孤立的数字,而是模型提供商根据其硬件和模型配置,在对各项KPI进行决策后得出的最终结果。Token经济学基础我们都知道,Token是构成AI模型的基本单元。AI模型通过读取以Token为单位的互联网信息进行学习,并以文本、音频、图像或行为指令等Token形式生成输出。所谓Token,就是像「fan」、「tas」、「tic」这样的小文本片段。LLM在处理文本时,并非针对完整的单词或字母,而是对这些片段进行计数和处理。这些Token,便是老黄口中数据中心「AI工厂」的输入和输出。如同实体工厂一样,AI工厂也遵循一个「P x Q」(价格 x 数量)的公式来盈利:其中,P代表每个 Token的价格,Q代表输入和输出Token的总量。但与普通工厂不同,Token的价格是一个可变参数,模型服务商可以根据其他属性来设定这个价格。以下,就是几个关键的性能指标(KPI)。延迟(Latency)或首个Token输出时间(Time-to-First-Token)指模型生成第一个Token所需的时长。这也可以理解为模型完成「预填充」阶段(即将输入提示词编码到KVCache中)并开始在「解码」阶段生成第一个Token所需的时间。吞吐量(Throughput)或交互速度(Interactivity)指生成每个Token的速度,通常以「每个用户每秒可生成的Token数量」来衡量。当然,有些服务商也会使用其倒数——即生成每个输出Token的平均间隔时间(Time Per Output Token, TPOT)。人类的阅读速度约为每秒3-5个单词,而大部分模型服务商设定的输出速度约为每秒20-60个Token。上下文窗口(Context Window)指在模型「遗忘」对话的早期部分、并清除旧的Token之前,其「短期记忆」中能够容纳的Token数量。不同的应用场景需要大小各异的上下文窗口。例如,分析大型文档和代码库时,就需要更大的上下文窗口,以确保模型能够对海量数据进行连贯的推理。对于任何一个给定的模型,你都可以通过调控这三大KPI,设定出几乎任何价位的单位Token价格。因此,单纯基于「每百万Token的价格」($/Mtok)来讨论优劣,并没有什么意义,因为这种方式忽略了具体工作负载的性质,以及用户对Token的实际需求。DeepSeek的策略权衡所以,DeepSeek在R1模型服务上采用了何种Token经济学策略,以至于市场份额会不断流失?通过对比延迟与价格的关系图,可以看到,在同等延迟水平上,DeepSeek的自有服务已不再是价格最低的选择。事实上,DeepSeek之所以能提供如此低廉的价格,一个重要原因在于,用户等待数秒后,才能收到模型返回的第一个Token。相比之下,其他服务商的延迟会短得多,价格却几乎没有差别。也就是说,Token消费者只需花费2-4美元,就能从Parasail或Friendli这类服务商那里,获得近乎零延迟的体验。同样,微软Azure的服务价格虽比DeepSeek高2.5倍,但延迟却减少了整整25秒。这样看来,DeepSeek现在面临的处境就尤为严峻了。原因在于,现在几乎所有托管R1 0528模型的实例都实现了低于5秒的延迟。沿用同一图表,但这次我们将上下文窗口的大小用气泡面积来表示。从中可以看到,DeepSeek为了用有限的推理算力资源来提供低价模型,所做的另一项权衡。他们采用的64K上下文窗口,几乎是主流模型服务商中最小的之一。较小的上下文窗口限制了编程等场景的发挥,因为这类任务需要模型能够连贯地记忆代码库中的大量Token,才能进行有效推理。从图表中可见,若花费同样的价格,用户可以从Lambda和Nebius等服务商那里获得超过2.5倍的上下文窗口大小。如果深入硬件层面,在AMD和英伟达芯片上对DeepSeek V3模型的基准测试,就可以看清服务商是如何确定其「每百万Token价格」($/Mtok)的——模型服务商会通过在单个GPU或GPU集群上同时处理更多用户的请求(即「批处理」),来降低单位Token的总成本。这种做法的直接后果,就是终端用户需要承受更高的延迟和更慢的吞吐量,从而导致用户体验急剧下降。之所以DeepSeek完全不关心用户的体验到底如何,实际上是一种主动作出的战略选择。毕竟,从终端用户身上赚钱,或是通过聊天应用和API来消耗大量Token,并不是他们的兴趣所在。这家公司的唯一焦点就是实现AGI!而通过采用极高批处理方式,DeepSeek可以最大限度地减少用于模型推理和对外服务的计算资源消耗,从而将尽可能多的算力保留在公司内部,从而用于研发。另外还有一点:出口管制也限制了中国AI生态系统在模型服务方面的能力。因此,对DeepSeek而言,开源就是最合乎逻辑的选择:将宝贵的计算资源留作内部使用,同时让其他云服务商去托管其模型,以此赢得全球市场的认知度和用户基础。不过,SemiAnalysis也承认,这却并没有削弱中国公司训练模型的能力——无论是腾讯、阿里、百度,还是小红书最近发布的新模型,都证明了这一点。Anthropic也一样?和DeepSeek一样,Anthropic的算力也是同样受限的。可以看到,它产品研发的重心显然放在了编程上,而且已经在Cursor等应用中大放异彩。Cursor的用户使用情况,就是评判模型优劣的终极试金石,因为它直接反映了用户最关心的两个问题——成本与体验。而如今,Anthropic的模型已雄踞榜首超过一年——在瞬息万变的AI行业里,这个时长仿佛已经如十年。而在Cursor上大获成功后,Anthropic立马顺势推出了Claude Code,一款集成在终端里的编程工具。它的用户量一路飙升,将OpenAI的Codex模型远远甩在身后。为了对达Claude Code,谷歌也紧急发布了Gemini CLI。它与Claude Code功能相似,但因为背靠谷歌TPU,却有非凡的算力优势——用户能免费使用的额度,几乎无上限。不过,尽管Claude Code的性能和设计都十分出色,价格却不菲。Anthropic在编程上的成功,反而给公司带来了巨大压力——他们在算力上已经捉襟见肘。这一点,在Claude 4 Sonnet的API输出速度上就已经体现得淋漓尽致。自发布以来,它的生成速度已下降了40%,略高于每秒45个Token。背后的原因,也和DeepSeek如出一辙——为了在有限的算力下处理所有涌入的请求,他们不得不提高批处理的速率。此外,编程类的使用场景往往涉及更长的对话和更多的Token数量,这就进一步加剧了算力的紧张状况。无论是何种原因,像o3和Gemini 2.5 Pro这类对标模型的运行速度要快得多,这也反映出OpenAI和谷歌所拥有的算力规模要庞大得多。现在,Anthropic正集中精力获取更多算力,已经和亚马逊达成了协议。它将获得超过五十万枚Trainium芯片,用于模型训练和推理。另外,Claude 4模型并非在AWS Trainium上预训练的,而是在GPU和TPU上训练。速度劣势可由效率弥补Claude 的生成速度虽然暴露了其算力上的局限,但总体而言,Anthropic的用户体验(UX)要优于 DeepSeek。首先,其速度虽然偏低,但仍快于DeepSeek的每秒25个Token。其次,Anthropic的模型回答同一个问题所需的Token数量远少于其他模型。这意味着,尽管生成速度不占优,用户实际感受到的端到端响应时间反而显著缩短了。值得一提的是,在所有领先的推理模型中,Claude的总输出Token量是最低的。相比之下,Gemini 2.5 Pro和DeepSeek R1 0528等模型的输出内容,「啰嗦」程度都是Claude的三倍以上。Token经济学的这一方面揭示出,服务商正在从多个维度上改进模型,其目标不再仅仅是提升智能水平,而是致力于提高「每单位Token所承载的智能」。随着Cursor、Windsurf、Replit、Perplexity等一大批「GPT套壳」应用(或称由AI Token驱动的应用)迅速流行并获得主流市场的认可。我们看到,越来越多的公司开始效仿Anthropic的模式,专注于将Token作为一种服务来销售,而不是像ChatGPT那样以月度订阅的方式打包。参考资料:https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/
  • 🌈炸金花边打边做记号方法🌈适合父亲节朗诵的诗歌(通用20首)

    在日常学习、工作或生活中,大家都听说过或者使用过一些比较经典的诗歌吧,诗歌节奏上鲜明有序,音谐韵美。还苦于找不到好的诗歌?下面是小编收集整理的适合父亲节朗诵的诗歌(通用20首),欢迎大家借鉴与参考,希

    2025-07-05
  • 🌈两庄一闲137公式打法🌈写给环保部门的建议书

    在发展不断提速的社会中,需要使用建议书的事情愈发增多,建议书是人们发表意见,提供建议的一种工具。那么你有了解过建议书吗?以下是小编为大家收集的写给环保部门的建议书,欢迎大家分享。写给环保部门的建议书1

    2025-07-05
  • 🌈看日韩大片ppt免费ppt🌈我的叔叔于勒续写优秀范文

    导语:在圣玛洛号上,父亲将福音书撕成了碎片,像扔那牡蛎壳一般抛进了一望无际的大海。以下是小编为大家整理的我的叔叔于勒续写,欢迎大家阅读与借鉴! 我的叔叔于勒续写(1) 父亲和母亲看起来很恐惶,母亲脸色发白脾气很躁,父亲只是不停地抽烟。我心里也

    2025-07-05
  • 🌈女荷官话术100句🌈部门聚餐新颖通知

    公司聚餐是非常普遍的公司活动,那么,部门聚餐新颖通知怎么写呢?以下是小编提供的一些部门聚餐新颖通知,供大家参考哦! 部门聚餐新颖通知(一) Dear all: 大家好!劳累了一周的工作,各位辛苦了! 为了营造轻松惬意的氛围,增添凝聚力,同时也让我们工作之余更

    2025-07-05
  • 🍉姐的联系方式和联系方式🍉描写高中老师的作文四篇

    在生活、工作和学习中,许多人都写过作文吧,作文是从内部言语向外部言语的过渡,即从经过压缩的简要的、自己能明白的语言,向开展的、具有规范语法结构的、能为他人所理解的外部语言形式的转化。那么问题来了,到底

    2025-07-05
  • 🍉开云体育🍉假如再有一次机会作文(通用20篇)

    在学习、工作或生活中,大家总少不了接触作文吧,作文要求篇章结构完整,一定要避免无结尾作文的出现。相信写作文是一个让许多人都头痛的问题,下面是小编精心整理的假如再有一次机会作文,欢迎大家借鉴与参考,希望对大家有所帮助。  假如再有一次机会作文 1  当生命的泉水再也流淌不出昔日的意绪,当茫茫的人海再也见不到你熟悉的身影,风雨兼程,再也没有人与我同行......  我木钠地站在那儿,我不知道是为了什么。天阴沉沉的,没有一丝的生气。风在狂乱地

    2025-07-05
  • 🍉戒赌最火一句话🍉最让我愧疚的人叙事作文

    新春大雪,连绵三日。 弟弟还懒着暖暖的被窝不肯起床,而爸爸的房间早已空无一人,昨天连开门的声音也没听见,相必是加班了一夜吧。 白色的世界一片寂静,雾气茫茫,走到跟前,只见咳嗽声,却不见人。几声沙哑的咳嗽,在雾里翻了几个跟头,就稳稳地立在了我

    2025-07-05
  • 🍉短剧《老千》免费🍉演讲比赛的优秀作文

    经过两天刻苦训练,我把演讲稿背熟了,并能自由发挥了。知道我为什么这么努力吗?告诉你吧!我要代表市政府和其也单位的代表进行演讲比赛。我可不能给市政府丢脸呀! 今天,我随爸爸来到了市政府一号会议室,准备参加大会。 上午9时,大会开始。主持人笑盈盈

    2025-07-05
  • 🌈三边是什么意思🌈关于细节的议论文7篇[集合]

    无论在学习或是工作中,大家都不可避免地会接触到论文吧,论文的类型很多,包括学年论文、毕业论文、学位论文、科技论文、成果论文等。你知道论文怎样才能写的好吗?下面是小编为大家收集的关于细节的议论文,供大家

    2025-07-05
  • 🍉无痕记号怎么做出来的🍉假如我会克隆小学作文集合15篇

    在学习、工作或生活中,大家对作文都不陌生吧,作文可分为小学作文、中学作文、大学作文(论文)。你所见过的作文是什么样的呢?下面是小编精心整理的假如我会克隆小学作文,仅供参考,大家一起来看看吧。假如我会克

    2025-07-05