【新唐人北京时间2025年07月11日讯】中国大陆人工智慧软体“DeepSeek”,今年年初推出时使用率一度达50%,但目前暴跌到只剩3%。有分析指,35万敏感词的内容过滤,导致DeepSeek成为“知识荒漠”与“表达牢笼”,从而挤压着用户体验和创新空间。
大陆媒体快科技7月9日报导,DeepSeek今年初问世时,它的使用率从达50%,目前暴跌至3%,下滑态势明显。
另外,原本预计今年5月推出的DeepSeek-R2,其推出时间却一拖再拖,有业内人士表示,DeepSeek-R2迄今未能推出,是由于DeepSeek-R1是基于OpenAI已有的、来自全球且经过认证的训练数据生成,而R2对训练数据的需求量更大。
但中国国内可提供R2训练的数据质量不高,导致R2在使用过程中“幻觉体验”问题十分严重。所谓“幻觉体验”问题,是指当大型语言模型无法给出准确答案时,有时会创造虚假资讯。
报导表示,另一个原因导致DeepSeek-R2延迟推出,是高端绘图处理器(GPU)严重不足,令DeepSeek的训练效率大幅降低,拖累了R2的更新进度。
中国权威的全球投资研究平台“格隆汇”分析,DeepSeek的翅膀被35万敏感词硬生生地拽下来了,正是内容过滤系统导致的“知识荒漠”与“表达牢笼”,正在无声地挤压着用户体验和创新空间。
网易作者“昨夜军贴”分析认为,回顾Deepseek坠落的轨迹,35万个敏感词构成的“内容滤网”,成为压垮骆驼的关键稻草。
在使用DeepSeek时,当用户查询触及法律、历史、医疗等领域的特定词汇,系统会触发熔断机制。要么是系统忙碌请耐心等待,要么是“咱们换个话题”直接忽略跳过,即便费劲拿出了一堆解释,但也是左替右换后的词义模糊,难于自圆其说。
另外,中共当局的过度审查,也被认为是限制DeepSeek发展的主要因素之一。
据业内人士透露,DeepSeek工程师不得不将30%的精力用于设计规避敏感词的算法补丁,产品经理需预判数百种内容审核风险场景。这种非技术性损耗,直接拖累了模型核心能力的迭代速度。
根据路透社取得的一份美国政府内部备忘录,美国国务院与商务部官员正通过一系列中英文标准化问题,测试中国主流AI模型是否回避敏感议题,或是否使用符合中共语调的制式回应。
备忘录指出,近期测试聚焦于阿里巴巴的“Qwen 3”及“DeepSeek R1”模型,评估其对于南海主权、天安门事件、维吾尔人权等议题的应对态度。结果显示,这些模型倾向使用“维护社会稳定与和谐”等语句回避争议,甚至直接重申中共立场。
备忘录更指出,随着模型版本升级,其内容审查机制愈加严格,显示中国AI开发者正加强确保产品符合中共宣传方针的要求。
(责任编辑:文彬)