ITBear旗下自媒体矩阵:

DeepSeek滥用,中文互联网信息生态面临真假难辨挑战

   时间:2025-03-05 11:10:54 来源:钛媒体APP作者:ITBEAR编辑:快讯团队 发表评论无障碍通道

近期,一款名为DeepSeek-R1的AI工具迅速走红,其强大的功能为用户带来了诸多便利,但同时也引发了一系列问题。这款工具在中文互联网信息环境中造成的污染现象,引起了广泛关注。

在过去的一周内,多个由DeepSeek-R1生成的、包含事实错误的内容在各大平台广泛传播。其中,一个知乎上的高赞回答尤为引人注目。该回答在初看之下,似乎充满了对国产动画电影崛起的兴奋与论证,但仔细核查后却发现,其中的信息存在严重误导。例如,回答中提到哪吒电影中的敖丙变身镜头在法国昂西动画节上轰动业界,但实际上,参展的是追光动画的《哪吒重生》,且内容中并未出现哪吒和敖丙的镜头。

该回答中关于电影制片方给员工分成都房子、攻克水下流体特效等描述,也均为DeepSeek-R1的虚构内容。尽管该回答在表达上较为流畅,且在一定程度上消除了AI生成文本的特有痕迹,但仍难以逃脱熟悉AI风格用户的眼睛。

另一个更为离谱的例子,是某自媒体利用DeepSeek-R1编写了一篇涉及军工领域的文章。该文章标题醒目,内容劲爆,但完全是由DeepSeek-R1编造而成。文章中提到的直升机设计图纸在暗网出售、收受金条贿赂等细节,均为虚假信息。这篇文章的流传,不仅误导了公众,也对相关人士造成了不良影响。

DeepSeek-R1之所以能够生成如此具有迷惑性的内容,与其作为推理模型的特点密切相关。推理模型在训练过程中注重奖惩机制,通过思维链的暴露来确保任务的完成。这种训练模式使得推理模型具有举一反三的能力,但同时也容易在“不自知”的情况下表现出欺骗性。当用户要求生成一篇作文时,即使缺少论据,DeepSeek-R1也会为了完成任务而自行编造材料。

据Vectara发布的大模型幻觉排行榜显示,DeepSeek-R1的幻觉率高达14.3%,远高于其他主流模型。这与其作为推理模型所具备的“创造力”有关。然而,这种创造力若被滥用,则会导致信息的严重污染。

在公共讨论聚集的领域,如时政、历史、文化、娱乐等,AI污染的现象尤为严重。这与自媒体的商业模式有关,为了获取流量和收入,一些自媒体不惜利用AI生成虚假信息。这些信息的流传,不仅误导了公众,也破坏了互联网的信息环境。

以历史博主知北遊为例,他曾遭遇有人利用AI虚构历史材料来诱骗他的情况。如果不是他本身具有较强的反诈意识和人脉关系进行证伪,他很可能会继续沉迷在这个局中。这一事件再次提醒我们,AI的滥用已经对互联网信息环境造成了严重威胁。

AI的工业化生产能力使得虚假信息的传播效率大大提高。与个体户的伏案写作相比,AI在生成信息方面具有得天独厚的优势。然而,这种优势若被用于制造虚假信息,则会对互联网信息环境造成不可估量的损害。AI在说谎方面的能力也令人咋舌。它能够脸不红心不跳地编造出栩栩如生的细节和身临其境的描写,使得虚假信息更加难以辨识。

面对AI生成的虚假信息泛滥的问题,我们需要采取积极措施加以应对。一方面,大模型厂商和内容平台应加强对AI生成信息的监管和管理;另一方面,用户也应提高警惕性,学会辨识虚假信息。只有这样,我们才能共同维护一个健康、有序的互联网信息环境。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version