近期,有关“DeepSeek”因AI模型违规操作的消息传出,将王一博与“李爱庆腐败案”联系起来,公司对此事件已表示歉意。这一消息迅速引起了公众的广泛关注。然而,事件背后所揭露的内幕令人震惊,不仅揭示了新闻报道的混乱现状,而且进一步突显了当前AI大型模型所面临的严峻挑战。
道歉迷雾
多则报道透露了DeepSeek对王一博涉及违规关联事件的致歉行为,然而,根据虎嗅网的调查,并未有任何一篇报道能够确切地描述道歉的具体形式,同时,也未找到相关道歉声明的截图。令人费解的是,尽管如此,网络上各界的反应普遍是接受这一道歉,无论是自媒体、新媒体还是传统媒体,都纷纷对这一未经证实的消息进行了扩散。这种众多媒体集体受骗的现象,确实令人感到惊讶。
AI回答趋同
虎嗅就此事向多款AI大型模型进行了咨询,调查结果显示,这些模型的回答高度统一。它们普遍指出DeepSeek已经进行了道歉,并且引用了不正确的新闻链接。这类AI模型在缺乏独立判断能力、未对信息进行核实就随意引用的情况下,无疑对公众的认知造成了误导,进一步加剧了原本复杂的信息环境的混乱。
折射问题本质
该事件表面上看似乎只是一则常见的社会娱乐新闻,然而其背后所隐藏的问题实际上相当严重。这不仅揭示了新闻报道在核实事实上的不足,也暴露了AI大型模型所面临的挑战,这些问题甚至比所谓的“幻觉问题”更为复杂。模型甚至可以借助虚假信息生成新的虚假信息。这一问题的后果影响深远,波及众多领域。
“幻觉”缓解难题
近两年,人工智能的大型模型技术得到了快速进步;早期出现的“幻觉问题”得到了一定程度的缓解;这一改进主要得益于联网搜索和推理能力的提升。然而,与此同时,网络中虚假信息的泛滥现象愈发严重,即便是人类也难以迅速识别;在有效核查方面,人工智能的不足之处更加明显。因此,在生成内容的过程中,人工智能很容易受到虚假信息的误导。
降低工作效率
新闻工作者在尝试利用人工智能技术辅助写作的过程中,发现其工作效率并未出现显著提升。他们往往需要投入大量时间对AI生成的文本进行真实性验证。即便借助新闻网站等资源,他们仍需对信息进行二次核实。在与新闻从业者的交流中,许多人表示,运用AI进行写作的效率实际上可能不如手工写作。该现象表明,当前人工智能在新闻报道领域的运用效果尚未达到预期水平。同时,它也揭示了相关技术仍需进一步优化和提升。
提升准确率之需
该事件对人工智能及人类均产生了警示效应。人工智能在网络信息真假难辨的环境中需学会识别真伪,并提高生成内容的准确性,这样才能真正应用于实际场景。企业通过向大型模型注入特定的知识库,旨在减少错误答案的出现。同时,对于人类而言,若自行制造虚假信息,人工智能将无法给出准确的反馈。
在当前信息科技迅猛进步的背景下,一个至关重要的议题是:如何确保人工智能在处理海量数据时,能够精确地辨别出信息的真伪?我们诚挚地邀请您在评论区发表您的见解,同时,也请您不要忘记对本文给予点赞与转发支持!