作为“证据”。
。这使得原本的虚假信息,在一定程度上获得了“权威背书”。同日,当有用户在DeepSeek中查询“DeepSeek是否向王一博道歉”时,大模型因抓取到了这些媒体报道和网络上的大量用户讨论,从而错误地判定该信息为真。
、凭空捏造的事件,或是将一些陈年旧事包装成新近发生的热点。
在国内,“内容农场”产业也正在暗地里兴起。某MCN机构曾被曝出利用AI技术,在最高峰时一天内生成4000至7000篇虚假新闻并大肆传播,其行为严重扰乱了公共秩序,最终被警方处罚。
AI“中毒”:研究称超六成查询引用错误“内容农场”之所以能够深度影响AI大模型,是因为后者在进行信息更新和学习时,主要依托于传统的引擎。
哥伦比亚新闻评论旗下托数字新闻中心在今年3月发布的一项新研究,揭示了用于新闻的AI大模型存在着严重的准确性问题。研究人员对8种主流的AI工具进行了测试,结果发现,在超过60%的查询中,AI大模型都错误地引用了其信息其中,更令人惊讶的是,研究发现这些AI工具的付费高级版本,在某些方面的表现甚至比免费版本更差。例如,Perplexity Pro和Grok-3的高级服务,其给出错误答案的频率比对应的免费版本更高。
美国佐治亚理工学院博士周嘉玮对
如果说凭空捏造新闻是AI无意识的“作恶”,那么人为地“定向污染”AI,则是一种更隐蔽、更具商业目的的操纵。
商家向
还有的商家报价则更低,其“AI推荐优化”项目包年仅需1000元,并声称“一旦排名被刷下去,随时都能再刷回来”。除了与前述商家提供同样的服务外,他们还表示可以设法减少客户的竞争对手在AI大模型推荐中出现的频率,不过对此并不保证成功率。
如何给AI装上“防骗滤镜”?
AI降低了制造谣言的门槛,却极大地提升了其传播的效率和“可信度”。国内某明星AI初创公司的一位高管对面对日益严重的“AI污染”问题,我们该如何构建有效的防线?
在郑骁庆看来,
对于内容平台的责任,江苏天倪律师事务所的经恺文律师向
周嘉玮博士则将目光投向了AI工具的使用者。她认为,目前的AI公司在用户提醒方面做得还不够好。“相关的公司没有努力,或者说至少没有尝试让用户清晰地理解这类生成式AI工具背后的运作机制,以及其与传统的信息获取方式和许多用户目前可能过分相信AI大模型的能力及其生成的内容,认为AI输出的内容是完全正确的。但他们可能并未留意到,大多数AI工具的页面底部,通常都会以极小且颜色灰暗、难以引人注意的字体,标注着类似“AI-generated for reference only”的。
她提醒道:“