近年来,在迅速的生成人工智能服务中,在线八卦还展示了多模式,高模拟和大规模的新功能。根据新闻与传播学院新媒体研究中心的报告,自2023年以来,人工智能技术的滥用使AI八卦的量增加了65%,这显着增加了网络管理的复杂性和竞争性。
面对这一挑战,该行业正在积极战斗,并利用AI来管理AI。 Doongin最近宣布,它将在其八卦平台上引入大型模型功能,以实现“ Discovery IS Control”,并最初开发大型且自动的管理功能。移动导致平台的八卦使谣言降至四分之一。
增长65%,下降67%。这两个数据显示的具有讽刺意味彩色使创建谣言变得更加容易,使管理谣言变得更好。
人工智能技术大大降低了内容的产生阈值,并且可以很好地综合和修改文本,图像,音频和视频等多模式信息。例如,在线谣言,例如“成年人可以从7月1日开始登上火车来获得折扣”和“ 80年代后每20个死亡中的一个”可能会误导公众并引起社交焦虑,因为他们的现实内容和迅速传播。
根据《美国科学杂志》的相关报告,虚假新闻传播的可能性比真实新闻高约70%。尤其是在紧急情况下,人工智能可以迅速产生和传播谣言,传统的手法验证和谣言反驳机制很难应对成倍增长的信息量表。
以前,通过依靠媒体曝光或机构来证明谣言,然后来管理谣言的平台,然后ER进入八卦数据库,进行审查和阻塞,并且处理过程通常在“天”中。如今,大型模型技术正在改变这一滞后。
以Doong为例,它使用的管理模型可以以一定程度的传播,提取基本视频信息和性能网络搜索来积极地识别内容,以验证其真实性。例如,当检测到诸如“成人折扣火车票”之类的可疑谣言时,该系统会自动连接到当局的交叉验证资源以完成风险的确定和处置。当前,单案例八卦的处理时间限制缩短为“时间级”。
此外,Doongin在今年9月推出了“ AI Doong搜索真相”功能,这将澄清信息以“寻找卡的事实”的形式形式,使用户能够对浏览现实进行内容审查。
尽管AI技术大大改善了管理ENT效率,其功能完全取决于现有数据和规则样本。一方面,SA的新类型或动态变化的阵线,尤其是“ AI幻觉”产生的非恶性错误信息,手动审查和强大的资源干预仍不会被取代。毕竟,随着大型模型技术的进一步发展,其知识也来自现有数据。另一方面,AI谣言通常具有跨平台和自动分发,并且很难在单个平台上治愈它们。
行业内部人士认为,为了实现有效的管理,需要“技术 +政策 +公共 +生态学”的多维合作机制:相关部门需要澄清法律责任方和AI生成内容的监管规则;媒体机构必须建立迅速的回应和道理的机制; DATAM的公开报告和股票也起着重要作用。
从我Nddustrial Chiew,AI管理不仅限于“拒绝谣言”,而是一个系统的项目,涵盖技术预防和控制,法律法规,公共合作和行业合作。将来,随着大型模型的持续重复和多模式检测技术的升级,AI管理效率有望提高。同时,如何提高AI道德标准,加强平台责任以及改善公众阅读和阅读信息也将是工业和政策层面上关注的长期问题。
(编辑:Li Yuan,Gao Lei)
遵循官方帐户:阳光金钱NG人
分享让许多人看到