生成式 AI 出现之后,擦边内容制作的门槛在降低。
在现代技术的助力下,这些低质内容的传播力得到了空前强化,这些谣言的说服力也迎来了空前强化,这些谣言的伪装性同样迎来了空前强化。
可以说。
技术在不断发展,一场“认知战争”正在打响,这场战争没有硝烟,却与所有人都息息相关。
头条用魔法打败魔法
今日头条所发布的《2024年度治理报告》指出。
2024 年,平台拦截的不实信息超过 500 万条。平台封禁了造谣、传谣等违规账号 4.77 万个。平台处置的低质量 AI 内容超过 93 万条。平台封禁、禁言了相关账号超过 2.9 万个。平台处罚了同质化发文超 781 万篇。平台封禁、禁言了违规账号超 6.3 万个。
今日头条作为内容资讯平台,有责任且有义务让我们的用户能够看到真实的信息,同时也能看到有用的信息。在相关报道里,今日头条内容策划负责人刘姗姗这样说道。
对于平台来说,虚假、低质内容的出现会对平台生态造成破坏,并且会降低优质创作者的更新积极性;对于用户而言,虚假、低质内容的出现不但会影响自己对事件的认知,还可能对我们的深度思考能力以及道德价值判断产生影响。
所以在这场认知战争里,平台承担着内容的保管和审核工作,它们必须要走在前面,奋勇向前。 平台作为内容的保管方,就需要履行好保管的职责;平台作为审核方,就必须要严格地进行审核工作,它们必须冲锋在前,为这场认知战争做出贡献。 平台既要保管好内容,又要审核好内容,在这场认知战争中,它们必须冲锋在前,发挥重要作用。
今日头条为此推出了自身的相关举措。其一为谣言库,其二是权威信源库,其三是专业审核团队。并且基于这些举措展开了一场“用魔法打败魔法”的反击行动。
大模型依托谣言库建立,能够利用关键词抓取和内容比对等方式迅速验证信息真伪;权威信源库的存在,不但有助于谣言库和审核人员进行信息判定,还可在定位谣言后实施精准辟谣;人工审核团队与 AI 审核机制相搭配,使平台内部“风险发现 - 风险识别 - 风险处置”的治理流程更加灵活且可靠,在守护原创空间的同时净化了用户的阅文环境。
想要击败对手,就不能一味加固自己的盾牌,还要磨利剑锋。
今日头条官方为达成科普内容与权威内容的跨圈传播这一目标,与医学、法律等领域的专家展开合作,推出了《头条讲真的》项目,该项目会主动出击不实信息和劣质信息。最终,在维持优质内容增量的同时,它与上述辟谣系统一起构成了今日头条在认知战争中的“双轮驱动体系”。
抖音剑指虚假信息
1月26日,抖音发布了2024年平台治理报告。
报告内容表明,2024 年,抖音删除谣言的数量累计达到 452 万条;提前将谣言拦截下来的有 340 万条;对涉及企业的谣言视频进行处置的有 4.8 万条。
抖音针对老年人易受骗的情况,日均下架违规视频超过 5000 条。并且每日能够成功劝阻大约 1 万人。
需要注意的是。
抖音身为短视频平台,和今日头条不同,还面临着“摆拍乱象”的冲击。
谈及此事时,抖音集团的副总裁李亮曾明确表示:“实际上,识别摆拍这件事是治理的难点所在。并且,有些媒体有时候会错误地将段子当作新闻来进行报道。”
面对摆拍乱象,抖音的应对之策是“专项核实”。一旦某个事件达到特定的热度阈值,或者收到举报,平台就会联系当事人,或者邀请当地媒体来进行真实性核查。在尚未得出明确的调查结果之前,平台会暂停相关内容的推荐,目的是确保信息的真实性。
还要对无底线博取流量的行为展开打击行动。
据悉,目前抖音准备了安全与信任中心,以推动算法和平台治理的透明化。同时,针对网友们关心的不同问题,抖音推出了不同的治理方案。
比如。
抖音将针对争议内容扩大同权威媒体、机构的合作,并且在各类热点事件中强化人工研判与核实;抖音将针对优质内容加大扶持力度,预计到 2025 年使优质内容曝光量增加 300%;抖音将针对信息茧房进一步完善推荐算法,增强内容多样性探索、兴趣探索以及匹配等机制,以补充推荐信源。
学会让子弹再飞一会
要取得认知战争的胜利,一方面要靠各平台把好审核关;另一方面,用户自己构建大脑防火墙也十分重要。
举个例子。
近期,互联网上有这样的内容在广为流传:截至 2024 年末,80 后的死亡率突破了 5.2%,这意味着每 20 个 80 后当中就有 1 人已经去世了。并且还说 80 后的死亡率已经超过了 70 后。
我们进行了延伸搜索,发现这些借“80 后死亡率”来博取流量的内容,大多声称其数据来源是 2020 年进行的第七次人口普查。
那么问题就来了。
2020 年的一份报告,是如何得到“2021 年 - 2024 年的人口死亡数据”以及“80 后在 2024 年的死亡率、存活率”的呢?难道它具备了时空穿梭的能力?
中国人民大学的李婷教授在对内容进行溯源之后表明,这一错误信息的源头或许是 AI 对话。
总所周知,AI没有意识。
它不是掌握了和人类对话的能力,而是掌握了“词语接龙Plus版”。
AI 在互动时,往往会依据提示词以及对话的历史情况来进行延伸搜索,并且会在数据库中抓取与之对应的内容以进行回复。
如果用户提出的要求比较“抽象”,那么数据库无法锚定,就会出现“幻觉效应”,从而开始一本正经地说些不靠谱的话;或者它会被互联网上的非权威信源误导,在自己生成的结果中掺杂错误的数据或内容。
除此以外,那些怀有恶意想用 AI 截图来传播谣言的分子,能够通过“角色扮演法”以及“复读游戏法”等途径去生成特定的信息,从而混淆人们的视听。
这类情况的出现,恰好为我们敲响了警钟。
今天,有很多人对 AI 抱有一种错误的“信任”,他们盲目地认为 AI 给出的内容和数据都是绝对准确且权威的。
殊不知,AI也会犯错,AI也会被人操控。
在复杂的网络生态环境之下,每个人都将亲身经历认知战争并且参与其中。若要获得最终的胜利,一方面内容平台自身需要强化审核机制,另一方面我们每个人也应当在大脑中构建起“信息防火墙”。在按下转发键之前,要学会让信息多停留一段时间,就如同“让子弹再飞一会”。
参考:
观察者网称,今日头条在 2024 年拦截的不实信息数量超过 500 万条。同时,今日头条处置的不友善内容达到 3 亿条。
北京商报:当平台治理遇上AI挑战,今日头条分享“经验包”
新京报称抖音有年度治理报告,其中提到不当言论的展现量下降了 63%,并且抖音将会建立安全与信任中心。
每日经济新闻报道,抖音采取行动,打击网络暴力及谣言,整治“信息茧房”等,同时推进算法和平台治理的透明化。
光明网称:每 20 个 80 后中就有 1 人去世?这是谣言!造成这种情况的罪魁祸首或许是 AI。
警惕!全网热传的 AI 截图可能正在成为新的谣言制造机,这需要科学辟谣。
本文源自微信公众号“互联网那些事”,作者为互联网那些事,36 氪获得授权后进行了发布。
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:http://www.mjgaz.cn/fenxiang/274606.html