本篇文章1500字,读完约4分钟
最近,麻省理工学院计算机科学和人工智能实验室宣布与卡塔尔计算研究所合作开发一个人工智能系统,该系统可以识别信息源的准确性和个人政治偏见。
据报道,实验室研究人员使用这种人工智能系统创建了一个包含1000多个新闻源的开源数据集,这些新闻源被打上了真实性和偏见的标记。此外,人工智能系统对它所评估的媒体有着广泛的上下文理解,不仅从新听到的文章中单独提取特征值,而且考虑到维基百科和社交媒体,甚至根据url和网络流量数据的结构来确定可信度。人类与虚假新闻的战争旷日持久。这个新的人工智能合作伙伴会帮助人类更快地获胜吗?
这并不难,但需要丰富数据源
谈到艾未未的这一能力,中科视觉(北京)科技有限公司首席执行官刘欣表示:相关实践并不难。我认为这是一个非常基本的文本分类。通过引入这一系统,我们可以判断各种新闻是真是假,是否有偏见。这是一个基本的算法,就像在图片中标记猫和狗一样,我们可以对它们进行分类,然后我们就可以识别新图片是猫还是狗,所以这是一个相对简单的文本分类技术。
虽然这个原则并不难,但也不难实现。谈到实用性,刘欣认为,决定人工智能监控假新闻效率的关键在于识别数据的大小是否足够大,假新闻的来源和数量是否足够丰富。为了成功判断新闻是否是伪造的,用来训练人工智能的假新闻数据库必须足够大。
二是如何从新闻文本中提取信息,是使用简单的分词技术还是高阶文本语义理解。有足够多的虚假新闻可供学习,采用文本语义的信息抽取方法可以使人工智能更有效地工作,并保证准确性。刘欣说道。
这个新的人工智能系统在扩展数据量和考虑不同趋势的数据方面做了有效的改进:根据介绍,维基百科和推特已经被添加到系统的预测模型中。正如研究人员所说,维基百科页面的缺乏可能表明一个网站不可信,相关页面也可能提到这个问题的政治倾向。此外,他们还指出,没有经过验证的推特账户,或者使用新创建的账户发布的消息,如果没有明确的标记,也不太可能是真的。
为了消除假消息,人工智能不能手动来
不仅是这个系统,近年来用人工智能屏蔽虚假新闻的尝试也很普遍,许多大公司都参与其中。2017年初,facebook推出了有争议的标签。当网站上的一些新闻被认为是错误的,这个标签会出现在新闻下面,提醒读者。facebook使用人工智能来检查每天在Facebook上共享的数百万个链接,识别其中可疑的内容,然后将它们发送给事实检查器。当事实检查器确定它是假的,facebook将减少它的访问范围和它在用户信息流中的排名位置。这听起来很理想,但是在去年年底,facebook悄悄地放弃了这个标记功能,因为这种努力并没有带来太多的改进。调查可能的原因:至少需要两个事实检验器来确认一条消息是假的,并且这个应用过程太慢;对某些新闻给予特别的标记可以增强读者对它的印象;虚假新闻是有标记的,哪一部分是虚假的,或者不能被证实的新闻是不能被标记的。
尽管有各种想象的可能性,人工智能在检测虚假新闻方面确实有一些优势和成就,但核心障碍可能是,即使是人类也不能就新闻的真假达成一致,尤其是对偏见或倾向的判断。中国科学院自动化研究所研究员王金桥说,人工智能的判断结果是训练的结果,而训练的数据来自人。如果机器学习本身的数据是有偏差的,甚至是有偏差的,就很难保证人工智能的准确性。
众所周知,他们的人工智能系统只需要测试150篇文章就可以确定一个新的源代码是否可靠。它在判断一个新闻来源的真实性是高、低还是中等方面的准确率为65%,在判断其政治倾向是左倾、右倾还是中立方面的准确率为70%。目前,在大量模棱两可、讽刺和讽刺的政治话语中,机器似乎和人一样对如何判断倾向感到困惑。
标题:靠AI阻击假新闻,或许没那么乐观
地址:http://www.ictaa.cn/hlwxw/5053.html