一些学者现在警告说,那些对民主进程的攻击只会变得越来越聪明,越来越具有颠覆性,特别是因为许多社交媒体用户的匿名性使得很难将事实与在线虚构分开。

牛津大学的 计算宣传项目 研究了无数社交媒体操纵的例子,最近发表了一份报告 ,称“在社交媒体平台上操纵公众舆论已成为对公共生活的重大威胁”。

在麻省理工学院技术评论的一篇文章中,牛津互联网研究所的博士候选人和计算宣传项目的研究员Lisa-Maria Neudert认为,机器人帐户的日益复杂化 – 自动化,人工智能的饲料伪装成真实的人 – 意味着更糟的是还会到来。

对于民族和政治运动来说,建立一个机器人账户大军是一个简单的过程,可以在线放大某些观点。

而且这不仅仅是重复发布虚假新闻或极端主义观点。它可能比那更微妙:分享和喜欢真实账户中的内容,增加交互池,从而游戏算法并煽动争议的火焰。

目前,发现一个虚假的社交媒体帐户相对容易,就像很容易检测到由AI编制并由语音合成系统叙述的YouTube视频一样。

假帐户往往由关键字触发,并参与样板响应。这些迹象包括笨重的语言,重复的帖子,默认的个人资料图片 – 也许还有对弗拉基米尔普京的坚定支持; 所有明显的线索。过去一年,Twitter已经开始取消数百万个可疑账户。

但随着时间的推移,这些配置文件将变得更加智能和回避,特别是在自然语言处理方面的进步。令人担心的是,推动亚马逊的Alexa,谷歌的 双工和微软的Cortana 的人工智能技术可以帮助机器人轻松地将自己作为人类传递出去。

许多科技巨头已经为开发人员提供了自然语言处理的开源算法,为新一波令人信服的宣传机器人打开了大门。

视频也越来越容易伪造,人工智能和图像处理系统能够创造出相当令人信服的镜头,让人说出他们从未说过的话。随着这些技术变得越来越复杂,发现假货将变得更加困难,这意味着我们可能开始失去区分证据和虚构事实的能力。