科技巨头如何应对机器人和错误信息

社交媒体漫游器和错误信息可能影响我们的政治对话的想法并不是一个新概念。 “选举黑客”一词已被众多新闻媒体和权威人士抛弃并滥用,以描述机器人和垃圾新闻在社交媒体上的使用及其对美国,英国,德国,法国及其他地区选举的潜在影响。 在美国大选期间,无数人抱怨机器人接管了Reddit,反对克林顿的文章和亲特朗普的文章,并接管了一些评论部分。 这本身让人感到不安,但在真正令人恐惧的地方迈出了一步,这表明,这种对政治对话的攻击不仅可以在现实世界中发生,而且可以由国家赞助的组织来组织希望影响全国大选结果的演员。

在英国,国会对“假新闻”的调查要求Facebook和Twitter交出有关俄罗斯相关广告的信息,这些信息可能旨在影响英国退欧公投中的选民。 数据分析公司Cambridge Analytica是Trump,Cruz和Leave.eu广告活动的一部分(他们甚至向其提供免费服务),只是机器人,针对性广告和虚假新闻之间的众多链接之一在过去两年中试图操纵选民。 保守党议员达米安·科林斯(Damian Collins)向马克·扎克伯格(Mark Zuckerberg)写了“ 礼貌地要求 ”有关与俄罗斯相关的广告和帐户的详细信息,包括在广告上花费了多少钱,观看了多少次广告以及将Facebook用户作为目标。

Scout.ai撰写了大量有关武器化宣传可能对选举产生影响的文章,

“通过利用自动化的情绪操纵以及大量的机器人,Facebook暗帖,A / B测试和虚假新闻网络,一家名为Cambridge Analytica的公司启动了一种隐形机器,该机器以选民的个性为食,从而引起了公众舆论的重大转变。 。”

11月1日,Facebook,Twitter和Google都将在参议院情报委员会上作证,称涉嫌俄罗斯联系账户试图利用其平台影响2016年大选。 在听证会之前,我们决定看一下Facebook,Twitter和其他科技巨头如何对抗由机器人和宣传操纵其平台的行为。

脸书

在已经断定“假新闻”是其网络上的一个严重问题之后,Facebook最近雇用了PolitiFact,FactCheck.org,Snopes.com,AP和ABC News来帮助在整个网站上发布事实检查文章。 用户可以将故事标记为不真实,然后机器学习算法会在网站上拖曳看似虚假的故事,并将其添加到队列中-如果两个事实检查人员将故事标记为假,则Facebook会将其标记为有争议。 在2016年总统大选期间及之后,众多专家暗示,假新闻是导致特朗普指控的部分原因。 但是,Facebook透露的新信息表明,正在开展更为微妙的数字运动。

Facebook向国会调查员承认,它已经向一家试图影响选民的俄罗斯公司出售了广告。 在2016年总统竞选的关键时期,与俄罗斯有联系的Facebook账户购买了约15万美元针对美国选民的政治广告。 Facebook的首席安全官亚历克斯·斯塔莫斯(Alex Stamos)称,与大约3,000个广告相关的大约470个帐户已建立关联,并且“可能在俄罗斯境外运营”。 这些广告中的绝大多数并没有具体提及任何政党,候选人甚至选举本身,而是旨在放大“紧迫的社会和政治问题,例如LGBT权利,种族,移民和枪支权利”。 1000万美国人在Facebook上看到了广告,这大约是在总统选举中投票的每12个人中的1个人。

选举后,Facebook对新闻订阅源实施了限制,这些新闻源共享具有一致点击诱饵标题的故事,并且页面上的块反复共享假新闻故事进行广告宣传。 由于算法的变化,许多较小的或独立的商店都发现流量受到了影响,并且有指控指称偏向可能不符合主流叙述的其他来源。 他们还清除了4月法国大选之前的30,000个虚假帐户,以及英国6月大选之前的数万个帐户。

我们在 计算 播客项目的Lisa-Maria Neudert的播客中讨论了社交媒体机器人的使用

推特

Twitter并没有采取Facebook决定采取的积极措施来打击错误信息和虚假帐户,反而最初非常不愿干涉其平台上的内容。 他们在2017年6月的一篇博客文章中认为,Twitter的本质意味着用户有机会实时进行事实核查,提供了不断更新的事实和信息花名册,其价值超过了任何故意的宣传或“垃圾新闻” ‘。

“ Twitter的开放性和实时性是 对传播所有类型的虚假信息 有力解毒剂 这很重要,因为我们无法区分每个人的每条推文是否真实。 作为一家公司,我们不应成为真理的仲裁者。 记者,专家和敬业公民在几秒钟内就推特并排纠正和挑战公众话语。 这些重要的互动每天都在Twitter上发生 ,我们正在努力确保首先展示最高质量,最相关的内容和上下文。”

Twitter声称一直在扩展其团队,致力于监控和处理机器人的使用,

“我们一直在加倍努力, 扩大我们的团队和资源,并建立新的工具和流程 我们将继续滚动地迭代,学习和改进,以确保我们的技术在面对新挑战时有效。”

他们正试图从源头上解决垃圾邮件,确定推文的大量分发和用于将某些主题推到热门议程顶部的主题标签操纵。 Twitter在进行调查时会降低任何“ 潜在垃圾邮件或“帐户 ”的可见性,并将对滥用Twitter公共API来自动执行活动的帐户采取措施。

在最近的博客文章中,Twitter确认了他们继续“要加强Twitter防止尝试操纵,包括恶意自动帐户和垃圾邮件的操纵”的愿望 他们声称将不断改进内部系统,以检测和防止垃圾邮件和恶意自动化(尽管使用开放式API鼓励从其他应用和游戏中发布信息),并扩大了工作范围, “以教育公众如何识别和使用优质内容在Twitter上。”

在本月早些时候参议院情报委员会闭门简报后,参议员马克·沃纳(Mark Warner)(D)称Twitter共享的信息“ 不足 ”和“ 令人失望 ”。 他认为他们的证词“表明Twitter团队对这个问题有多严重缺乏了解”。

Twitter可以通过多种方式尝试更好地打击机器人。 纽约新学校的助理教授戴维·卡罗尔(David Carroll)表示,推特可以部署机器人检测工具来帮助用户识别自动帐户,印第安纳大学的学者建议推特可以要求某些用户证明自己是人类。在发布前通过“验证码”测试,否则Twitter可以使用户直接标记可疑的机器人帐户。

真相幻觉原理

遗憾的是,Twitter的实时纠正性质及其最近推出的反垃圾邮件措施,无法处理错误信息和“垃圾新闻”中最令人寒心的部分,也无法进行Facebook追溯标记和事实检查信息的任何尝试。 几天后,仅仅听到虚假陈述就可能使我们认为该陈述实际上是真实的,从而改变了我们对现实的看法。 这就是所谓的“真理的幻象”。 “真理的幻象”原理向我们表明,人们更容易记住虚假陈述为真实,而不是真实陈述为虚假。

心理学家格雷厄姆·戴维(Graham Davey)在1997年进行的一项研究旨在检验新闻节目轰动性的负面影响。 他发现负面(通常是夸大)的故事增加了测试对象的焦虑和担忧。 此外,在《 应用社会心理学 》( Applied Social Psychology)一书中,研究表明,“较轻的观众比本地新闻的重观众更容易感到恐惧,并担心社区犯罪率”。 虽然这些理论最初是在对传统媒体的研究期间发展起来的,但很难将其适用于社交媒体。

有关允许使用的内容实际上有多严重的社交网络的调查和重新评估正在进行中,YouTube和Reddit等网站也试图以自己的方式处理“不良”内容。 YouTube正在争议性地将其认为具有争议性的内容视频降级,而Reddit更改了首页算法,以防止被r / TheDonald等特定子Reddit操纵,甚至甚至禁止讨论Pizzagate。

不良行为者,无论是独立的还是国家赞助的,都已经认识到社交平台的巨大力量,它们消耗了我们太多的日常生活,现在已经成功地利用它们来操纵舆论。 他们对选举的影响程度,所使用的确切方法以及这些竞选活动背后的州或出资者仍然模糊不清,可能永远无法完全理解。 在我们不能有效地对抗这种现代形式的信息战和大数据驱动的宣传之前,我们每个人都有责任了解我们在哪里,什么以及如何消费新闻,媒体和信息,以免我们成为寻求颠覆我们的民主。

如果您喜欢在这里阅读的内容,可以在 Facebook Twitter Instagram 上关注我们 以了解我们所涉及的所有内容,或者 在此处 注册我们的 邮件列表 如果您想听听我们的更多信息,可以 此处 查看我们的播客, Chatter 或在iTunes上订阅我们