假新闻不是问题,您的思想是

诸如Facebook,Twitter,Youtube,Instagram和Reddit之类的服务已成为我们日常生活的基石,从与朋友保持联系,阅读新闻,发现理想的度假目的地或享受原创内容开始,社交媒体革命对用户大有裨益。 。

当扎克伯格于2004年创立Facebook时,这是满足世界需求的绝佳解决方案-连接每个人,并使交流和共享更好。

许多人预言,社会革命将使个人传播思想和世界观,吸引志趣相投的人,并使信息生态系统基本民主化,当时该信息生态系统由多家媒体和新闻公司控制。

从那以后,Facebook和Twitter在全球范围内的许多政治活动中扮演着重要角色,例如引发社会运动,帮助组织抗议活动,推翻极权政权,以及总体上发出更多声音。

引入广告业务模型后,消极方面开始发挥作用,这涉及粘性和吸引更多眼球,增加转化率,最大化收入,将用户利益置于一边,以及改变这些公司的激励和道德指南。

将AI添加到混合中

AI和广告的合并是自然而然的,并被证明可以根据多参数预测在正确的时间,正确的时间向正确的人提供正确的广告。

广告服务AI会不断监控我们的兴趣和行为,并保留有关我们的性格特征的详细记录。

可以说,今天的分析AI比我们更了解自己。 在用户抱怨Facebook展示出令人惊讶的特定广告的现象中可以找到一个证明,然后声称Facebook在未经同意的情况下录制他们的声音(https://www.independent.co.uk/life-style/gadgets -and-tech / news / facebook-listening-listen-does-is-microphone-app-phone-mark-zuckerberg-a8299281.html)。

现实可能更简单,并且可以通过合法收集的大量个人数据,外部数据源以及极其准确的AI建议加以解释。

然而,这些事件凸显了AI与用户和内容交付相遇时出现的问题。

谷歌,脸书和推特投入了数十亿美元用于数据和AI基础设施的研发,并雇用了数百名博士,因此很容易看到它们如何取得令人惊讶的强劲成果。

假新闻不是真正的问题

自2016年美国大选以来,我们经历了从政治争议到外国政府为社交网络提供武器并进行直接人群操纵的各种活动。

可以声称出现症状的条件是正确的-基于AI的社交媒体的徒劳基础和丰富的个人数据使对手很容易抓住机会。

假新闻和Tweet服务器场已被大规模使用,以注入精心设计的内容,这些内容在适当的时间到达适当的人,并产生了预期的效果。

这些方法与我们每天接触的定向广告方法没有什么不同。

真正的问题是我们的数字领域是Google和Facebook拥有的大量个人数据和AI技术,这些技术主要用于赚取更多广告收入。

打击假新闻是一种隐喻和有症状的方法,它指责眼前的嫌疑人,并试图解决最明显的问题,这使我们从应向Facebook,Google和Twitter提出的深层问题中脱颖而出。

很难想象,即使没有传播煽动性内容的假新闻和tweet机器人,老练的对手也可以找到使用真实新闻,突出真实tweet以及散布分裂性和争议性消息的方法,这些消息将再次到达正确的人群。正确的时机,将具有针对性的社会工程的预期效果。

你的想法很容易破解

我们的大脑是一个决策机器,可以处理来自世界的感官输入,并试图建立一个准确的心理模型来采取行动。

一旦我们的信息摄入包括Google,Facebook和Twitter,我们的输入就会产生偏差,我们的世界观,信念,心态和行为也会产生偏差。

人为骇客或人为骇客是Yuval Noah Harari博士在描述一个AI可以高度详细地了解人类心理内部运作并将其用于自己的目的的世界时创造的一个术语。

(完整的采访:https://www.wired.com/story/artificial-intelligence-yuval-noah-harari-tristan-harris/)。

在讨论入侵人类思维的概念时,我们并不是在谈论科幻小说和好莱坞电影所描绘的类似催眠的状态思维控制。

真正的危险是微妙的,潜意识地接触精心设计的消息,这可能会影响我们的世界观,对产品,主题和人群的态度。

例如,最近的Harward出版物声称我们的购买意愿是95%的潜意识

早在2016年,Facebook被抓到对其用户进行心理实验(Facebook在新闻源实验中激发用户的情绪,动摇了喊叫声),这表明了这些公司在理解人类心理上投入的水平,愿意与之互动,以及易于无意识地操纵用户的便利。

该怎么办?

批判性思维和事实检查对验证我们的信念极为重要,但正如历史和研究表明的那样,人们比我们倾向于想象的更容易受到社会工程和情感操纵的影响。 我们倾向于甚至我们中最有逻辑的人都可以持有非理性,矛盾,有时有害的世界观。

保护我们的思想之所以艰辛,仅仅是因为我们对自己的大脑和心理学的内在运作知之甚少。

一种更实用的方法是在用户端使用新型AI,以与社交网络和搜索引擎正在使用的AI相抵触。

虽然公司AI的动机是通过任何方式增加广告收入,但用户端AI可以监视提要给用户的提要,建议和搜索结果,并在尝试对用户进行操作时采取措施。

透视卫队项目

几个月前,在了解了社交媒体中发生的事情之后,Cambridge Analytica社交工程,人工智能的新趋势以及所有这些趋势可能会在什么方面据Yuval Noah Harari,Sam Harris和其他人说,我和几个朋友开始考虑如何创建工具来保护自己和他人免受潜在的在线世界观操纵,因此我们开始着手进行一个名为Perspective Guard的附带项目。

我们花了一些时间研究参与Cambridge Analytica的人格理论(尤其是5个人格特质模型:https://en.wikipedia.org/wiki/Big_Five_personality_traits),并且社会交往的实用方式变得对两极分化的群体更加偏爱和敌视,主要关注愤怒文化,部落主义,仇恨言论,假新闻和其他威胁等现象。

我们想出的是一个在浏览器中运行的AI解决方案,它可以分析用户接触到的帖子,tweet,subreddit和其他文本内容。 AI正在跟踪内容的性质,以确保您不会接触到可疑的高水平内容,而这对思维定势和世界观没有负面影响。

有关该项目的更多信息,如果您想参与其中,请访问https://perspectiveguard.com或给我们发送电子邮件至hello@perspectiveguard.com