为什么Cambridge Analytica丑闻比往常更重要

博士学位 专门研究技术使用的学生,我在Facebook上做了很多研究。 我在国际心理学家会议上发表讲话时甚至亲自见到了最近在剑桥分析公司(Cambridge Analytica)声名卓著的亚历山大·科根(Alexander Kogan)博士。 当我第一次听到Cambridge Analytica引起的骚动时,我以为是黑客入侵了Facebook的服务器,或者该公司的某人从某人的筹款者那里窃取了财务信息,并在黑市上出售。 但是,令我感到惊讶的是,发现公众对社会科学家经常使用的程序感到愤怒,而且-如果做得正确-符合Belmont报告的道德标准,该标准保护了美国参与者免受剥削。 关于如何进行社交媒体研究,如何获得同意以及Facebook和其他类似平台的运作方式,已经出现了一些严重的误解。 尽管我不必宽容Facebook的行为,但我想消除其中的一些误解,以免社交媒体研究过程因恐慌而停滞不前,以便也许更多的人会阅读精美的印刷品。之前

他们究竟获得了什么数据?

尽管我从来没有去过Facebook(在上一轮实习面试后就被裁掉了),但我对Facebook收集的数据以及诸如Cambridge Analytica之类的外部方如何使用它非常熟悉。 从本质上讲,Facebook仅真正具有您明确赋予的功能:您的图片,您的个人资料信息,喜欢,您的朋友关系以及您发布的任何文本信息,例如状态更新,评论或私人消息。 此信息存储在您的帐户下,并且您可以通过称为API(应用程序接口)的访问权限来访问这些信息。 您可以在常规帐户设置下自己从Facebook下载它。 但是,所有这些都是要查看的大量数据,即使使用Cambridge Analytica的270,000个用户子集,您也可以放心,没有人会阅读您的私人消息来确定您是自由还是保守。 取而代之的是,Facebook可以对同意告诉Facebook他们的政治倾向的人进行样本的大规模分析,并找出喜欢的方式,用词或社交关系通常与不同的职位相关联。 然后,他们可以以此为基准,根据自己的喜好和认识的对象来预测您在政治领域的地位,这一过程称为机器学习。 正如许多人所注意到的那样,这些预测可能非常准确,但远非确定性的。 这些类别是根据多人数据的集合而形成的,并且试图以每个人都无法准确地将其传递出去。 添加了其他一些较新的功能,例如面部识别,但是(正如我的朋友在我的图片中多次被标记为其他人可以证明的那样),它们还有很长的路要走。

他们是怎么得到的?

您知道您在Facebook上同意的测验将告诉您您是什么迪士尼公主吗? 还是每次登录时都会弹出“星座运势”的应用程序? 这些是您可以在Facebook上添加的微型插件,它们实际上是由Facebook外部的第三方创建的,无论是Horoscopes.com还是Candy Crush之类的游戏。 您知道该简短而烦人的页面会在您尝试登录该应用程序时打扰您,并显示“此应用程序将有权访问…”,其中包含诸如电子邮件地址,您的位置以及该应用程序的权利之类的列表发布到您的墙上? 这就是如何。 Kogan博士只是创建了一个名为“这就是您的数字生活”的应用程序,该应用程序准确地宣传了其所做的工作-根据您在Facebook上的行为来确定您的个性,并向您细分主要特征。 您明确授予它执行此操作的权限,并且为此,您授予了它对API的访问权限。 该方法已被包括myPersonality Project在内的多个研究实验室用来收集数据,并且只要它们告知您该信息将用于研究,则该方法是合法的,并且与Facebook的服务条款一致。

但这是道德的吗?

贝尔蒙特报告(Belmont Report)的第一项原则被称为“对人的尊重”,这是美国学术界用来指导对人类受试者进行道德对待的文件。它指出,除其他外,参与研究的人有权知情同意 ,或对研究以及如何使用其数据有充分的了解。 由于该应用程序现已从Facebook上删除,因此尚不清楚是否显示了脚本,向潜在参与者详细介绍了所需信息。 由于Kogan博士与剑桥有联系,因此在进行研究时,很可能是机构审查委员会(IRB)或类似实体要求他这样做。 但是,最有可能的信息将仅包括在原始研究中。 您会看到,“这就是您的数字生活”的创建是根据位置(我曾参加过Kogan的演讲的主题)来研究个性和其他因素。 但是,据剑桥大学的一份声明,据报道,Kogan随后将其应用更名,收集了更多数据以出售给Cambridge Analytica,后者随后将其用作定位政治广告的基础。 这将违反Facebook的服务条款,但不违反剑桥的政策,因为Kogan保证在这项新研究中不使用任何大学资源。

“我们以前曾向Kogan博士寻求并获得保证,没有任何大学资源或设施以及为他的学术研究收集的任何数据都没有用于他与GSR (Kogan的个人业务) 的工作或公司与任何其他方的后续工作 [即,Cambridge Analytica]

我们从Kogan博士了解到,他最初创建了一个用于学术研究的Facebook应用; 但是,他指出,当该应用程序重新用于GSR时,它被重新命名并以新的条款和条件发布,并且很明显这是商业研究,而不是学术研究。”

—剑桥大学关于亚历山大大学亚历山大·科根博士的声明,2018年

更重要的是,这将违反对“尊重人”原则的大多数解释。 尽管参与者(大概)同意将其数据用于Kogan公司的数据,但他们并不一定同意被Cambridge Analytica使用。 这可能就是为什么科甘(Kogan)将相同数据用于进一步的学术研究而遭到剑桥大学IRB拒绝的原因(请参阅下面的声明),前提是他们使用的道德准则与美国相似。 但是,除非Facebook知道这种信息交换,否则无法确定他们做错了什么。

“ 2015年,Kogan博士向大学申请了道德批准,将代表GSR收集的数据用于他的学术研究。 他的申请经过审查,随后被拒绝。”

—剑桥大学关于亚历山大大学亚历山大·科根博士的声明,2018年

当然,这不是Facebook第一次因为不太明显的同意程序而陷入麻烦,这是另一个故事。 关于其政策特别成问题的是,应用程序会选择从参与者的朋友那里获取数据,而他们自己并不同意该应用程序。 然而,具有讽刺意味的是,Facebook在2015年停止这样做,具有讽刺意味的是,在执行“这就是您的数字生活”项目之后。 此外,Facebook创始人马克·扎克伯格(Mark Zuckerberg)最近在国会面前的证词表明,人们对Facebook如何处理数据存在严重误解。 扎克伯格被问到他们保留了多少个“数据类别”,而实际上诸如“自由”之类的任何类别都来自事后对数据执行的预测算法。 他被问到他的平台如何支持自己(可能暗示他正在出售数据),个人是否正在阅读人们的私人消息(机器学习使这没有必要)以及他是否计划让他们选择限制数据发布的方式(除非个人通过同意登录应用程序授予访问权限,否则不会释放数据。 如果您感到被利用,那是因为Facebook和Facebook应用程序的创建者知道用户倾向于不阅读精美的印刷品和协议脚本,并且被动地单击“我同意”以获得短期满意的趋势。 如果您感到被观看和操纵,那么您会忘记多年的政治和市场研究,这些研究决定了何时在电视上投放广告以及针对哪些群体进行定位以便获得最大的响应。 这与往常一样—仅仅是由于您现在在互联网上发布的大量个人信息,广告商可以比以往更好地管理您的业务。