编译|恃奉献以谋索取:科技巨擘、数据殖民主义与社会产品的重构
2021-04-17 16:13:08
  • 0
  • 0
  • 1

作者:汪浩东   来源:Politicall理论志

恃奉献以谋索取:科技巨擘、数据殖民主义与社会产品的重构

摘要:

大型高科技公司最近领导并资助了若干个声称使用数据加密技术来创造社会福利的项目。本文探讨了这种由数据化衍生出的社会产品。这些产品的公益性是通过对企业公共传播和专利申请的分析得出来的,而这些举措则取决于社会福利的数据、概率和利润的重新配置。文章认为,在数据殖民主义的框架内可以更好地理解这些举措。本文将行善重新视为数据殖民主义的一个侧面,阐明了这些社会福利项目对于自由的危害,以及剔除这些科技巨擘的殷勤的必要性。

作者简介:

Nick Couldry,伦敦政治经济学院传播学系

Joao Carlos Magalhases,洪堡国际互联网与社会研究所

文献来源:

Magalhães, J. C., & Couldry, N. (2021). Giving by taking away: Big tech, data colonialism, and the reconfiguration of social good. International Journal of Communication, 15, 20.

本文作者 Nick Couldry, Joao Carlos Magahases

引言

新冠疫情的危机为拥有大量数据处理资源的人提供了空前的机会让他们可以要求拥有特权来解决一些社会问题。诸如通过联系人跟踪应用程序、通过AI管理稀缺的医疗资源,又或者是AI驱动的人口追踪。事实上,将数据驱动的计算机系统用于社会福利的想法在新冠疫情爆发之前就已经出现了。诸如数字人道主义(Digital Humanitarianism)或者大数据发展(Big Data for development)之类的概念都蕴含着社会公益的性质。本文探讨了数据传播可能带来的社会福利。

如果将社会产品的生产始终作为知识和政策的参考点,那么这是构建社会现实的一个关键方面。同时,本文将数据殖民主义作为一个更大的理论框架来理解这种新兴形式的社会公益形式。当将科技公司的行善重新考虑为数据殖民主义时,即对社会领域进行重新配置,以便可以最大程度地提取数据以获取经济价值时,这种良性的做法似乎会更加系统地危害社会。

背景与批判:通过数据化帮助弱势群体

本文的第一个批判性的观点表明,数据化(Datafication )破坏了它本会帮助的人们的基本权利,不断地跟踪和自动执行原本不会被跟踪或自动执行的生活维度。精心策划的分类技术和做法会放大现有漏洞,即使它们运行良好。例如,对难民进行侵入式生物识别注册可能会增加人道主义组织的责任感,但这忽略了未受保护的个人可能遭受的隐私侵害,使他们受到迫害和骚扰。而这些直接危害无法用实践和技术本身来解释:它们植根于政治经济动态。

鉴于这样的数据实践在发达国家已经被普遍开发,并正在较贫穷的国家进行部署,因此许多作者将殖民主义视为理解它们的最佳框架。有些人将较早的发展和人道主义定义重新定义为全球南方和全球北方之间持续的统治关系。按照这种观点,欧美的数字集团类似于现代帝国,它们通过不平等的资本和数据流来施加其文化和价值。

图:扎克伯格在听证会

社会知识的企业化

私营公司为特定领域中的众多社会行为者和关系提供数据,特别是人道主义和国际发展,往往会产生有害的后果。但是,社会知识(Social Knowledge) 的企业化(Corporatization) 绝不限于这些领域。阐明这一更广泛的企业化过程也说明了数据化正在如何改变各地的社会产品。

如今有关个人的数据早已不再是一种公共资产,而越来越多地由私人出资、收集和分析。这个过程具有悠久的历史根源。同19世纪工业资本主义的到来所要求的社会关系的转变一样,通过国家支持的公民信息收集和统计分析,社会知识也发生了重要的转变。

在21世纪,社会知识的新变革正在进行中,它不再是由政府驱动,而是由企业所推动的。自1980年代以来,对日常生活的商业知识的大量增加现在使各国对社会主题的了解相形见绌,商业平台的出现加速了这一变化。这种转型赋予了新的企业型参与者以更大的力量,使其对社会生活更可追踪,更易处理。这种新的社会治理模型具有模糊的局限性。

一旦建立了社会关系图 (Social Graph),似乎人与人之间的互动就都会受到企业干预的影响:数据驱动型干预这一概念意味着要实现数据化的社会产品。在全球北部和全球南部都发现了这一过程,说明这并非新殖民地时期所独有。

在这种情况下,对于社会产品(Social goods) 的定义几乎无处不在,这使得特权社会行动有了一个新的领域,其中有些行为者很强,而另一些行为者却很弱。强大的参与者(通常是企业而不是政府)是有权使用大规模资源进行数据收集,存储,分析和交换的参与者。

弱者则是强者有权对其采取行动的人。弱点可以采取多种形式:对社会服务的潜在依赖,其提供的条件是那些行为者进入数据抽取关系。拥有用于收集,存储和处理数据的最少资源;并且更容易受到数据驱动的判断结果的影响。

但是更广泛的地理差异仍然很重要。在全球范围内,强者与弱者之间二分法的另一个层面出现了:成为一个国家的穷人和/或弱势公民,整体上更容易受到网络数据提取的伤害。如果某些民族国家缺乏大规模的数据参与者,强大的数据收集,处理和存储基础设施以及连接能力较弱的基础设施,则它们很容易受到数据提取的影响。

而且这种差异所造成的后果则被描述为脆弱性矩阵(matrix of vulnerabilities)。其中一些被当作数据驱动的社会产品计划的目标,而另一些则成为最终的经济受益者。该矩阵产生的特定漏洞与从新殖民地域继承来的不平等关系相互关联,但与它们并不相同。

本文认为,这是社会产品数据化基础的过程:公司权力在社会知识生产中的深入嵌入,这超越了解决主义(Solutionism),因为它重新配置了整个领域其中社会问题变得众所周知,需要“解决方案”。作为这种机会的特权受益者,一种新型参与者脱颖而出:全球数字技术公司,这些公司已成为了解数据化与社会产品之间关系的主要经验基地。

科技巨擘的社会部门

归功于全球影响力和市场主导地位,科技巨擘们的决策和行动涉及多个领域,它们影响了数十亿个人,并制定了无数其他组织复制的标准。这样的大型组织因此提供了一个横向的视角来理解社会公益与数据传播之间正在出现的关系。

在这里,科技巨擘(Big Tech)被理解为是公众话语中被认为是科技领域的领军企业。通常是指的北美的互联网巨头们,特别是谷歌Google,苹果Apple,脸书Facebook和亚马逊Amazon(GAFA),偶尔还会还有微软Microsoft(GAFAM);作为世界上最古老的数字技术集团之一,IBM有时也被视为该集团的一员。

图:GAFMA:Google,Apple,Facebook,Microsoft and Amazon

这些公司中哪些扩张活动与社会公益有关?这个问题带来了一些问题,因为Google和Facebook长期以来一直将自己定义为目标与他们的用户完全一致的公司。但是,通过浏览他们的公司网站,我们很快意识到,这些公司中的大多数似乎在组织结构内都有一个特定部门:社会部门(Social Division)。所谓的社会部门,是指这些硅谷的科技公司或多或少有一类将自己定位为帮助弱势群体而非获利的目标的部门。尽管这些部门并没有涵盖那些公司与社会公益有关的所有行为,但它们共同的自称意图使它们具有可比性。

这些部门的名称可以模仿非政府组织的身份(Google.org),明确地表达目标(微软的慈善事业(Philanthropies )),说明其目标人群(亚马逊的“我们的社区(Our Communities )”),或者就像Facebook和IBM那样直白地在其名称之后添加社会公益(Social goods)一词。苹果公司看起来与众不同,苹果公司并没有一个单一整合的社会公益部门,同时苹果所开展的一系列捐赠和协助活动中也似乎并没有数据的收集和挖掘。因此,作者将苹果排除在本文的研究范围之外。

科技巨擘对社会产品的定义

本文认为,当使用旨在帮助弱势个人的数据分类技术时,大型科技公司倾向于将社会福利视为数据化的(Datafied),概率性的(Probabilistic )和盈利性的(Profitable )。

数据化的社会产品

本文引据认为,在科技巨擘的眼中,社会产品通常是被认为与收集的数据的数量,类型和间距成正比,并且是可以被收集的。在这里,数据的缺乏被视为障碍,且危害了社会产品的可行性。掌握数据的必要性涉及不同的策略(比如收集和共享),甚至有理由要求决策者使用其资源和影响力来构建有关弱势人口。

类似激进性建议的争议性质提醒着我们对于数据化产品首要考虑是隐私和安全风险问题。然而,由于没有任何迹象表明科技巨擘们应该对监控弱势群体以及通过何种隐私等级施加具体的限制,因此这种保护似乎只是敷衍了事。

最显著的一个例子便是非营利组织使用Facebook的数据工具所带来的价值。Facebook鼓励组织们通过其一类列的功能中的“人口统计”和“兴趣”来“了解”和“定位”其帖子的受众。

我们可以将其视为数据化社会中日常数据实践的一部分,但这是我们感兴趣的基本假设:做社会公益可简化对已经由平台数据化的交互进行计数和解析。新颖性不是非政府组织需要不懈地进行自我营销,而是假定成功实现其(可能是多种多样的)目标的营销依赖于一家公司控制的数据处理流程。

概率性的社会产品

概率化产品的想法也源于数据整理的融合以及任何旨在帮助弱势群体的尝试。数据化不仅取决于将生活的各个维度转化为数据的需要,而且还取决于通过预测性计算系统,通常是概率语言,来理解这些数据。

本文认为不仅仅是说大技术公司采用或支持基于概率系统的社会公益项目,而是要论证一旦对社会公益进行数据化,其实现就开始被理解为必然是概率性的。与数据化商品一样,概率商品的假设通常被认为是理所当然的,这在模糊而又经常性的对人工智能和机器学习的提法中提出了。但是,当对概率进行明确辩论时,它与这种社会公益概念的复杂联系就变得更容易衡量。

在此作者列举了两个例子,Facebook的自杀预防工具(Suicidal Prevention Tool)和微软的荷鲁斯计划(Project Horus)。

Facebook 的自杀预防工具是一个识别有关自我伤害的帖子的平台。通过应用程序的识别并由工作人员审核,并显示支持选项,例如提示与朋友联系和帮助热线电话号码的提示,以帮助到可能有自杀倾向的用户。

然而,如果想确保捕获到每一个表达自杀意图的帖子,那么Facebook将要审查平台上发布的每篇帖子,但是当然这是不可能的。正如Facebook员工所述的那样,机器学习本质上是概率性的,因此永远不可能确保其使用时100%的准确性。

用机器学习的术语来说,这是一个如何设置阈值(Threshold)的问题。如果降低了阈值,那么更多的帖子将需要更多的人来审查;更多的帖子将不太可能采取行动;这带来了不成比例的人工审稿人查看无关的职位的风险。如果提高了阈值,这些帖子将越准确,对内容进行人工审核的人员就越少;但这也就冒着丢失本应标记和查看的内容的风险。

图:Facebook的的自杀预防工具(Suicidal Prevention Tool)

Facebook这个做出社会公益决定的会得到与他们的初衷相悖的结果,某种伤害的可能性。可以肯定的是,没有任何能够帮助弱势群体的尝试能够取得成功。这是一个新的先验假设,即这个社会公益项目将在一定比例的情况下失败,这不是由于缺乏资源,而是因为在机器学习中,准确性(作为做好事的基础)始终如此。

复杂的大规模现象(比如新冠疫情),因为其复杂性过于庞大,以至于概率推理包括唯一可能的选择。但自杀不同,从社会学作为一门学科开始,自杀是一个相当容易理解的问题。在使用数据加密与使用其他更传统,更有效的精神健康支持形式之间,这里存在着一种折衷的操作。例如,如果说Facebook专注于推广和资助当地的预防自杀热线,而不是采用机器学习,那么或许可以挽救更多的生命。

荷鲁斯计划是是微软与阿根廷萨尔塔省政府之间的合作开放的一项检测系统,旨在将人工智能应用于预防少女怀孕和辍学率。该项目依靠对贫穷妇女和儿童的习惯和身体进行监测,以期建立关于她们的全面认识。然后,这些数据通过智能算法进行了分析,可以使系统识别出可能导致青少年怀孕和辍学率提示问题的特征,并报告给政府,以便他们可以采取预防措施。

该项目因其对脆弱人群的全面监视以及与反堕胎运动的联系而受到批评。即使没有这些问题,它如何从概率上理解社会公益的模棱两可仍然存在。正如该项目的一位创建者说的:“我们开发的模型通过试点测试的准确性水平几乎达到90%”。

那我们不禁想问,剩下的10%又如何呢?在什么基础上可以说他们不应该得到政府的帮助呢?同样,很难理解为什么这种新方法应取代传统政策(例如,适当的学校,训练有素,报酬高的教师,普及使用避孕方法的方法)。

概率良好无视对“良好”的含义以及如何将其实例化的直观认识。并不是因为它涉及到对概率的关注-长期的功利主义道德方法也会这样做,并且大多数人在做出日常决策时都会计算某些结果的概率,但总是基于事先假设,而这会更好地适用于各种可能的结果。

相反,在科技巨擘的方法中,问题在于,有可能的行善与有必要允许某些伤害发生之间的关联会自动从算法知识的概率概念中流出来,算法知识的拥护者选择了数据配置的社会物品作为其支持者,并以此产生了社会知识的模型。

盈利性的社会产品

就像承认资本主义和伦理之间的矛盾关系一样,科技巨擘的社会部门渴望将与公司的商业模式划清界限。然而事实上,他们所开展和支持的项目似乎与这些公司的主要目标不可分割,那就是创造利润。

因此,巨头们所期望数据化可以做的一些社会产品实质也是一种有利可图的公益形式。这种假设呼应了对慈善组织的最古老,最普遍的批评之一,即,它们以变相代表了资本主义。大型科技公司的实践与众不同之处在于它们是从做社会公益的行为中直接创造经济价值的。

最明显的一点便是:这些项目在科技巨擘的营销策略中的作用。决定既可以使这些举措具有可见性,又可以通过不断定义公司的道德目标所驱动的身份的方式来描述它们,就证明了这一点。更系统地讲,这种营销策略可以理解为不仅试图提高公司的道德地位,而且要清理其业务模式所依赖的方法。

如果数据化的社会产品真的可以拯救世界,为什么还要担心它的危害呢?当科技巨擘的社会公益项目用作公关工具时,它们最终将会服务于经济,而非社会。而根据不同公司的商业模式,不同数据化社会产品的实践又不尽相同。在此列举了科技巨擘的四种做法。

第一种做法将社会产品和商业产品纠缠在一起。就如同Facebook那样,它的大多数社会产品项目都建立在其平台之上,并且经常受到适用于这些平台中发生的其他行为的类似技术和法律安排的约束。

第二种做法则是免费提供服务与产品,并通过用户的使用来收集了大量有价值的个人信息。比如谷歌的G Suite教育版,通过向各个国家的学校免费提供谷歌的软件服务(比如Gmail,云端硬盘,文档,表格)以及低成本笔记本电脑Chromebook以获取用户的行为信息。

如果说Facebook和谷歌的两个案例都面临着尽可能多地收集数据的问题,那么有的项目将把社会公益与提高他们产品购买力的计划联系起来。亚马逊的Alexa技能挑战:技术造福(Alexa Skills Challenge: Tech for Good )邀请开发人员用过构建应用程序来对环境,当地社区和世界产生积极影响。当然,要参加这个项目,你首先必须要使用亚马逊的语音助手Alexa。

图:亚马逊的智能音箱Echo,用户需要此设备才能使用语音助手Alexa

另外,社会产品的开发也会为巨擘们带来潜在可盈利的非数据资产,比如专利。在上文中的提到的预防自杀工具便是Facebook利用社会产品项目发明可专利技术的一个案列。

社会产品与数据殖民主义

到目前为止,我们的论据是,大型科技公司不但积极参与使用数据整合来实现社会公益,而且这种参与还实现了另一个隐藏的,更为重要的目标:即对社会本身进行逐步重新配置。它以某种方式将那些大型高科技公司定位为社会问题解决方案和社会知识的特权提供者。这些大型高科技公司提供的社会问题解决方案和知识具有三个特征:

首先,它们是经过数据处理的;其次,通过数据化,它们通常是有概率性的;第三,由于它们是大型商业公司的产物,因此它们的最终目标依然是获利。这种新的由商业驱动的社会产品的生产尚处于发展的初期阶段,但已经标志着社会生活领域的权力和治理发生了深刻的再平衡。

拥有大规模数据权力的公司因此而享有特权,并使国家和公民社会的参与者依赖于这些集团公司。其结果不仅仅体现在数字化的解决方案,更是对社会干预手段的重新塑造。因此一种特定类型的数字化解决方案似乎是社会干预的唯一选择。

社会产品不是一个自然而然的产物,而是一组社会建构的参数。通过这些参数我们可以评估我们在社会范围内采取的行动的后果。社会产品的企业化对如何认知,理解和治理社会生活产生影响。

我们现在将这一过程与数据殖民主义(Data colonialism)相结合,尤其是数据殖民主义与历史殖民主义之间最深的连续性:一种共享的理性概念,即通过一种读取所有现实中的异质性的方式来减少人类生活世界。

大型科技公司虽偏安于世界的一隅,却能受益于非常特殊的资源集中,并以此来判断世界上所有社会都应该如何解释和解决社会问题。鉴于殖民的历史,这是一种惊人的权力掠夺,一种以单一的数据驱动逻辑来观察世界上所有社会的异同,同时这一逻辑还主张科技巨擘们在世界的任何角落进行干预都是合理的。而这正是为什么很少将数据驱动的解决方案作为社会问题解决方案的一部分来提供的原因。

作为一种解决方案,它应该是一种用于定义和解决社会问题的新语言的表达,该语言可以替代所有其他语言。但是在数据驱动的逻辑下,人们对于这一替代社会知识行为的意愿被无视了,在此过程中人们也忽略了他们自己对于社会产品这一概念解读的自由。

数据殖民主义理论提供了一个更大的框架,可以用来把握社会产品的数据化。综上所述,数据殖民主义理论提出的建议是,当今世界上发生的一切数据构成了殖民主义的一个全新的阶段:一种可以与原始的领土土地掠夺相提并论的资源提取行为。这种新的土地掠夺目标不是针对有形的土地和土地从中流失的资源,而是针对人类生活本身,通过数据提取技术将其吞并并转化为资本。

随着数据殖民主义的发展,不仅改变了人与数字的关系,而且也改变了社会知识的生产方式。在数据殖民主义之下,资本主义开始想象经济以外的事物。它独特的社会知识形式描述了一个与经济生活共存的社会世界, 而不是将社会关系嵌入于经济体系中。随着人们的生活通过数据转化为资本的原材料,社会关系成为经济体系,或者说成为了经济体系的关键部分。

数据对一社会知识的改变源自于数据所包含的双重性质,既具有经济价值,又具有潜在的知识来源。这一转变的结果是人类在社会世界中的主张自动地转化为在该世界中数据应该做什么的主张,从而为领导或帮助生产此类数据的实体创造了未来价值。通过这种方式,社会福利项目进一步扩展了数字平台的殖民冲动,使得社会以资本生产为己任,而不仅仅是像数字平台一样煽动社会活动来 可以优化通过数据产生的价值。

但同时,不断增长的数据生产又可以重塑社会生活的整体以及寻求整体管理的治理工具。因此,数据生产的水平本身就成为社会福利的指标。而拥有丰富数据的互联网巨头们则被设置为特权参考点,不仅用于召集社交活动,而且还用于塑造和管理社会未来(比如谷歌“Don’t be evil”的理念)。

数据殖民主义的合理性并没有触及到这个社会中的另外一个维度。那便是一个兼顾且重视弱势群体对新的社会知识生产的态度,而不是直接由科技巨头们来衡量数据并采取相关行动的世界。

因此,对于数据殖民主义所主导的社会产品而言,数据殖民者看重的不是这些社会产品项目的执行情况是好是坏,而这些工作都已完成。通过实施这些项目,只需创建新的社会领域,数据殖民主义就可以进一步扩展到该领域,进而有可能将国家之间的关系转变为它们所统治的范围并确立经济行为优先于人类福祉的价值观。

结论

殖民主义从来不只是单纯地为了经济利益而不断地开采资源。殖民者的野心也不仅仅旨在通过暴力和武力掠夺来达成统治。殖民的宗旨是在于转变被称为殖民地的领土的知识和可管理性,并美其名曰为传播文明。

当科技巨擘和它们的社会部门部署数据化的服务来设计社会产品时,经济利益和道德理想也在这里相互交融,但又有所不同。正如我们所证明的那样,帮助弱势群体这一举动本身就是一种剥削。这种矛盾渗透到了文中分析过的所有项目中。

实现数据化的,概率性的和有利可图的社会福利取决于在社会知识和个人主观性方面强加某些不自由作而为明显保护某些自由的代价。这样的项目依赖于人们对于自我定义的能力的否认,并因此扩展了数据殖民主义。

同时,本文也探讨了社会产品数据化的弊端。这不仅仅是由科技巨擘的故障或疏忽引起的事故。这些损害本是这些公司运作方式的一部分。这是理性的自然结果,从本质上讲是殖民地的理性。也是其商业模式的基础。因此,没有道德准则可以确保通过此类数据化项并真正实现社会福利。

只有根据殖民主义对权力和知识的长期斗争,审查通过大型数据公司集中或由大型技术公司支持的通过大规模数据处理解决社会问题的整个项目,才有可能让数据化的社会产品真正实现用之为民。

 
最新文章
相关阅读