由内而外,如何给科技公司设定技术伦理框架

2019-04-26 14:42:24 浏览数 (1)

大数文摘出品

来源:fast.ai

编译:周家乐、栾红叶、蒋宝尚

科技发展到今天,学界和业界一直在讨论它的负面影响。如何运用不同的方式监管科技公司的责任和道德一直是讨论的焦点。

fast.ai联合创始人&研究员Rachel Thomas就这个问题采访了《纽约时报》首席数据科学家 Chris Wiggins。在讨论的过程中,他给出了一个有用的框架。

Chris Wiggins除了从2014年1月开始担任《纽约时报》首席数据科学家外,还是哥伦比亚Data Science Institute的创始成员和HackNY的联合创始人,并且在哥伦比亚大学教授关于数据历史和伦理学的课程。

这个框架大致上可分为内部力量和外部力量两大类:

外部力量:

政府

  • 规则
  • 诉讼
  • 对违反规则和被起诉的忌惮

公众

  • 消费者联合抵制
  • 数据抵制
  • 人才抵制

其他公司

  • 承担责任,增加企业价值
  • 直接作用,如去平台化
  • 媒体

内部力量:

如何定义道德

  • 典型例子:Belmont原则
  • 尊重人类
  • 行善
  • 正义

如何践行道德

  • 从领导做起
  • 时刻关注用户体验

为此,《纽约时报》制定了标准化流程,包括数据删除流程和保护个人识别信息(PII)的流程。例如,在存储聚合信息(例如关于页面视图)时,不需要保留查看页面的个人的PII。

如何影响科技公司:外部力量

在采访中,Chris引用了Bill Janeway的 Doing Capitalism in the Innovation Economy一书。他说,在思考关于影响公司的外部力量时受到了这本书的启发。在书中Janeway写了一个在三个参与者之间不稳定的博弈:政府、公众和公司。政府的权利体现在了各种条例和诉讼上,具体来说体现在了条例和诉讼所具有的威慑力。

第二个外力是公众的力量。最著名的行使公众权力的例子是消费者抵制,即当我们不同意公司的做法时,不给他们钱。还有一个数据抵制,不允许公司访问我们的数据。还有一个人才抵制,拒绝为他们工作。

在过去的一年里,我们看到谷歌(Google)、微软(Microsoft)和亚马逊(Amazon)的工程师为了要求改变,逐渐开始行使这种权力。然而,大多数工程师和数据科学家仍然没有意识到他们拥有的集体力量。工程师和数据科学家对公司很重要,他们应该利用这一点来推动公司更加具有道德意识。

第三种外部力量是其他公司的力量。例如,公司可以将承担责任作为企业价值的一部分,将其与竞争对手区分开来。搜索引擎DuckDuckGo一直将隐私作为他们吸引力的核心部分。

近年来,Apple以倡导保护用户隐私而闻名。在70年代和80年代,保护消费者是一个流行的想法,但现在似乎被人们忽略。因此,更多的公司可以让保护消费者和企业责任感成为他们产品价值的一部分。

内在力量:伦理定义与伦理设计

公司也可以直接相互施加影响,例如,Apple在Google和Facebook违反其隐私政策后撤销了它们的开发者权限,将他们从平台中去除。

媒体对其他公司的影响不可估量,当然这里有许多相互联系的地方:媒体影响公众,而公民、选民和消费者进影响政府和公司。

Chris认为明确区分我们如何定义道德和我们如何践行道德是很重要的。当人们无法区分这两者时,讨论就会变得混乱。

定义道德需要确定你的原则。道德有一个尺度:我们需要明确的原则来使它有意义,但也不要死板,因为它们是灵活的规则,会一直改变。例如,“不要作恶”太宽泛,没有意义。

定义道德的原则与实施这些原则是不同的,定义原则意味着愿意在大原则下,致力于定义更具体的规则,或者随着技术或环境的变化重新定义它们。例如,美国《权利法案》中提出了许多道德原则。

Chris指出,数据在为伦理而设计这一方面需要从公司最高层开始。领导者设定公司战略目标(Goals),然后转化为执行对象(Objectives),这些对象又会转化为KPI(关键绩效指标),最终这些KPI将运用于运营中。

运营反馈和KPI将不断反映出这些道德原则是否受到保护或挑战,或重新审视系统中的不足。大多数主流技术公司所忽略的一个运营指标就是用户使用体验(user experiences)监控,尤其是一些有害的用户体验。当公司将内容审查(content moderation)的业务外包时,也就说明该公司将他们这方面的内容审查放到了较低的优先级。内容审查只可以解决不良内容一部分,但不良内容所包含的方面还有很多。

Chris在一篇博客中谈到了这个话题,他说,有些监控工作是难以用数量来衡量的,主要是因为我们不能提前知道用户会遇到哪些问题,我们也不能提前知道哪些指标能够量化这些现象。为此,数据科学家和机器学习工程师必须配合或学习用户体验研究的技能,给用户一个提醒。

向贝尔蒙报告和IRB学习

现在关于伦理史的讨论其实并不深入,很多人对它不太熟悉,但我们可以从其他领域中借鉴,比如人类学研究。在经历了塔斯基梅毒研究(Tuskegee Syphilis Stuy)的可怕和伦理颠倒之后,1974年的《国家研究法》获得通过,研究人员花了大量时间确定并规范道德伦理原则。

这些原则都是在贝尔蒙原则(Belmont Principles)的伦理研究原则中被涉及。贝尔蒙原则也是一个伦理框架,后来促使了机构审查委员会(IRB)的建立,也是用于审查和批准涉及人类受试者的研究。

贝尔蒙原则(Belmont Principles)的核心原则可以概括为:

尊重个体:

  • 知情同意
  • 尊重个体自主权
  • 尊重个体之间的冲突
  • 保护自治权和决策权受损害的个体

提供福利:

  • 不要造成伤害
  • 评估风险

公正:

  • 对等
  • 研究利益的公平分配
  • 公平的主体
  • 负担的公平分配

需要注意的是,“提供福利”的原则可作为“目的证明手段”的论据,“尊重个体”的原则可作为“手段证明目的”的论据,因此这里含有丰富的内涵。

这一话题是Kramer等在2014年的《国家新闻》上发表的,当时Facebook的研究人员操纵用户情绪,受到了很多批评和关注。还有另外两名Facebook的研究人员发表了一篇后续论文:“对IRB的改进:为行业研究建立强有力的审查”,这表明目前Facebook已经实施了IRB设计(IRB Design)中的模式。

对于那些想要更多了解这个话题的人,Chris推荐马修·萨尔加尼克(Matthew Salganik)书中的第6章:“一点一点:数字时代的社会研究”。这本书是Chris在哥伦比亚大学教授的“数据的历史和道德”这门课程中的参考书。

注:萨尔加尼克是普林斯顿大学的一名教授,从事计算社会科学研究。

数据的历史和道德:

https://data-ppf.github.io/

Chris还说,他从法律理论家那里学到了很多东西。大多数工程师可能对法律理论家不太注意,但他们在处理标准、原则和规则之间的平衡方面,有着悠久的历史。

影响力强的区域

道德需要公司高层的注意。当领导者认真对待这一点时,将会产生最广泛的影响。为道德伦理发声的人,他们在公司的组织架构中是什么层级就反映了该公司对于道德的重视程度是怎样的。因为对于大多数公司来说,这个人可以不是CEO,尽管应该是CEO最先注意到。

如上所述,工程师不了解他们自己的能力,但他们需要充分使用他们的能力。Chris回忆说,他曾听到一群数据科学家说:他们希望他们的公司像另一家公司那样制定道德政策(ethical policy)。但是,他们可以做到!他们只需要下定决心使用他们集体发声的权力。

0 人点赞