谷歌Docs使用人工智能算法来建议编辑,这使得写作更具包容性。但也有人讨厌并抨击这种算法。
语言模型在谷歌文档中主要用于Smart Compose等功能;当用户输入时,它会建议单词自动完成句子。Chocolate Factory 现在想要更进一步推出“辅助写作”,这是另外一个人工智能驱动的系统,旨在帮助人们更快地写出更有力的文件。
算法更偏向中性词
Vice报道称,并不是每个人都喜欢被算法引导,有些人觉得它的“包容性语言”能力令人恼火。
像“policemen”这样的词可能会触发建议,模型会建议将其改为更中性的词,比如“police officers”。这种中性词的建议可以理解,但有时候,它的建议可能会有点荒谬。例如,它建议将“landlord”一词替换为“property owner”或“proprietor”。
谷歌发言人称:“辅助写作依赖于数百万个常用短语和句子来自动学习人们如何交流,同时它们也可以反映人类的一些认知偏见。我们的技术一直在进步,我们在尝试找到一个完整的解决方案,来识别和减少所有不必要的单词联想和偏见。”
AI的公平是复杂的
机器学习模型中的公平性被证明是一件难以衡量和改进的事情。
为什么?
首先,学术界对公平有21种定义。公平对不同群体的人有不同的含义。在计算机科学中被认为是公平的东西可能与在社会科学或法律中被认为是公平的东西不一致。
算法对不同社会群体的影响是不同的
哲学家约翰•巴斯尔(John Basl)说:“我们目前正处于危机时期,缺乏解决这一问题的道德能力。试图解决公平问题是困难的,不仅因为人们对公平的定义难以达成一致,还因为一个应用程序的解决方案可能不适合另一个应用程序。”
IBM:伦理是企业采用人工智能技术的主要障碍
IBM首席执行官 Arvind Krishna说:尽管人工智能是未来,但他对在现实世界中部署其巨大的能力很谨慎。是啊,这就是为什么华生没有完全意识到。
他在《华尔街日报》采访时表示:“我们大概只占(人工智能)发展的10%。今天的数据量如此之大,我们知道人类无法处理所有数据。像分析和传统数据库这样的技术只能走这么远。”
当前,我们已知的唯一可以从数据中获得洞察的方式就是人工智能。目前消费者已经接受了它,接下来就是等待企业接受。当然,企业也正在面临挑战,例如机器学习模型中存在偏见或技术使用不公平。
“我们需要解决道德问题;我们必须确保过去所有的错误不会重演;我们必须了解人工智能的生命科学;否则我们会创造出一个怪物。当然,我对此保持着非常乐观的态度,未来我们可以解决所有这些问题。”