技术并不是恶的化身,只是对人性恶的又一次考验。
一直以来,关于AI技术和AI伦理的争辩从未停止,这也是不断有“技术向善”诉求表达出来的社会现实背景。
或许《黑镜》的编剧怎么也没想到,故事中的“戏言”终于一语成谶。
在第四季第二集中,为了更好监护自己的女儿,一位母亲给她的眼睛植入了芯片控制器,自己可以透过一个类似iPad的硬件查看其身体的各项生命体征,也可以转播它的视觉信号。
换句话说,她的母亲可以通过iPad监控她的女儿。
冰冷的机器给人定性
抵御AI“入侵”迫在眉睫
如今,这种场景没有出现在亲子之间,而是真实出现在了课堂之上。
近日,一组课堂上学生课堂行为分析的视频截图在微博引发热议,这张图片再次刺激了用户对于在AI技术笼罩下,保护个人隐私倍感无力的神经。
照片中,摄像头通过计算机视觉算法获取两名学生的课堂表现,并以标签的形式计算出“听讲、阅读、举手,趴桌子、玩手机、睡觉”等动作次数,截图显示该技术方案来自旷视科技。
趴桌子2次、玩手机2次、睡觉1次、听讲0次、阅读0次、举手0次、笑了0次、厌恶表情出现了10次……
最后机器可能得出一个综合结论:她这是个有问题的孩子。
用机器去给人定性,AI是否已经过度入侵人们的生活了?是否已经成为当今社会新的枷锁?
事实上,随着AI技术获取门槛的降低和智慧课堂概念的兴起,包括好未来、新东方等诸多教育企业都将AI技术应用在对学生表情、肢体动作的识别中,来了解学生对学习专注的情况。
这类应用的设计之初,只是为了帮助老师了解课堂授课反馈情况、帮助学生提高学习效率。但同时,学生个人信息数据被大量获取和存储,也引发用户对隐私安全的担忧。
可以看到,AI发展至今在人权和隐私权等权利的保护方面仍然缺乏清晰边界,同时缺乏相关法律法规对AI应用更为明确的规范。
如今,AI“入侵”中国教育体系已经到了令人担忧的地步,贵州省仁怀市第十一中学的学生们现在都穿上了“智能校服”。
这套智能校服能精准、及时记录学生的出勤和活动。只要身着这套校服,学生进出校门的准确时间,就会自动发送给学校老师和家长。如果未经许可出校门,也会激活自动语音报警器。
而且校服还会配合校门口的智能摄像头一起使用,假如学生互换校服,警报也会响起。总之,人脸、校服和摄像头,三合一确保学生身份。
与这一应用类似,之前亚马逊被曝光构建了一套AI系统,可以追踪每一名物流仓储部门员工的工作效率,统计每一名员工的“摸鱼”时间,然后自动生成解雇的指令。
亚马逊曾经用AI来决定招人与否,不过最终因为反对的声浪而废止,但现在亚马逊用AI来决定该不该解雇一个员工。而更令人震惊的是,亚马逊的系统还能管理和限制员工离开岗位的时间。
换句话说,亚马逊的员工是去是留,全由一个没有感情、冰冷的自动化程序全权操控。
特斯拉CEO马斯克之前的“AI威胁论”今天看来并非危言耸听,但其可怕之处并非来自于AI本身,更多的则来自于人类对于AI的态度。
隐私保护长路漫漫
AI面前需保持克制与敬畏之心
人工智能这个人类一手缔造的尤物,就如同《机械姬》中的美女,如此强烈地诱惑者人类,但当美女撕下面皮露出钢铁的内部时,她又是那么的可怖。
人类本应该让技术服务于人类,如今却将这套固化标准用在了自己身上,到底是技术解放了人类,还是技术奴役了人类?
在AI面前,我们更多的需要保持克制以及对技术的敬畏之心。在这方面,国外正在出现一股抵御AI的风潮。
与国内对人脸识别大部分的正向宣传相反,由于人脸识别技术在有色人种、民族、儿童老人等维度的准确率方面存在巨大差异,人脸识别技术应用在国外的推广略显艰难。
作为国外反人脸识别风潮中最有名的攻击对象,曾被美国警方使用的亚马逊计算机视觉平台 Rekognition,被自家股东在今年年初开始持续施压,他们强制要求亚马逊停止向执法部门出售人脸识别软件。
而这股风潮也在今年8月初吹到了英国,有房地产商在伦敦国王十字区安装了人脸识别硬件后遭到强烈反对,因为后者对此毫不知情。
在美国,这项技术正面临着来自立法者越来越大的阻力。加利福尼亚州参议院正在考虑立法禁止在警用随身摄像机中使用人脸识别软件,而旧金山监事会也已经开始禁止执法部门使用这项技术。
因此,包括亚马逊、谷歌等在内的技术公司虽然很不情愿,认为“新技术不应该因为可能被滥用而遭到禁止和谴责”,但却达成了一个共识:
制定相关合乎道德的指导方针,要跑在真正能使用这项技术之前。
一个明确的监管框架不仅能确保人脸识别只用于完成合法的任务,也能够帮助消费者理解这项技术的好处。让人脸识别“走上正路”,一边是法律的强势介入,而另一边则是来自民间个人的智慧。
如何保护隐私?这个问题存在很长时间,但似乎无解。因为所处的环境不同,以及每个人对隐私的定义也不同,导致我们不能做过多解读。
援引美国独立研究员Stephanie Hare的话来解释,人脸识别系统的最大问题之一是涉及到生物特征数据,也就是人体信息,这无疑与人们的隐私有关。
但这次旷视引发的讨论中,有小部分人对这种做法是否真的侵犯了隐私提出了质疑。
比如,既然家长可以把学生的情况反映给家长,为什么机器不能汇集更丰富的信息给家长?未成年人到底有没有独立于成年人的隐私权?一系列道德与伦理问题接踵而来。
从本质来看,这些质疑声恰恰凸显出随着技术发展,法律一定要强势介入的必要性。
但是每次涉及到隐私问题,我们的担忧都会在一次集中爆发后,又迅速销声匿迹。
随着换脸软件Zao的使用热度过去,对AI教室监控产品的讨伐声结束,大概对隐私被侵犯的控诉仍然会不了了之。
回到这个问题上,当学生们即便同意自己的身体信息被收集和分析,那么参与方有没有征求过这些机器直接作用方的意见呢?孩子们会不会在这样隐形的压力下学会装模作样,学会接受把这套机器用在下一代身上?
在一切还尚未有明确答案之前,我们更应该让隐私保护问题引起更多人的重视并推动相关法律的确立。
对于如何看待用AI技术监视学生上课这一行为,我们认为,这不是产品经理或者程序员的问题,不是一家公司的问题,更不是一个技术问题。
这是整个社会的价值观的问题,是我们怎么看待自身权益的问题。