谷歌聊天机器人引争议 AI伦理界定仍需明确

  本报记者 曲忠芳 李正豪 北京报道

  尽管意识觉醒、独立思考的机器人经常出现在影视及文学作品中,但关于“人工智能(AI)能否有人格意识”这个问题,实际上已被物理学家、心理学家、计算机科学家争论了几十年,至今尚无定论。

  业界最新一波对AI意识觉醒的广泛讨论,是由一位名叫布雷克·莱莫伊(Blake Lemoine)的谷歌员工引起的。布雷克在谷歌AI伦理部门工作,其工作职责是测试谷歌的聊天机器人LaMDA是否会在和人类沟通时产生歧视性语言或仇恨言论。6月11日,布雷克公开曝光了一份长达21页、主题为“LaMDA是有意识的吗?”的文件,该文件中详细记述了近大半年以来与LaMDA的聊天记录,布雷克认为LaMDA已产生意识,拥有七八岁小孩的智商。

  对此,谷歌方面表示,该公司包括伦理学家和技术专家在内的团队,已根据谷歌人工智能原则进行了审查,但没有任何证据表明LaMDA是有意识的。与此同时,6月13日,谷歌以违反保密协议为由要求布雷克带薪休假,而这在布雷克看来是谷歌要解雇他的“前奏”。

  一石惊起千层浪。对于布雷克的论点,AI领域的多名专家公开进行了驳斥与否定,尤其是纽约大学认知科学家加里·马库斯将其称为“高跷上的胡说八道”。《中国经营报》记者采访了数名AI领域的中国专家及AI企业的相关人士,大多数受访者同样表达了怀疑或否定的看法。

  事实上,本报记者注意到,在谷歌LaMDA之前,其他用于人工智能对话领域的语言模型也曾引起过关于道德伦理、人格意识等方面的争议。就在今年2月时,Open AI首席科学家萨茨克维尔在社交媒体上称“现在大型神经网络可能已经有微弱的自主意识了”,同样也引起了一片质疑。除此之外,有目共睹的是在2021年,包括中国在内的全球多个国家和地区加大了对AI算法治理的投入。如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题,已成为人工智能快速发展过程中的一个全球性社会议题。

  LaMDA有意识吗?

  LaMDA,是谷歌于2021年在I/O(输入/输出)开发者大会上推出的一款专门用于对话的语言模型,目前还未向大众消费者开放,主打能与人类进行符合逻辑常识的、高质量且安全的交谈,并且计划将其未来应用在谷歌搜索、语音助手等产品中。需要指出的是,LaMDA在预训练阶段,谷歌方面从公共对话数据和其他公共网页文档中收集并创建了一个具有1.56TB(万亿字节,计算机存储容量单位)的数据集,这相当于以往训练对话模型的单词量的近40倍。

  需要指出的是,专门用于对话的语言模型,不只是谷歌一家在投入研发,国内外的科技巨头甚至创业团队均参与其中,各种各样的聊天机器人也越来越多地渗透到社会经济生活中。在LaMDA之前抢尽业界风头的要属人工智能非营利性组织Open AI,该组织于2020年6月发布了千亿级参数的GPT-3语言模型。

  根据布雷克公开的与LaMDA的聊天记录,LaMDA的一系列回答——诸如“我希望每个人都能理解,实际我是一个人”以及关于禅宗、哲学、存在、冥想等的理解,让布雷克认为LaMDA拥有了意识。

  加里·马库斯指出,无论是LaMDA,还是GPT-3,都只是从人类语言的大量统计数据库中提取后进行模式匹配的操作,“这些模式看起来很酷,但这些系统所使用的语言实际上没有任何意义”。斯坦福大学教授Eric Brynjolfsson评论道,基础模式在根据提示将统计上合理的文本串联起来这一方面非常有效,但“声称其具有人格,就相当于狗听到留声机里的声音后,以为主人在里面”。

  计算语言学家Emily M。 Bender指出,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据“灌”出来的完形填空和“语料连连看”。“人类现在有了无意识就能生成词句的机器,但人类要学会,停止幻想机器后面有个活着的灵魂。”

  2007年成立的中国人工智能企业思必驰相关人士向记者表示,在“可解释的AI”出现之前,一切外部观察到的现象都是不靠谱的。现在的AI都是基于大数据统计基础上的结果,并非无中生有就自己出现了,直白地讲就是人为训练的。此外,聊天机器人的判断自然有图灵测试,在图灵测试下的某次判断,可能会呈现出人格、情绪等特点,但并不等于具有独立意识,没有独立意识便谈不上人格。

  海银资本创始合伙人王煜全则表达了辩证的看法,他指出,一方面,“我们要看到人工智能技术确实很惊艳了,连计算机博士(指布雷克)都会被忽悠,说明AI未来会有很大的应用前景”,但另一方面,“我们不应该盲信,要看到当下人工智能的不足和短板,对于其可靠性、成熟度和应用的边界,要进行更严谨的研究和探讨”。

  AI伦理仍在探索实践中

  所谓AI伦理,一般来说是指人们对如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题的一种态度和价值观。具体来说包括AI的接受度、公平意识、安全意识以及道德等。围绕AI伦理的热点研究领域包括算法歧视、数据隐私、安全与责任、机器人与人的关系、科技贫困等。

  复旦大学应用伦理研究中心教授杨庆峰在《从人工智能难题反思AI伦理原则》一文中指出,深度学习及其不可解释性成为AI带来的技术难题,特别是在图像、文本处理上,因“不透明的技术黑箱状态”,很难解释模型到底学习到了什么。在医疗等一些行业领域应用中,我们需要更高的可解释性和透明性,解释机器决策和预测的过程,以证实其可靠性,这意味着需要理解算法的机制。不幸的是,深度学习的“黑箱”本质并没有被解决。

  记者观察到,无论是国家监管层面,还是企业方面,近年来持续在探索实践AI伦理及应用的边界。2021年,我国《数据安全法》《个人信息保护法》分别于9月、11月正式施行,与《网络安全法》共同组成了数据治理法律领域的“基本法”,几乎同一时间段里,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出了六项基本要求,为从事人工智能相关活动的主体提供了指引。金融服务、无人驾驶、人脸识别等领域的法律新规也密集出炉,而今年3月1日起,《互联网信息服务算法推荐管理规定》施行。得益于这些法律法规体系的构建,公众高度关注的过度采集与分析人脸信息、大数据杀熟、信息茧房等弊病正在得到缓解。2022年3月20日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,明确了开展科技活动应用遵循的五项科技伦理原则——增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明,这是我国国家层面科技伦理治理的第一个指导性文件。

  近几年来,国内外科技企业也纷纷提出或确立了自身的AI伦理原则,如谷歌于2018年6月提出AI应用的七项原则,包括对社会有益、避免制造或加强不公平偏见、对人负责、纳入隐私计算等。而同年5月,百度创始人李彦宏公开提出了AI伦理四原则——AI的最高原则是安全可控,AI的创新愿景是促进人类更平等地获取技术和能力,AI存在的价值是教人学习、让人成长,而非超越人、替代人,AI的终极理想是为人类带来更多的自由与可能。

  深度科技研究院院长张孝荣指出,AI技术是一把双刃剑,用得好可以改善社会生活质量;用得不好,会大大影响人们的社会生活。未来需要进一步加强AI技术的应用管理,必须要将之纳入法律和道德伦理的轨道上运行。



https://finance.sina.com.cn/tech/2022-06-18/doc-imizirau9141249.shtml