人工智能与变革管理研究院AI小组活动之十三

发布者:张钰歆发布时间:2019-11-20浏览次数:460

20191112日星期二 20:00-21:30,AI小组第十三次研究活动在信息楼409会议室召开,参会人员有齐佳音教授,胡俏,胡帅波,乐攀,杨成意,池雅琼,张亚,屠文怡,杨漫铃,白诗施,李佳,郁春。

会议内容主要围绕三个方面展开:

  (一)Machine VS. Humans:The impacts of Artificial Intelligence Chatbot Disclosure on Customer Purchases

本次组会一开场是由庞雨竹同学汇报,汇报的主题是人工智能聊天机器人信息披露对顾客购买行为的影响。以下是庞雨竹同学本次汇报的内容总结:

本次汇报文章主要探讨人工智能聊天机器人,一个及时和管理相关的话题。并通过六种情况下的现场实验,发现聊天机器人身份的公开大大降低了购买率。进一步的分析表明,客户倾向于购买更少的商品,甚至提前终止通话,因为他们认为被披露的聊天机器人知识更少、更缺乏同理心。作者实验设置的结构化出站呼叫设置是有限的,因为聊天机器人只参与有限的双向信息交换,而不是高度交互的双向对话。作者表明这种限制性在这里是一种限制,它可能有助于开拓新的研究。例如,探讨“聊天对象-顾客”与“工作对象-顾客”之间双向对话的动态差异,将对未来的研究有很大的意义。所以未来研究的另一个方向是测试本文章先有的实验结果在其他情况下的通用性,比如更动态的入站呼叫。此外,作者处理一阶问题披露影响(有或没有披露)。未来的研究可能会在不同的框架下测试公开机器人引入的二阶效应。 

图一 庞雨竹同学正在做汇报

        最后,齐老师对这次的汇报做了总结与点评,表示庞雨竹同学作为一个大二的本科生,文献阅读汇报很好。接下来,齐老师重点性进行了讲解,最后总结讲述了这篇文献,指出这篇文献是一个很好的范文。

  (二)人工智能的道德设计与伦理准则进程分析

接下来是由李佳同学做汇报,李佳同学本次的presentation将分三部分进行汇报。以下是汇报的具体内容:

第一部分是继上次未讲完的法律。文章指出不是偶尔重叠的独立活动领域。是基本上相互联系的学科,并在创建社会秩序时集体互动。科学技术研究学者希拉·贾萨诺夫(Sheila Jasanoff)认为,在实现这一成果的过程中:部分原因是认识到,科学技术以其创造、保存和毁灭的全部力量,并不是世界上唯一的创新引擎。其他社会机构也在创新,它们可能在将科学和技术的目标与文化上完全不同的人类社会的目标重新结合方面发挥着宝贵的作用。其中最重要的是法律。这部分主要分为两节:第1节是法律制度中可信赖采用A/IS的规范。第2节是A/IS的法律地位。其中第二节是重点部分,主要讲述如何对与A/IS相关的技术进行法律监管以及对部署这些技术的系统进行适当的法律处理?什么样的法律地位(或其他法律分析框架)适用于A/IS?由于这些技术的部署所引起的法律问题,以及想要最大化A/IS的利益和最小化负外部性的愿望?据研究所知:赋予A/IS完全的法人资格可能带来一些经济利益,但也是不明智的,技术尚未发展到在法律上或道德上适合A/IS现在定义的固有的权利和责任的程度法律。因此,确定不应授予A/IS的决策和操作类型;并且确定哪些规则和标准将最有效地确保人的控制对那些决定。

大致讲述了IEEE全球自主智能系统伦理倡议的使命与成果,为了实现这一目标,IEEE全球自主和智能系统伦理倡议汇集了来自六大洲的1000多名利益相关者。

第三部分是回顾与总结,从八个方面展开:

第一,一般原则阐述了适用于所有类型人工智能的高级别道德问题;体现人权的最高理想,并且把人类和自然环境的最大利益放在首位。通过制定人权原则(需要一种方法来将现有的和即将到来的法律义务转化为知情的政策和技术考虑。);制定责任原则(人工智能的程序和输出通常不为公众所识别,多方利益相关者的生态系统应该被开发来帮助创建不存在的规范。);制定透明度原则(对自治系统的一个关键关注是,由于不同的原因,它们的运作必须对广泛的利益相关者透明,制定新的标准,描述可测量、可测试的透明度水平,以便能够客观地评估系统并确定合规性水平。);制定教育和意识原则。

第二,将价值嵌入自主智能系统:当今社会没有通用的标准或准则来帮助将人类规范或道德价值观嵌入自主智能系统(AIS)。随着这些系统在决策和控制环境方面的自主性越来越强,它们必须采用、学习和遵循所服务社区的准则和价值观,并以尽可能透明和可信的方式交流和解释。要嵌入AIS中的相关规范不是通用的,而是主要针对用户社区和任务的,产生一套适用于所有自治系统的普遍规范/价值观是不现实的。首先建议确定AIS在特定社区和特定任务中需要遵循的规范集。AIS通常受到多种准则和价值观的制约,这些准则和价值观可能相互冲突,最佳实践是优先考虑反映更大利益相关者群体共同价值观的价值观。共同利益原则可以作为解决不同利益相关者群体优先顺序差异的指导原则。

第三,指导伦理研究和设计的方法:现代人工智能应确保人类福祉、授权和自由是人工智能的核心。确保其系统设计方法产生人类价值观,如《世界人权宣言》所界定的人权。价值观一致的设计方法应该成为人工智能的一个基本焦点,根据道德准则,面向人类进步。这种道德上健全的方法将确保在保持人工智能的经济和社会负担之间达到平等的平衡,无论是对企业还是社会。(迈克尔·卡恩斯建议,我们需要决定降低算法的效率,以实现透明度。其他人认为,如果我们可以设计新的方法来确保算法的问责制)

第四,人工通用智能(AGI)和人工智能(ASI)的安全性和优越性:未来高性能的人工智能系统(有时被称为人工通用智能或AGI)可能在农业或工业革命的规模上对世界产生变革性影响,这可能带来前所未有的全球繁荣水平。

第五,个人数据和个人访问控制:在算法时代,个人数据需要包含个人对其身份的定义和澄清,反映出独特的偏好和价值观。

第六,重新构建自主武器系统:AWS的直接和间接的多样性将导致一个复杂和令人不安的扩散和滥用局面。

第七,经济/人道主义问题:减少人类对我们日常生活干预的技术、方法和系统正在迅速发展,并准备以多种方式改变个人的生活。并且任何人工智能政策都可能减缓创新。并且人工智能和自主技术在世界范围内并不平等。因此,需要增加发展中国家在IEEE全球倡议中的积极代表性。人工智能和自主系统的出现会加剧发达国家与发展中国家之间以及发达国家与发展中国家内部的经济和权力结构差异。

第八,LAW:人工智能/智能的早期发展引发了许多复杂的伦理问题。这些道德问题几乎总是直接转化为具体的法律挑战,或者导致难以解决的附带法律问题。法律委员会认为,律师需要参与这些领域的监管、治理、国内和国际立法等方面的讨论,这样,人工智能/智能为人类和我们的星球带来的巨大利益将得到深思熟虑的管理。(虽然我们承认目前无法做到这一点,但人工智能系统的设计应使其在被要求时始终能够向人类用户展示导致其行为的注册过程,识别任何不确定性来源,并陈述其所依赖的任何假设。尽管我们承认目前无法做到这一点,人工智能系统的程序设计应确保即使在某些情况下没有被要求,它们也能主动地将这种不确定性告知用户,应降低主动告知用户风险的门槛,扩大主动向用户披露的范围。) 

图二李佳同学在做汇报

齐老师在这次汇报工作中穿插补充指导,分享观点,齐老师指出人工智能也分流派,有通用人工智能流派,也有专业(垂直)人工智能流派。齐老师最后建议李佳同学将这个报告继续深挖,把其中的成果做客观的归纳总结。

(三)本科生毕业论文交流

接下来齐老师对本科生的毕业论文给出了询问及指导。每个本科学生介绍了自己目前的论文进度和碰到的问题,并询问后期论文的具体实施步骤,齐老师对其一一作出了解答指导,推荐相关文献,督促进展。

感谢齐老师每周对大家的悉心指导,小组成员每周二晚忙中偷闲,求知若渴。在这个过程中不断学习前沿研究动态,不断进行研究知识探索,不断聆听齐老师的指导,从这个过程中培养研究能力和创新能力。


Baidu
map