原标题:发展研究基金会联合微软发布报告:白领可能比工人更容易被人工智能所取代 |新京报财讯
  新京报快讯(记者 梁辰)与其担心哪些被机器人取代工作的蓝领工人,不如担心下自己即将会被人工智能所取代。

7月9日,中国发展研究基金会与微软公司发布了一份33页的研究报告,探讨了人工智能社会角色和伦理方面的思考,呼吁在拥抱人工智能的同时,正视技术之外的挑战,呼吁政府、产业界等相关方未雨绸缪,商讨人工智能开发和应用的伦理规范和公共准则。

作为这份报告的课题组组长,中国发展研究基金会研究一部主任俞建拖接受《新京报》独家专访时表示,与其探讨遥远未来发生的机器超越人,不如关心眼下即将发生且对我们产生影响的变革,“我们希望把注意力带回来,在技术、经济之外考虑人类的发展本身”。

这份报告是中国发展研究基金会2017年开始关注人工智能对劳动力影响后,在大课题下研究的一个细分领域。俞建拖表示,我们需要拓展角度。

在中国制造业聚集的长三角和珠三角,机器人取代人工已经成为一种新的趋势,“其中一些企业甚至替代了40-50%”,但这并没有引发严重的失业潮或加剧贫困。因为与常识不同,这些工人被赋予了新的岗位。

与此同时,一些受过良好教育、身为白领甚至金领的人却正在被人工智能所取代,这是因为需要人脑记忆和经验处理的问题,通过计算能力和存储空间的提升,计算机已经可以做得更好。然而,当人变得无能为力时,替代就会引发负面的心理冲突。

俞建拖认为,造成这些冲突的原因是,人工智能技术改变了人和人通过交流平衡观点,大数据的精准推荐令人接触了更多相同的观点,进而强化了原有的偏见。这种情况已经在现实中出现,一些利用大数据行为揭示人的偏好,以及精准广告的投放都存在巨大的风险。

上述报告显示,人工智能开发和应用中的挑战,有一些是技术性的,包括错误目的的开发、技术上的不透明和不可控、过度追求利润目标而不考虑技术上的平衡,以及终端的误用和滥用,但更严峻的则来自于社会层面,迄今为止的伦理、法律并没有为大规模应用做好充分准备。

报告呼吁,利益相关方应当就人工智能开展广泛对话和持续合作,加快制定针对人工智能开发和应用的伦理规范和公共政策准则;鼓励高校研究机构、行业协会、投资机构等进行探索和研究;重视政策和法律监管,加强国际合作,建立多层次的国际人工智能治理机制。

作为报告研究的参与方,微软公司总裁施博德(Brad Smith)分享了微软对人工智能开发应用的六项道德原则,即公平、可靠、隐私与保密、包容、透明和负责。其中透明和负责是其他四项原则的基础。

参与报告发布讨论环节的清华大学公共管理学院院长薛澜也表示,与其他新兴技术一样,人工智能迅速发展的同时,也对未来带来了不确定性,如果不及时关注,等到问题发生时已经为时已晚。在梳理问题后,提出基本原则,将为下一步解决问题提供基础的依据。