其实世界各国已开始着手筑砌人工智能风险的防火墙,由各个层面分别检视未来可能发生的种种状况,早一步做风险防治与控管,其内容涵盖政策、科技、法律、伦理甚与是生存等议题。
欧洲议会于2017年2月16日正式向欧盟执委会提出议案,拟设立一套全面的法律,界定人工智能带来的道德与法律责任问题,立法动机在于人工智能及机器人技术的发展迅速, 逐渐成为人类日常及经济活动的一部分,希望透过立法规范来确保其安全无虞。 目前立法决议尚在讨论阶段,未来将设立专门机构,落实相关人工智能和机器人在技术与伦理上的监管。
美国白宫总统办公室也于2016年12月发布《人工智能、自动化与经济》的白皮书,说明在人工智能的冲击下,诸如劳动市场、经济与政策法令未来可能面临的挑战,并提出因应未来工作型态改变所需的新教育、训练及过渡的相关对策。 英国科学办公室也于2016年11月9日发布政策报告《人工智能:机会与未来决策影响》,介绍人工智能对社会及政府所产生的机会和影响,并提出适应由人工智能作决策行为时的归责,以及风险管理机制等建议。
在产业界方面,Google于2014年提出设立伦理委员会,确保人工智能机器人技术不被滥用。 OpenAI于2015年由Tesla、Y Combinator等公司出资成立,主要聚焦在人工智能的伦理问题。 另外,脸书、亚马逊、Alphabet、IBM与微软等五大科技业者于2016宣布成立「造福人群与社会的人工智能伙伴关系」(Partnership on AI),这是非营利组织,希望通过一个标准开放式的模式, 让人工智能在社会变迁过程中,变成一种包含道德、公平、包容、透明、隐私、互动、人与人工智能的协作、信赖及可靠等方面的研究课题。 期望以此种涵盖人类核心议题发展,消除人们对人工智能风险疑虑。
学研界的防治更是蓬勃多元,如标准制定组织IEEE发布的《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》,是鼓励科技人员在AI研发过程中,优先考虑伦理问题。 2017年1月于美国加州举行Beneficial AI 2017会议,全球顶尖的AI领域专家联合签署未来人工智能发展的23项原则(Asilomar AI Principles),内容包括AI开发中的安全、 责任及应对AI造成的灾难性风险。 剑桥大学内的跨学科研究中心「存在风险研究中心」,致力于研究和减轻可能导致人类灭绝或文明崩溃的风险,此机构将人工智能列为可能造成人类灭绝的主要风险之一,除提出警告,还加以研究并探讨防治方法。 (作者是台湾国家实验研究院科技政策研究与信息中心研究员)
STPI简介
国家实验研究院科技政策研究与信息中心(STPI)成立于1974年,长期以来专责于我国科技研究发展所需数据之搜集、建置、分析、处理与服务等事务。 近年来在既有之信息资源基础上,强化趋势研析、关键议题发掘、专利情报分析、创新创业推动等能量,并协助政府擘划我国科技发展之愿景与策略,以朝向专业之科技政策研究智库迈进。
趋势研析与前瞻规划团队
本团队以系统性方法进行技术发展趋势观测与深入研析,提供我国产官学研动态情报信息藉以掌握趋势脉动;并建立具证据基础之需求导向前瞻研究能量,协助各部会进行我国科技发展方向规划。