10月25日至26日,岭南大学(下称“岭大”)与意大利博洛尼亚大学合办第二届人工智能治理技术国际研讨会。
该研讨会是第28届欧洲人工智能大会的一部分,聚焦开源AI的治理、自主决策AI的风险与治理、迈向以人为本的AI的技术三大核心议题,旨在提升AI风险评估、责任追踪及安全保障等方面的监测,促进亚洲与欧洲在AI治理上的跨区域交流。共吸引超过150名学者和学生参与。
“人工智能正迅速改变世界,但AI透过内部运算所作出的建议或决策,背后原因仍然模糊。”岭大副校长(研究及创新)及唐天燊机器学习讲座教授姚新认为,业界有必要透过技术提升AI模型的透明度和可解释性。监管AI不仅是伦理或法律的问题,更需要利用技术支援监测、审计与问责,推动发展更可靠、可监管的AI系统。希望就AI治理的问题,将“亚洲观点”带入欧洲讨论平台,同时汲取欧洲的经验,促进全球在AI技术开发与应用方面制定蓝图。
什么是“自主AI”?IBM研究部(东京)资深技术人员、博士Takayuki Osogami表示,自主AI指的是可以自己做决策、计划未来甚至制定策略的人工智能系统。这类AI如果没有适当规管,可能带来严重风险,包括危及人类安全或引发全球性灾难。他认为,目前大部分规管只看AI的运算能力大小,这不足以判断真正的风险。应观察AI系统自主行动的程度,也就是它能自己做多少决策,来作为评估风险的指标,这比单纯看它处理的数据或环境更准确。
“近年出现的自主决策AI与实体AI,能在数码世界或现实中自行决策和行动,带来前所未有的管治挑战。”欧洲人工智能、数据与机器人协会主席 Emanuela Girardi女士也认为,这些AI系统几乎无须人类监督就能运作,远超现有针对人类操作系统而设的规管范围,可能引发多层面的风险。例如,自主决策AI可能采取意想不到的方式完成目标,甚至透过心理手法影响用户。而实体AI则可能出现安全问题,从自动驾驶汽车到家用机器人,一旦出错可能造成伤亡或财物损失。
“目前全球AI管治碎片化、缺乏协调,即使有不少国家推出伦理原则或指引,仍未有具约束力的规管框架。”Emanuela Girardi认为,欧洲及全球层面都需要建立可行的管治框架,确保AI符合人类价值观并接受有效监管。
南方+记者 黄子欣
下一篇:没有了