“人工智能已经触及到人类生活的各个方面,而其面临的风险也日趋严峻,但不能因噎废食。”对于人工智能发展与风险关系,全国政协委员、江西省科协主席、农工党江西省委会主委史可近日接受中新社记者采访时说。
3月1日,全国政协委员、江西省科协主席、农工党江西省委会主委史可接受中新社记者采访。姜涛 摄
人脸识别、语音合成、自动驾驶……近年来,以算法与数据为基石的人工智能迅速发展,全方位深刻改变着人们的生产生活方式。
“现在很多小区进入都是人脸识别,我在酒店还看到过送外卖的机器人。”史可称,随着技术不断突破,人工智能在各行各业的应用越来越广泛。
人工智能是带动新一轮科技革命和产业变革的“头雁”。早在2017年,中国国务院印发了《新一代人工智能发展规划》,将“人工智能”发展提升到国家战略层面。
根据中国信息通信研究院监测平台数据,截至2020年10月,全球共有人工智能企业将近5600家,中国将近1450家。2020年,全球人工智能产业规模1565亿美元,中国人工智能产业规模约3100亿元人民币。
然而,作为一项渗透性、实用性极强的新技术,人工智能在为经济社会发展注入新动能的同时,也带来了伦理、法律等各方面的挑战。
在史可看来,目前人工智能应用仍处于探索阶段,安全性不能完全保证。“尤其是当人工智能应用于与人身安全直接相关的领域,如自动驾驶、医疗、工业控制等,容易出现人身伤亡。”
他还认为,眼下针对人工智能的监管还比较滞后,远远落后于应用落地的速度,相关法律法规较少,合规要求相对模糊,监管的不确定性是企业面临的重要风险。
如何看待人工智能的发展与风险?史可直言不能因噎废食,不论是人工智能方案提供者、应用部署者还是使用者,都应当对人工智能的风险给予关注。要不断推进技术革新,通过在现行法律基础上完善相关法律条款,逐步建立健全人工智能法律规范体系建设,打造“政府引导、社会协同、行业自律、企业自治”的多元主体共同参与的治理结构等多元化手段解决规避风险,共同推动人工智能的良性发展。
人工智能应用往往需要以海量的个人信息数据作为支撑,背后存在的隐私泄露风险也受到社会广泛关注。
史可建议,要加强数据采集和保存的管理,在立法基础上对各类部门、机构采集和使用个人核心信息和数据做出规定;要加强对不同人工智能应用的监管,对面向社会公众的人工智能应用程序,建立行之有效的监管机制。记者 吴鹏泉