“寻找人工智能时代隐私保护、政府监管、商业诉求的平衡点,已经成为产学研各界迫切需要解决的问题。‘可信AI’的理念逐渐成为全球共识,也成为未来人工智能产业健康发展的必由之路。可信AI,就是确保AI公平性、可解释性、健壮性和透明性,确保算法可被人信任”,科技部高技术研究发展中心研究员、ACM中国理事会常务理事嵇智源在2021全球人工智能技术大会可信AI专题论坛上表示。
嵇智源在论坛致辞中说,互联网、大数据、人工智能等现代科学技术的进步和升级,对人类生活、社会管理产生了巨大的改变。人工智能作为新一轮产业变革的核心驱动力,正在各个行业、产业中产生着越来越深的影响。
然而,在人工智能的时代,信息数据作为有价值的资产,在数据的采集、传输、存储和共享等各个环节都面临着新的安全风险与挑战,同时数据的隐私安全问题也是数字经济发展、社会组织管理、商业业务价值创造急需解决的痛点。
嵇智源表示,当前从“科学”到“技术”到“市场”演进周期越来越短、各研发阶段边界模糊,技术更新和成果转化更加快捷。为了适应新技术革命和产业变革带来的新特征,科技部先后组织实施国家高技术研究发展计划(863计划)、国家重点研发计划等国家高技术研究发展的战略性计划,瞄准国民经济和社会发展各主要领域的重大、核心、关键科技问题,组织产学研优势力量协同攻关;经过数十年的实施,有力促进了中国高技术及其产业发展。
例如,面向城市规划、建设治理、智慧社区等多种应用场景和民生需求,以城市智能系统为对象实施的新一代智能基础设施建设,实现了智能化和精准化的城市管理。同时,也在数据共享、机制协同、可信体系建设等方面提出了新课题。
“因此,寻找人工智能时代隐私保护、政府监管、商业诉求的平衡点,已经成为产学研各界迫切需要解决的问题。目前,许多国家已经着手评估如何在确保隐私、安全、透明、责任和对人工智能系统的掌控下,扩大创新和潜在经济利益,使人工智能得以健康有序的发展”,嵇智源表示。
“在此背景下,‘可信AI’的理念逐渐成为全球共识,也成为未来人工智能产业健康发展的必由之路。可信AI,就是确保AI公平性、可解释性、健壮性和透明性,确保算法可被人信任。”
他说:“不久前,我与本次论坛主席、同盾科技联合创始人张新波、人工智能研究院李晓林院长等就人工智能、大数据的数据安全可信问题进行了有益的交流,我很赞赏他们提出的‘知识联邦’概念及其观点,也就是将散落在不同机构或个人的数据联合起来,转换成有价值的知识,同时采用相应的安全协议来保护数据隐私,从而确保人工智能所作出的决策是公平、易理解、安全、可信赖的。”
当然,人工智能中数据采集、传输、共享的安全可信不仅是技术层面的问题,人工智能的“可信”,也需要建立一系列相应的法律、法规、标准和社会伦理准则予以保障,嵇智源最后指出。