应用风险加剧将AI关进笼子还需政策发力
作者:沐瑶 栏目:新闻 来源:东方网 发布时间:2019-09-14 13:22
朱茵变杨幂的换脸视频犹在眼前,近日“换脸”APP “ZAO”又因其用户隐私协议不规范、存在数据泄露风险等网络数据安全问题被相关部门约谈。
大规模应用裹挟着诸多风险
近年来,在AI产业的博弈中,各国都在全力争取发展先机。
“无论从企业数量上还是投融资规模上看,美国和中国无疑是人工智能领域的重量级玩家。”国务院发展研究中心国际技术经济研究所研究一室副主任宫学源在《人工智能全球格局:未来趋势与中国位势》一书中提到,两国的科技巨头通过重新制定战略、大规模收并购等手段,已经在全球人工智能产业领域获得了极高的话语权。但从人均AI初创企业数量和人均投融资水平上看,英国、法国、德国和以色列等国家完全不落下风。日韩等国也正纷纷制定国家级战略,以期实现人工智能技术的反超和部分产业的引领。
“机遇往往与挑战并存,AI大规模应用必将裹挟着诸多风险,如木马、病毒、僵尸网络等技术要素风险,电信网络诈骗、群体(算法)歧视等组织管理风险,色情信息、暴恐信息、虚假信息等在线内容风险。”北京师范大学网络法治国际中心执行主任吴沈括表示,因此,在给与AI足够的养分令其成长的同时,各国也都在汲汲探寻AI治理的方案。
“民间”倡议百花齐放
2018年,第40届数据保护与隐私专员国际大会上发布的《人工智能伦理与数据保护宣言》认为,应根据公平原则,在基本人权层面设计、开发和使用人工智能和机器学习技术;持续关注AI系统潜在影响和风险,并确立问责机制,实现“可控”;应改进人工智能系统的透明度和可理解度,以实现有效施行;作为整体“伦理设计”方法的一部分,应通过默认应用隐私原则和设计隐私来对人工智能系统进行负责任地设计和开发;应当减少和减轻因使用人工智能数据而可能导致的非法偏见或歧视。
2019年,欧洲委员会发布《人工智能与数据保护指南》,也首先强调了人权和人的基本自由为先,特别是在个人数据保护方面。用于个人数据处理的人工智能研发应基于合法性、公平性、目的特定性、数据处理比例性、设计隐私与默认隐私、责任与合规展示(问责)、透明度、数据安全和风险管理等原则。
与上述西方国家主导的宣言、指南相比,AI治理的中国路则出现了不一样的风景。法律层面,与大部分国家一样,《个人信息保护法》《数据安全法》《电信法》等相关法律正在拟定中;社群倡议方面,2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,明确指出了“AI治理八原则”:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。清华大学人工智能与安全项目小组也提出“AI治理六原则”,即福祉、安全、共享、和平、法治、合作。
2019年5月,北京智源人工智能研究院联合北京大学、清华大学、中科院等单位,共同发布《人工智能北京共识》,提出对人工智能部分替代人类工作保持包容和谨慎态度,鼓励探索更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对社会有益的方向发展。
AI治理中西方各有不同
“从中西方国家社群团体的倡议指引中可以看出,双方治理AI在对人类共同福祉的追求、对公平公正价值的坚持、对系统管理风险的重视、对开放共享共治的倡导方面都持有相似的观点。”吴沈括指出,但在很多地方也体现出了差异。
相较于西方国家,我国在遵循相同治理原则的基础上更希望能够实现人机和谐,如在“AI治理八原则”中的首条原则即为和谐友好,符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步。
未来,东西方的融合交汇必将是AI治理的大趋势,动态持续的多边对话、以人为中心的顶层设计建构、着眼于应用场景的差别规范设计以及平衡安全发展的利益平衡规则都将成为东西方存异求同的立足点。”吴沈括说。(于紫月)
[ 责编:张蕃 ]