AIGC的监管策略专题研讨会
2023年8月15日,国家互联网信息办公室等七部门联合发布《生成式人工智能服务管理暂行办法》,这是我国首个针对生成式人工智能产业的规范性文件。在这种背景下,梳理AIGC的经济社会影响及监管策略是非常有必要的。2023年11月18日,由上海金融与法律研究院和数字社会发展研究中心联合主办的“AIGC的监管策略”专题研讨会在上海举行。本次会议还是上海市社联第十七届(2023)“学会学术活动月”系列活动之一。来自浙江大学、复旦大学、上海交通大学、同济大学和上海国际问题研究所等专家参与了本次研讨。
同济大学法学院副教授陈吉栋围绕了人工智能分级治理模式展开了分析。他认为,传统治理模式下,需要尽可能地穷尽现行人工智能应用场景和风险等级,需要极为庞大的系统与能力,而后进行风险评估时又需要与之相关指标。今年6月,欧盟《关于制定人工智能的统一规则(人工智能法)并修正某些欧盟立法文件的提案》对此进行了优化,发展了风险四级模式,欧盟的逻辑是先要保护最基本的价值——安全、健康、基本权利。他提议,人工智能分级治理的主线应该是法益,法益价值确定好之后是场景,场景里的指标应该是多元的。
复旦大学法学院讲师丁文杰探析了AIGC对著作权法的挑战。学界主流的观点是工具论,否定人工智能的主体地位,将人工智能视为人类创作的辅助工具。他认为,工具论符合弱人工智能时代,但忽视了著作权法最本质的逻辑问题。根据我国著作权法第3条,著作权法保护的作品是文化领域内具有独创性并能以一定形式表现的智力成果。那AIGC的可版权性,即人工智能的生成内容是不是著作权法保护的作品?关于这个问题,国内主流的观点采用的是肯定说。他补充道,AIGC中新增的独创性表达是人类的智力成果,还是人工智能深度学习的产物,是判断AIGC可版权性问题的基础。谁(人类抑或人工智能)对AIGC中新增的独创性表达做出主要贡献,是判断AIGC权利归属的关键。AIGC进入公共领域的话,如何防止冒名作品问题,将成为立法者所面临的难题。
上海交通大学凯原法学院教授李学尧以《生成式大模型的法律监管:前瞻性立法的可能与限度》为题进行了分享。他建议,一是建构一个回应性的法案,可以颁布安全标准以及其他单体性立法。二是借鉴OpenAI的自我监管模式,让企业承担守门人责任。三是交给地方,容纳地方实验主义。四是更多地交给专家委员会。
浙江大学光华法学院副教授冯洋认为,未来会呈现一种立法逐步强化监管的状态,短期内不会出现一个统一式的立法。中国能在多大程度上突破欧盟和美国的模式,都不太确定。国家工业信息安全发展研究中心人工智能所副所长刘永东强调,人工智能的安全伦理,核心还是安全,基本原则是人类共同福祉。人工智能法案不会简单成为一个促进人工智能发展的法案。
上海国际问题研究院研究员鲁传颖指出,人工智能对数字安全和国家安全会产生重大的影响,在学习欧美模式的同时,要考虑中国国情、监管能力是否匹配。科林格里奇困境中提到,技术发展有两个挑战,完全不监管,后面的监管成本会非常高,如果完全监管又会阻碍技术发展。因此AIGC治理上,各方有效沟通是很重要的环节,需要考虑官方、敏捷治理、技术的自我治理等。
上海社联学会处四级调研员杨琳、数字社会发展研究中心秘书长张道生、上海金融与法律研究院聂日明研究员也就该话题发表了意见。本次会议由上海金融与法律研究院院长傅蔚冈主持。