注重科技与法制并重的全局把控 护航生成式人工智能健康发展
作者:徐君锋(中国传媒大学计算机与网络空间安全学院副研究员)
在ChatGPT为代表的生成式人工智能时代,面对突如其来的机遇和挑战,除了享受它带来的便利与效益,更重要的就是把握主动,将机遇真正转化为自己所有,还要进一步思考新的监管思路,突破法律滞后性局限,实现以技术推动法治,以法治促进技术的良性循环。
一、生成式人工智能的机遇与挑战
自ChatGPT面世以来,它以极高的人工智能水平为人们的生活水平提高以及社会的发展带来了机遇和挑战。机遇主要表现在其自身所创造的价值,现如今生成式人工智能的生产内容是一种全新的模式即“AI生产内容模式”(AI Generated Content,AIGC)。AIGC以其高效、高质量、低成本的优势更新了当今的互联网内容生产模式,并且针对元宇宙、3D技术等新兴领域具有较大的发展潜力,成为了各国试图抢占先进技术优势的最佳武器。
与此同时,生成式人工智能作为人工智能领域的全新产品,在一定程度上又重新加剧了传统人工智能所造成的社会问题,除此之外还引发了一系列连带性的新挑战亟待克服。
从科技创新的角度,生成式人工智能更新换代速度极快,从算法模型到深度合成技术再到如今的人工智能生成内容,每一次更新的背后都需要强大的技术支撑,而无论是现如今生成式人工智能的各种训练算法,还是Transformer等训练架构,基本固定掌握在几个相关领域的核心企业之中。而要想在这场新一轮人工智能的浪潮中奋勇向前,就必须对科技创新进行重点关注。
从社会影响的角度,人工智能所带来的失业问题与收入差距一直都是各国发展的攻坚点,针对失业问题,传统的人工智能仅能替代一些交互性较弱、模型化较强的工作,但现如今以ChatGPT为代表的生成式人工智能已经展现出了强大的社交能力,并且能够在依照指令(Prompt)的指示下检索整合出更加符合要求的内容,因此有研究表示下一步能够被替代的可能就是技能水平较高并且薪酬水平也较高的白领人群。
与此同时,生成式人工智能的出现已经使原有的人工智能法律体系受到了严重的冲击,它不仅重新定义了法律主体和法律客体,重新定义了法律关系,还因此引发了一系列安全问题,主要包括数据安全与隐私安全。并且生成内容的归属与真实性也是需要关注的问题。
二、注重科技与法制并重的全局把控
(一)从研发到应用:分阶段解析生成式人工智能的成长
以ChatGPT为代表的生成式人工智能技术的研发从最初利用自然语言处理系统进行交互的聊天机器人,到现阶段有望在多个领域如医疗辅助、教育科研、无人驾驶以及生物识别等实现广泛应用,其中关注的重点包括技术研发、政策支持以及应用规制等多方面的共同推进。
从技术研发的角度,从生成式人工智能的运行原理来看,它离不开算法、算力和数据的协调配合。在算法方面,以ChatGPT为代表的生成式人工主要采用“生成式预训练转换模型”(Generative Pre-trained Transformer),而这种模型则使用“利用人类反馈强化学习”(Reinforcement Learning from Human Feedback,RLHF)的训练方式,通过人类与机器人交互回答逐渐生成答案。由此来看,如何提高人类反馈提高人工智能的生成水平实现迭代升级,是目前需要考虑的问题。就算法而言,ChatGPT所需算力需求巨大,这也决定了极高的资金要求,该问题涉及到企业如何协调自身电力储备以及与公共资源之间的衔接。众所周知,ChatGPT之所以能够表现出如此强大的交互能力,主要取决于其大量的数据训练,这种训练无疑对数据数量具有较大的需求,而如何获取和筛选数据则是该问题的重点。
除了技术本身的提升之外,政策支持和应用规制也是不可忽视的部分。目前我国针对生成式人工智能的政策和规制呈现出滞后性的特点,这种滞后性就决定了在面对技术的升级迭代时,无法良好全面的应对各种问题。目前我国也意识到了该问题,因此除了已有的《网络音视频信息服务管理规定》、《互联网信息服务深度合成管理规定》等针对性政策规定之外,又于2023年4月出台《生成式人工智能服务管理办法(征求意见稿)》(简称《办法》),用以解决现有问题并附带一系列前瞻性规定。并且,除了相应的政策法规,我国又将对人工智能的规制聚焦到安全标准上,目前我国首个人工智能安全国家标准《信息安全技术 机器学习算法安全评估规范》即将出台,与此并行编制的还有《信息安全技术 人工智能计算平台安全框架》等标准。
(二)从经验到实践:拓宽度搭建国际网络空间命运共同体
在面对如此强大的生成式人工智能新冲击,结合我国情况进行法律监管构思的同时,配合国际组织方向,吸取面对同样机遇和挑战的别国经验也成为了搭建国际网络空间命运共同体的有效途径之一。
联合国教科文组织于2021年11月发布《人工智能伦理问题建议书》,旨在为和平使用人工智能系统、防范人工智能危害提供基础。
欧盟坚持其对人权保护的传统,随着生成式人工智能的不断迭代,2021年4月,欧盟委员会发布了立法提案《欧洲议会和理事会关于制定人工智能统一规则(人工智能法)和修订某些欧盟立法的条例》(以下简称《欧盟人工智能法案》),主要思路在于由政府主要针对人工智能可能产生的风险急性预防和管理,例如要求生成式人工智能的开发商在其内容中披露“来自人工智能”的标识等。
美国参议院、联邦政府、国防部、白宫等先后发布《算法问责法(草案)》《人工智能应用的监管指南》《人工智能道德原则》《人工智能权利法案》《国家网络安全战略》等文件,相较于欧盟也更加重视安全的因素,并且鼓励“政府+企业”的合作监管模式,既鼓励了相关领域的自律发展,又加强了监管体系。
除此之外,其他国家一部分更加强调创新,一部分仍旧更加侧重于安全的考量,这实际上也为我国生成式人工智能的监管提供了思路,即平衡科技创新与法律监管两者并重,能够在更好的促进行业发展的同时,将伦理、安全、人权等因素进行保护,在同样的思路上进行多边合作探讨,实现网络空间命运共同体的搭建,并不断扩展共识宽度。
三、提供护航生成式人工智能健康发展的中国方案
(一)科技创新能力的重视与提高
技术研发与政策支持并重才能够继续推进我国人工智能科技创新能力,进一步实现科技自立自强。
首先,应当从根本上搭建适合我国的技术框架,避免“卡脖子”的问题。在增加传统技术科研项目的基础之上,分类别从算法、算力以及数据的角度进行细化升级,将国内前沿学术理论与专利产品进一步落实,以解决目前学术界与实务界相对隔绝的现状。
其次,完善相关配套制度以及输送大量科研人才也是较为稳妥的解决方式。考虑建立专门的关于生成式人工智能研发与规制的机构,主要作用在于整合和调配现有资源,可以参考美国成立的国防部高级研究计划局(Defense Advanced Research Projects Agency,DARPA)。鼓励跨学科、跨领域对话,利用多学科人才全方位对生成式人工智能技术予以解读,从技术、伦理、法律各个层面实现对生成式人工智能技术创新以及生成内容规制问题的处理,从而完善相关科研协同制度。
最后,面对生成式人工智能除了按照传统的技术创新和政策扶持外还应当思考背后的产研联动模式,建议构建大型科技企业与重点科研机构的产研协同创新模式,引领技术攻关。这种模式旨在发挥科研机构在关键核心技术上的研究优势,同时发挥大型科技企业在产品化、工程化、场景化、商业化和数据化方面的优势。以此为基础,进一步提出“人才+机器”的配合训练,用以应对生成式人工智能可能出现的现实问题。
(二)法律监管制度的更新与完善
就法律制度的监管而言,我国目前已经出台了一系列的规定和标准用以解决生成式人工智能来袭所带来的一系列风险和问题。从生成式人工智能本身来看,它打破了传统的法律主体与法律客体的概念。例如ChatGPT既能够作为一种“劳务关系”的法律主体,利用其模型技术完成对方交办的各项任务;还能够作为一种新的技术类型被当作买卖关系或租赁关系的客体进行交易和流通。这些可能导致法律关系或法律监管混乱的情形都有待进一步规制和监管。从问题的不同类型来看,现阶段生成式人工智能可能存在的突出问题主要包括知识产权权属问题、数据隐私安全问题以及生成内容合法性问题。
第一,针对生成内容知识产权归属问题。有学者认为“应用算法、规则和模板的结果,不能体现创作者独特的个性”。但是随着ChatGPT的不断升级,其所代表的生成式人工智能的输出能力得到进一步提升,故近期又有学者认为这使得“程序算法和独立思考的界限进一步模糊”。我国最近出台的《办法》意见稿中也提到了相关问题的处理,如要求生成内容中“不含有侵犯知识产权的内容”,但此规定仍然较为笼统。针对该问题在不具备立法背景的情况下,可以以相关规章办法为基础,提出进一步的细化措施予以指导,还可以由最高法出台相应指导性判例的方式表明立法导向。
第二,针对数据隐私安全问题。可以借鉴欧盟的分阶段处理模式,即事前评估、事中监管和事后追责。我国已经出台《数据安全法》、《个人信息保护法》以及相应的《市场准入负面清单(2022)》,应当充分以现有法规为基础,全方位从服务准入、风险监管和责任追究的角度进行把控。
第三,针对生成内容合法性问题。鼓励提高技术水平的同时注重研发自监测模型用于提前规制人工智能生成内容的合法性,并且注重多个法律部门联动治理。具体举措参考电信诈骗工作思路,将标识功能运用到该问题的处理上,在刑法、行政法等法律部门中补充协调相应内容。
来源:光明网