ChatGPT在全球范围掀起的人工智能热潮正在引发越来越多讨论,当我们惊叹于其功能的强大时,生成式人工智能技术的发展也将带来更多“可能的威胁”。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《意见稿》),这也是国内有关生成式人工智能的第一个管理条例。
生成式人工智能存在一定安全风险
【资料图】
《意见稿》明确了生成式人工智能的定义,“生成式人工智能”是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。值得注意的是,对生成式人工智能的定义中不仅包含文字,目前常见的“文生图”“文生视频”等也将被纳入管理。
《意见稿》共21条,对生成式人工智能产业给出较为详尽的规定,其中包括定义、准入资格、责任义务和处罚措施等。在准入资格方面,《意见稿》提到,在利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
生成式人工智能存在哪些风险?该如何管理和发展?一系列问题都成为人们热议的焦点。北京大学深圳研究院5G&6G课题组组长胡国庆认为,我们国家之所以要制定该管理办法,主要是因为随着生成式人工智能的发展可能会出现一些乱象,通过出台管理条例的方式,为人工智能未来的发展设定一条轨迹,防止野蛮、恶性生长。
“从长期发展来看,政策的出台是及时雨,是非常有价值的,未来或需对此进一步进行立法完善。同时,生成式人工智能提供方也需从技术和程序上对数据进行标注加以规范,并且要加强对用户隐私的保护。”
看到《意见稿》的发布,不少网友都持肯定态度。有网友称:“生成式人工智能的发展速度之迅猛超出了许多人的预料,并且已经开始对社会造成明显的影响,确实需要对其发展与使用做出管理,避免对社会造成危害。”
强调保护个人数据和信息安全
记者在《意见稿》中看到,其尤为强调对个人数据和信息的保护。《意见稿》提到,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形,不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。
同时,必须尊重他人合法利益,防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
胡国庆表示,大规模使用网络公开数据训练模型,很有可能意外泄漏个人隐私信息。《意见稿》明确了网络安全法、数据安全法、个人信息保护法以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等相关互联网规则在AIGC领域的适用,有利于执法尺度的统一。
据《工人日报》此前报道,绿盟科技首席创新官刘文懋认为,在安全隐私方面,ChatGPT的高度“智能化”也导致其存在自己独特的安全问题。通过提示注入,用户可以绕过OpenAI设置的内容安全策略,从而对ChatGPT进行滥用。
他进一步表示,在辅助编程这一应用场景上,ChatGPT应用可能也存在一定的安全隐患,ChatGPT生成的代码可能含有可被利用的已知安全漏洞。对于企业来说,虽然员工使用ChatGPT能够在一定程度上提高某些工作效率,但由于ChatGPT并没有通过技术手段保障用户数据安全,且会对用户输入进行分析,故对于敏感信息一定要严格加以保护。