益科正润:AI监管规定出炉,保护数据安全与隐私有利长期健康发展

  4月11日,为促进生成式人工智能技术健康发展和规范应用,我国首部AI监管规定出炉。国家互联网信息办公室正式发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能服务进行监管。该办法规定,提供者必须遵守法律法规的要求,尊重社会公德、公序良俗,并对提供的生成内容负责。此外,提供者还应当建立用户投诉机制,及时处置用户请求,发现不符合本办法要求的生成内容时应当采取措施停止生成。

  益科正润观察,随着人工智能技术的不断发展,生成式人工智能也逐渐成为了研究和开发的焦点之一。近期,以ChatGPT为代表的AI生成内容技术难以辨别真实性,出现了各种不合法和不合规使用,引发了社会的广泛关注。

  在我国发布监管规定之前,意大利、德国监管机构已发布ChatGPT禁令,美国展开了是否需要对ChatGPT等人工智能工具进行审查的讨论,AI巨头将共同商议并制定AI相关安全协议。法国、爱尔兰、西班牙等国也开始考虑对AI聊天机器人采取更严格的监管。

  对ChatGPT类生成AI的忧虑,出于对数据和隐私信息泄露的担忧。这类AI需要大规模使用网络公开数据训练模型,很有可能意外泄漏个人隐私信息。在AI滥用的情况下,虚假信息、数据安全、知识产权合规、伦理等各种各样的风险已不容忽视。各个国家都已经认识到了如果不对该技术进行一定限制,个人隐私遭侵犯、社会稳定甚至国家安全受威胁的风险。

  益科正润观察,我国《征求意见稿》指出,用于生成式人工智能产品的预训练、优化训练数据,不但要符合《中华人民共和国网络安全法》等法律法规的要求,还不能含有侵犯知识产权的内容。如果数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形。此外,还要能够保证数据的真实性、准确性、客观性、多样性。以及必须建立用户投诉机制,及时处置用户请求,发现不符合本办法要求的生成内容时应当采取措施停止生成等。

  而且,中国支付清算协会也于4月10日发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》,其中表示,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

  益科正润认为,《征求意见稿》的出台可谓十分及时,赶在国内AI生成技术发展的早期,初期就做好合规工作,保障公众的信息安全与个人权利,并规范生成式人工智能技术的应用,可以为其后续长期稳健发展保驾护航。

关键词阅读:益科正润 生成式人工智能 ChatGPT

责任编辑:李少迪
精彩推荐
加载更多
全部评论
金融界App
金融界微博
金融界公众号