央视网消息:4月11日,国家互联网信息办公室开始就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见。专家分析,《征求意见稿》提出多个层面的监管意见,强调权益保护,防止“滥用”行为,有助于中国的生成式人工智能技术健康发展。
《征求意见稿》共21条,将“生成式人工智能”定义为基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,明确“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”。
根据《征求意见稿》,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,禁止非法获取、披露、利用个人信息和隐私、商业秘密。利用生成式人工智能产品向公众提供服务前,要向国家网信部门申报安全评估,对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应符合法律法规要求,不含有侵犯知识产权的内容,数据包含个人信息的,应当征得个人信息主体同意,并保证数据的真实性、准确性、客观性、多样性。
而在用户端,提供生成式人工智能服务应当按照规定,要求用户提供真实身份信息,发现违反法律法规,违背商业道德、社会公德行为,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。
随着ChatGPT火爆市场,大众对生成式人工智能技术的认知程度不断提升。截至目前,已有百度、华为、腾讯、阿里、京东、360等中国互联网企业布局生成式人工智能业务。技术的快速发展,给监管机构和商业生态提出了更高的要求,也带来了更大的挑战。
业内人士表示,《征求意见稿》的出台,意味着AI行业的标准化步伐正加快,划定界限的同时,也为其留下了充分的发展空间,致力于避免“先污染后治理”的困境。随着更多应用落地,一些潜在的风险将被认识和暴露,监管侧措施也会更加“对症”,《征求意见稿》只是第一步。
(央视网)
https://baijiahao.baidu.com/s?id=1762950231672391463&wfr=spider&for=pc