随着数字经济发展和人们对隐私等权益保护意识的增强,优化立法中的知情同意规则,是实现法律规制与技术创新协调,防范生成式人工智能风险的关键。具体可从以下方面着手:树立合理限度、最小必要的治理理念:《全球人工智能治理倡议》提出“以人为本、智能向善”的发展方向。生成式人工智能在收集个人信息时,应遵循最小必要理念。立法和司法过程中需秉持这一理念,加强引导。在数据收集、处理各环节,要合理把握限度,避免过度收集私密信息。可通过加强算法技术审查、预先评估风险、严格执行备案机制等,降低信息泄露风险,平衡数字经济发展与个人信息保护。落实分级分类的治理模式:一方面,要区分不同信息的保护边界和方式。如对于个人普通信息,可获默示同意;敏感信息需明示同意;像人脸、金融等强私密信息,则需明确书面同意。另一方面,告知方式应简洁易懂,若数据用于生成式人工智能训练等用途需明示,数据处理范围改变或向其他机构提供时,要二次授权确认。同时,要赋予信息主体删除、更正、撤回同意等权利,让风险更可控。促进数据信息的合规流通:运用区块链等技术对信息利用、流转环节进行监管,实现可追溯管理,建立动态治理体系。利用自动化检测程序加强实时监管,保证处理合规透明,建立识别和预警机制,实现流程留痕。此外,要破除监管壁垒,各部门形成监管合力,打造多元共治格局,通过行政监管、企业自治、社会参与、第三方监督等,形成有效治理机制。适用举证责任的倒置:生成式人工智能运行涉及电子证据,具有易变性等特点,若按“谁主张谁举证”规则,信息主体可能面临取证难问题。而信息处理者具有地位和技术优势,举证能力强,因此在司法程序中应实行举证倒置,加大其举证责任,降低信息主体维权难度和成本,弥补双方差距。推进统合式立法:《网络安全法》《数据安全法》《个人信息保护法》等为人工智能监管提供了支撑,但法律法规间存在交叉。需结合生成式人工智能发展趋势进行整合,形成系统规范的法律体系,让生成式人工智能在技术赋能的同时,受到法律规则约束,筑牢数字信任体系基础,助推数字经济发展。
|
|