AI生成式照片:火热背后的隐私担忧与刑事风险
时间:2023-08-01 来源:区块链网络 作者:中本律
【引入】近期,以妙鸭相机为代表的AI生成式照片火了。仅需上传个人正面照片和20张多光线多角度多表情的单人照片,即可收获个人专属数字分身,并能够选择各种模板将分身导入,打造私人订制的写真照片。这种AI定制化体验,因为新颖有趣、满足用户的拍照需求而备受欢迎。但与此同时,妙鸭相机最初版本隐私政策的“霸王条款”引发了公众对AI生成式照片背后蕴含的个人信息安全保护的担忧。本文就将结合实践案例,分析AI生成式照片获取用户生物特征信息可能造成的刑事风险,并就此提出AI技术刑事合规发展的法律建议。 一、问题提出——AI生成式照片广受欢迎 AI换脸、AI绘画的浪潮尚未消退,AI生成式照片又引领了一波流行风潮。与此前多平台出现的纯粹的AI合成照片不同,AI生成式照片是在收集用户个人生物特征的基础上,制作个人数字分身,并将其运用至各种写真场景,满足用户定制化的照片需求的商业服务。2023年7月,妙鸭相机在微信小程序中上线。用户在上传单人正面照片和补充上传20张多光线、多背景、多视角、多表情的单人无遮挡照片后,付费9.9元,即可获得个人数字分身。在拥有数字分身后,用户可以选择心仪的写真场景,如证件照、古风写真、复古港风等多种模型,制作专属于个人的写真照片。与海马体、天真蓝等动辄几百上千的付费写真不同,AI生成式照片使得用户仅需9.9元即可获得多类型的个人照片,且写真场景还在不断更新,因此妙鸭相机一经上线就受到广泛欢迎。 笔者在用妙鸭相机实验时,因前方排队人数高达4771人,需等待将近11个小时才能生成本人数字分身。经实践发现,虽然妙鸭相机目前存在排队时间长、写真场景少、部分数字分身与本人差距大的局限,但AI技术是不断学习发展的,随着AI的不断学习,以上问题全部都可得到解决,届时写真行业可能受到重大打击。妙鸭相机的短期成功表明,AI技术及其应用已经逐渐渗透在用户互联网生活的细分领域,充分发挥便捷、低廉、精准化满足用户需求的优势,使得用户主动为AI服务付费,因此该技术的发展前景广阔。但同时,AI生成式照片是在收集用户生物特征的基础上制作而成的,用户累计上传的21张照片能够提取出其个人特征,此项技术如果不能得到规制,有可能引发用户信息泄露的重大风险,妙鸭相机已出现的隐私政策风波就证实了这一观点。 二、风波涌起——妙鸭相机隐私协议引发信息安全探讨 如妙鸭相机等AI生成式照片多采用的是AIGC技术。AIGC(Artificial Intelligence and Graph Computing)技术,是一项结合计算和人工智能技术的新兴技术,集合了机器学习和自然语言处理等技术,通过对海量数据的学习和分析,可以让计算机模拟人类的创造力和判断力,生成符合人类需求的内容,包括但不限于各种文本、图像、音频和视频等多媒体内容。AIGC技术在图像方向有着广泛的应用,主要为图像识别、图像生成和图像处理等方面,现有技术已经可以生成较高质量的图像。可以说,AIGC技术在市场应用方面具有巨大发展前景。值得讨论的是,想生成AI写真需要将用户个人照片上传,数据的加工、处理、保存都在云端而非本地,如果不对此加以管控,与人体生物特征密切相关的数据就存在泄露或被非法利用的可能性,则有可能使本身造福人类的技术变为侵害个体权益的工具。 妙鸭相机问世几天后,该应用的《用户服务协议》条款引发了广泛探讨:“用户需授权妙鸭相机在全世界(包括元宇宙等虚拟空间)范围内享有永久的、不可撤销的、可转让的、可转授权的、免费的和非独家的许可,使得妙鸭相机可以任何形式、任何媒体或技术(无论现在已知或以后开发)使用用户的内容。”该条款表明,平台默认用户在使用该应用上传照片后,授予平台对照片享有免费的、不可撤销的、可转让的许可,且该许可不限时间。此条款作为格式条款是用户使用相机功能的前提,却对用户权益进行了极大限制,平台很难保证用户的照片不会被用作AI模型训练或其他目的,甚至更有数字分身携带的用户面部特征信息被用于违法犯罪的风险。虽然妙鸭相机在舆论压力下修改了《用户服务协议》,删除了该条款,并承诺“您所上传的照片只会用于数字分身制作,不会提取也不会用于识别和其他用途,且分身制作后自动删除。”但是因为有“霸王条款”和各种AI照片犯罪的前例出现,部分用户还是表达了对AI生成式照片的担心,下文将详细介绍AI生成式照片获取的生物特征信息可能会引发的刑事法律风险,以帮助读者提升防范意识。 三、理性讨论——AI生成式照片推广蕴含的刑事法律风险 时至今日,AI技术已经以势不可当之势进入人们生活的方方面面,在技术发展满足人类日益增长的对美好生活的需求的同时,也为法律规范和伦理体系带来了新的挑战,如何平衡AI技术发展和个人权益保护将是未来互联网领域的重要命题。虽然,经笔者研究发现,以妙鸭相机为代表的AI生成式照片尚存在人脸描绘不够精确、模板较少、算力有限等局限性,暂时无法替代为客户提供体验感的线下照相馆,但是随着AI技术的飞速发展,生成式照片的精确度将不断提高,未来图像市场的占有者还无法预料。因此,笔者认为讨论生成式照片的刑事合规,预测人脸数字模型泄露的刑事风险具有重要意义。 (一)AI换脸诈骗风险 事实上,AI技术在便利人们生活的同时,也可能被不法分子利用,侵害公民之间的信任基础。AI换脸技术已经不再新鲜,在国内某知名视频网站可以检索到大量换脸视频,此类视频大多是将明星的脸替换到其他人物上,对原版视频进行二次加工创作,平台也会在视频页面提示该视频有AI换脸风险。随意替换明星的脸是否侵害其肖像权是民事方面应该讨论的问题,而笔者提及的是犯罪团伙在获取个人数字模型的基础上,通过AI换脸制作虚假视频,实行诈骗犯罪的刑事问题。实务中,已经出现犯罪团伙利用事先获取的用户的面部、声音等生物特征信息,通过微信、QQ等社交账号虚构事实向用户的亲属借钱,在亲属提出质疑后,用伪造好的用户的个人形象进行视频通话,获取亲属信任、达成骗取财产目的的案例出现。因此,在互联网技术已经发展到拥有用户照片即可提取生物信息的基础上,妙鸭相机等AI生成式照片的APP如果不能保管好用户的个人信息,无疑是为犯罪分子提供了现成的制作AI换脸视频的数据库,尤其是妙鸭相机更改之前的用户服务协议,将此行为事前取得用户的知情同意,使得用户权益受损的风险大大增加。 (二)AI侵犯公民个人信息风险 除通过AI换脸向熟人诈骗外,利用AI突破人脸识别技术,也是威胁用户信息和财产安全的有害途径之一。人脸识别技术是一项生物识别技术,主要是通过计算机视觉和图像处理技术对人脸图像进行特征提取和比对,从而实现对个体身份的确认和识别。以人脸识别技术为代表的生物识别技术被广泛用于政府、银行、电子商务等领域,许多APP的登录和支付界面都可采取人脸识别完成验证。但是,国内已经出现了通过用户高清照片制作能够通过APP人脸识别校验的AI视频的案例。7月11日,广东省广州市越秀区检察院办理的该省首例向互联网法院提起的涉人脸识别公民个人信息保护民事公益诉讼案公开宣判,法院判决被告郑某、任某、戴某、陈某立即停止对公民个人信息的侵害、支付公益损害赔偿金、并公开进行赔礼道歉。2020年8月起,郑某通过通讯软件发布售卖高清身份证照片、身份证号码等个人敏感信息的广告,并组建群组专门用于个人信息非法交易,任某、戴某、陈某通过广告加入该群组后,从郑某手中购得与个人信息相匹配的高清身份证照片,利用其制作可以完成点头、眨眼等动作,能够通过一些App的人脸识别身份验证的AI视频,并有偿售卖给下家。我国《刑法》第二百五十三条规定了侵犯公民个人信息罪,其中个人信息的范围参照《个人信息保护法》包括生物识别信息,且其属于需要取得单独同意的敏感个人信息。与以往的非法获取公民姓名、电话号码、身份证号等个人信息后向公民实施诈骗行为相比,获取公民生物识别信息并用于刑事犯罪的危害性更大,不仅有可能导致公民在完全不知情的情况下产生财产损失,也会使得众多互联网应用的人脸识别功能瘫痪,突破互联网安全防线。 (三)AI涉黄犯罪风险 AI生成式照片引发公众担忧的重要原因是,AI技术已经可以通过高清照片提取个人的生物特征信息,而个人生物特征信息泄露的风险不可想象。除财产诈骗外,AI换脸的涉黄犯罪也是侵犯公民权益、危害社会秩序的高危犯罪之一。目前,AI深度学习技术已经不断趋于成熟,人脸模型训练项目也实现简单化、精确化、便捷化。实务中,出现不法分子用“AI换脸技术”合成他人淫秽视频,利用网络空间传播,并用收费模式换取利益的案例。该行为,轻则侵犯当事人肖像权、名誉权和隐私权,重则涉嫌制作、传播淫秽物品牟利罪。尤其是在互联网开放、共享的空间下,用AI换脸技术制作他人淫秽视频对当事人的身心都会造成极大伤害,此时更要注重对任何可能取得当事人生物特征的平台的监管,防止监管不当造成当事人信息泄露,导致当事人陷入“换脸风波”。 四、刑事合规——如何在法律框架内平稳发展AI技术 AI生成式照片技术本身是一场革新,也走在了AI商业化、市场化的前列,因此不能因为技术具有风险就忽视技术的发展前景,重点是如何找到AI技术与个人权益的最佳平衡点,让新技术助力人类发展。笔者将在下文从政府监管、平台合规、用户监督三方面,讨论不同主体就在AI技术框架下进行个人权益保护应付出的努力。 (一)政府促进AI合成技术监管立法 目前,我国已经出台了《民法典》《个人信息保护法》《网络安全法》等法律法规加强对公民个人信息的保护。就AI合成技术方面,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》要求“深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。”其中,针对人脸、人声等生物识别信息特别强调“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。”并“通过专业机构开展安全评估”和“向公众提示深度合成情况”。2023年7月13日,《生成式人工智能服务管理暂行办法》发布,该《办法》规定了生成式人工智能服务提供者的数据来源合法保证义务、尊重知识产权义务、个人信息保护义务等内容,并设置了相应的监管责任和惩罚机制。由此可见,政府在不断加强科学立法,督促生成式服务提供者履行用户信息安全保障义务。后续,需要相关部门依照法律法规对生成式服务提供者进行定期监督,督促立法要求的落实,并采用技术手段开展数据反泄露管控,让AI合成技术在监管中有序发展。 (二)平台落实刑事合规政策要求 通过前文分析现有AI合成技术法律法规可知,生成式人工智能服务的提供者对于经同意收集而来的生物特征信息负有保管义务,不仅不可主动将该信息用于模型训练,也要防止所获得的信息泄露被不法分子用于刑事犯罪。否则,提供者可能就监管不力承担刑事责任,如诈骗罪的共同犯罪或帮助信息网络犯罪活动罪或侵犯公民个人信息罪等罪名。因此,为事先做到刑事合规,控制运行风险,以妙鸭相机为代表的AI生成式照片的提供者应当就个人信息保护作出努力。第一,事前,梳理平台的《用户服务协议》和《隐私政策》,依照国家法律法规,规定收集信息的用途和目的、明确数据保存的期限、保证收集数据不用于非法目的,不得在条款中不合理地限制用户权利;第二,平台运行过程中,对收集到的用户生物特征信息履行保管义务,一是平台不得非法售卖他人信息,二是平台采取技术手段防止用户信息泄露,在数字分身制作完成后及时删除云端数据;第三,设置用户举报监管通道,对于可能泄露个人生物信息的线索及时查询改正,处理违规行为。只有如此,平台才能在既保证用户权益的同时,保障自身的健康、有序、平稳发展。 (三)用户增强权益保护意识 在政府和平台均加强对个人信息保护的背景下,用户作为个人信息的直接享有者,也应当提高防范意识,参与到信息保卫战中。一是,在注册使用AI生成式照片APP时认真阅读《用户协议》和《隐私政策》,及时发现不合理的条款并积极向有关部门反馈;二是,在上传个人照片使用相关服务内容后,及时删除原照片并要求平台不再进行分享;三是,提高反诈意识,对于AI诈骗学会辨别和判断,保护个人财产;四是,善于使用平台内设的举报通道,学会保存相关证据,在个人权益受到侵害后积极维护自己的权益。因为不掌握信息和资源,用户确实在服务中处于劣势方,但是积极学习AI知识,监督平台对照片的使用,还是能够为捍卫自身合法权益做出贡献。 五、结论 AI生成式照片技术的诞生与发展,让AI走进大众的生活,并被大众所接受。虽然公众对于生成技术收集个人生物信息的安全性依旧有较大担忧,但是妙鸭相机的活跃度与收益依旧表明其具有发展前景。因此文章在充分阐明AI收集生物特征信息可能引发的刑事风险的基础上,就生成式服务提供者的刑事合规提出了些许应对策略。只有多方合力,探索AI技术市场化的可行性道路,才能使这项新技术真正造福大众。 查看更多 |