规范AI服务管理,划“红线”注“标识”确保个人信息安全


来源: 中国妇女报

让人工智能产业在法律法规的轨道内平稳健康发展

规范AI服务管理,为技术应用划定法律红线

《生成式人工智能服务管理暂行办法》将于8月15日起正式施行。提供和使用生成式人工智能服务应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。


(资料图片仅供参考)

不久前,内蒙古包头市警方发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

一天中午,郭先生接到好友的微信视频,说自己的朋友在外地竞标需要430万元保证金,且需要公对公账户转账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万元转到了好友朋友的账户上。后来郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。

“当时他是给我打了视频的,我在视频中也确认了是好友的面孔和声音才放下戒备。”郭先生说。

幸运的是,接到报警后,包头、福州两地警银联动,迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。

此类AI诈骗事件并非孤例。近几年,多地出现使用智能AI技术进行电信诈骗的案件。随着深度合成技术的开发,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为日益增多。那么,AI诈骗常用手段有哪些?AI换脸、AI换声涉嫌侵犯哪些权利?法律底线在何处?

AI诈骗的常用手段

AI换脸、换声技术是通过运用人工智能技术和深度算法,可以将人脸、表情、声音等进行高效准确的替换,实现深度伪造,让人真假难辨。

技术持续更新换代,我们接触到AI实时换脸技术的门槛日渐降低。内蒙古尊恒律师事务所律师张跃飞在接受中国妇女报全媒体记者采访时表示,AI诈骗通常有以下几种常用手段——

第一种:声音合成。

诈骗者通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

第二种:AI换脸。

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。诈骗者首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

第三种:转发微信语音。

诈骗者在盗取微信号后,会向其好友“借钱”,为取得对方的信任,他们会转发之前的语音进行诈骗。微信没有语音转发功能,但他们会通过提取语音文件实现语音转发。

第四种:利用AI程序筛选受害人。

诈骗者利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可制定出诈骗脚本,实施精准诈骗。如实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。

张跃飞提醒大家,对于个人而言,人脸、声音、指纹等生物信息以及身份证、银行卡账号等个人信息的保护变得尤为重要。如果熟人在线上提出转账需求时,要通过多重验证来确认对方身份,特别是对AI技术了解不多的老年人更要加强防范。

AI技术滥用的法律风险

近日,“AI明星”正成为短视频平台新一轮流量密码,同时,一些普通主播为增加卖点,吸引流量,通过“AI换脸技术”摇身一变成为一线当红女星进行直播带货。

张跃飞告诉记者:“能以假乱真、掩人耳目的AI技术在民事方面易引发肖像权等侵权行为,在刑事方面易引发诈骗罪、侵犯公民个人信息罪等。”

根据民法典第一千零一十八条规定,“肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别的外部形象。”这表明肖像权的范围并不仅限于人的面部特征,只要能够识别特定自然人的外部形象都受到肖像权的保护。民法典明确了侵犯肖像权的具体行为,其中包括未经肖像权人同意,丑化、污损,或者利用信息技术手段伪造等方式侵犯他人的肖像权。

未经明星本人同意,擅自利用“AI技术”变成明星脸来带货,根据民法典第一千零一十九条规定,“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权”。该行为涉嫌侵害明星的肖像权。

如果带货过程中有故意丑化或者损毁的情形,导致被换脸明星的社会评价降低,根据民法典第一千零二十四条规定,“任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权”。该行为涉嫌侵犯明星的名誉权。

如果“AI换脸技术”未经当事人同意,就处理其生物特征等敏感信息,根据民法典第一千零三十二条规定,“任何组织或者个人不得以刺探、侵扰、泄露、公开等方式侵害他人的隐私权”。该行为涉嫌侵犯他人隐私权。

另外,对于著作权人而言,程序运营者和普通用户未经授权和许可,擅自将图片或视频作为模板提供给不特定用户用于“换脸”或将换脸后的视频通过信息网络公开传播,则可能构成对信息网络传播权和保护作品完整权的侵害。

划“红线”注“标识”确保个人信息安全

技术是把双刃剑,一旦技术被滥用,就隐含了巨大的风险。面对AI技术的快速发展和滥用现象,有效的监管和规范必不可少。我国与人工智能技术相关的法律法规正在不断完善。

国家网信办出台的《互联网信息服务深度合成管理规定》于今年1月10日正式施行,主要针对深度合成服务者的义务进行了规定,其中要求深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。由此可见,做好风险防范首先要从技术开发者、服务提供者入手。

近日,为促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《办法》),将于今年8月15日起施行。

国家互联网信息办公室总工程师孙蔚敏表示,出台《办法》,坚持发展与安全并重,既鼓励创新,又依法治理,坚持包容审慎、分级分类的思路,以安全促发展,以发展保安全。

随着人工智能与日常生活场景结合越来越密切,针对在此基础上凸显的隐私泄露、造谣诈骗等问题,《办法》将保护使用者的个人信息安全摆在了重要位置。《办法》第九条提出,生成式人工智能服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。

这一条就将生成式人工智能服务提供者明确纳入了网络平台责任的规制范围内,让违规违法者无处可遁。

《办法》第十一条要求服务提供者不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。《办法》第十四条提出,提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施并采取模型优化训练等措施进行整改。

而针对目前生成式人工智能内容难以被分辨,甚至出现技术被滥用、误用等问题,《办法》明确服务提供者应当对相关生成内容进行显著标识。标识的作用在于警示和提醒用户,该内容是由AI生成的。

技术进步需要更加健全、与时俱进的规则和法律保护,完善相关法律体系和实施细则,加强有效监管,明确行为底线,各个环节形成合力,多管齐下,才能让人工智能产业在法律法规的轨道内平稳健康发展。

[责任编辑:刘蕊]

[责任编辑:谢涵宇]

责任编辑:谢涵宇PF085

标签: