一键变声“雷军”,小心AI“玩过界”

  • 来源:电脑报
  • 关键字:原因,影响,AI
  • 发布时间:2024-11-08 11:11

  Cloud

  信息造谣,AI或成帮凶

  AI 变声和“鬼畜”唱歌不同,前者是可以轻松制造谣言的,以这次雷军AI语音来说,诸如“远程操控小米手机炸死你”“我开小米SU7 撞死你全家”“用小米手机看黄片”等等说辞不绝于耳,要知道短视频平台的渗透率极深,很多并没有那么高辨识能力的用户真的会把AI 说的当成是雷军本人说的,对小米品牌都有可能造成负面影响,这也是为什么后来雷军会亲自拍视频澄清,全网也开始四处删帖的原因。

  从技术上来看,AI 变声,也就是声音克隆的原理就是利用大模型来学习并模仿特定的声音,AI 雷军的这个项目其实就来自国内专业人士开发的“GPTSoVITS”,该项目早在年初就已经上线了,现在已经开发到了V2 版本,因为是国内开发者制作,所以在百度网盘、UC 网盘、123 网盘都能找到本地运行的整合安装包,安装后调用WeiboUI 就能进行操作,整个过程和StableDiffusion 等AI文生图软件是差不多的。GPT-SoVITS可以使用少量的语音数据就能训练出一个高质量的文本到语音模型,训练好模型就能根据文本提示词,生成与目标对象高度相似的合成语音。

  当然,除了GPT-SoVITS,市面上也有非常多的在线文生语音App,内置了很多名人已经训练好的语音包,只需要输入文字就能直接输出,不少都已经能达到以假乱真的地步,再辅以实时换脸等技术,以后哪怕是打视频电话,稍不留神也容易被蒙骗,所以当前的AI技术就像一把双刃剑,如何在保护个人隐私和财产的情况下合理利用就成了全球科技企业的头等大事之一。

  声音侵权已有法律先例,AI不能“为所欲为”

  在法律保障方面,其实国家的动作并不拖沓,我国民法典将人格权独立成编,首次以立法形式将保护“声音”写入民法典,明确参照适用肖像权的形式保护自然人的声音,值得注意的是,声音作为一种人格权益,具有人身专属性,任何自然人的声音均应受到法律的保护,对录音制品的授权并不意味着对声音AI 化的授权,未经权利人许可,擅自使用或许可他人使用录音制品中的声音即可构成侵权。

  早在今年的4 月,北京互联网法院就一审开庭宣判了全国首例AI 生成声音人格权侵权案,原告殷女士从事配音、播音工作多年。2023 年5 月,殷女士发现一款配音App 将自己的声音AI 化后以“魔小璇”的名义对外出售牟利,这一声音产品出现在多个短视频平台的用户作品中。

  那么,殷女士的声音是如何“被盗”的呢?这是因为殷女士曾接受被告北京某文化传媒公司的委托录制录音制品,该公司将录音制品的音频提供给第二被告某软件公司,允许其以商业或非商业的用途使用、复制、修改数据用于其产品及服务。第二被告某软件公司以殷女士录制的录音制品作为素材,在AI 化处理后生成了“晓萱”文本转语音产品,放在第三被告上海某网络科技公司运营的平台上对外出售,而第四被告北京某智能科技公司则购买了此服务,以应用程序接口形式调取并生成“魔小璇”的文本转语音产品。

  最后经过法院裁定,该AI 声音与原告的音色、语调、发音风格等具有高度一致性,最终判决被告北京某智能科技公司、某软件公司向殷女士赔礼道歉,被告北京某文化传媒公司、某软件公司向殷女士赔偿损失25 万元。这起案件也是全国首例“AI 声音侵权案”,本案审判长北京互联网法院副院长赵瑞罡表示,希望通过此类案件裁判,为新业态新技术划定应用边界,并亮明兼顾保护人格权益与引导技术向善的司法态度,也为那些想要利用AI 来作恶的人敲响警钟,不要以为人工智能就是法外之地。

关注读览天下微信, 100万篇深度好文, 等你来看……