人的聲音具有人身專屬性,任何自然人的聲音均應受到法律保護。AI技術應用到聲音領域,應堅持技術邊界,依法合規(guī)使用,避免產生侵權糾紛。
人的聲音與人工智能(AI)聲音之間的權益之爭應該如何界定?4月23日,北京互聯網法院對全國首例“AI聲音侵權案”進行一審宣判給出答案。法院認定,作為配音師的原告,其聲音權益包括案涉AI聲音。被告方公司使用原告聲音、開發(fā)案涉AI文本轉語音產品未獲得合法授權,構成侵權。被告方公司被判書面賠禮道歉,并賠償原告各項損失25萬元。
AI技術的快速發(fā)展為生成式語音帶來無限可能,為聲音應用提供了新場景。語音克隆項目的逼真體驗,展現了文生人聲模型的驚艷力量。通過輸入文本、調整參數,即可實現文本轉化成語音的功能。同時,在聲音領域應用AI技術要守住“你的數據仍然屬于你”這條底線,不能隨心所欲侵犯他人合法的“聲音權”。
人的聲音具有高辨識度,音色各不相同。作為一種人格權益,人的聲音具有人身專屬性,任何自然人的聲音均應受到法律保護。在權利保護層面,我國民法典規(guī)定,對自然人聲音的保護參照適用肖像權保護的規(guī)定。也就是說,聲音跟肖像一樣,是識別個人身份的重要依據。法律明確“聲音權”,防止其被冒用、濫用、不正當使用,保護聲音所有者的權益。
聲音在商品化利用時具有財產屬性。在特定場景的應用中,如藝術家數字音樂、明星語音導航、主持人解說、配音師錄制作品等,都具有相應的經濟價值。若對這類錄音制品進行剪輯重組,以冒充、誤導、混淆等非法方式應用于其他軟件或場景,就會構成侵權。特別是對錄音制品來說,雖然有配音師對該錄音制品的授權,但這個授權只發(fā)生在配音師與相應錄音制品之間,并不是對配音師聲音的授權,更不是對其聲音的“買斷”“轉讓”。根據法院裁定,未經本人許可,擅自使用、許可他人使用錄音制品中的聲音,構成侵權。
新技術帶來新挑戰(zhàn)新問題。如今,AI技術正深度融入各行各業(yè),如果使用得當,可發(fā)掘巨大潛力,推動產業(yè)發(fā)生變革。當AI技術應用到聲音領域,平臺或企業(yè)為追求產品質量和效果,應正確認識新技術所面臨的法律風險,堅持技術邊界,依法合規(guī)使用,避免產生侵權糾紛。針對行業(yè)出現AI聲音侵權等現象,相關監(jiān)管機構或部門應與時俱進探索建立保護措施,逐步完善科學合理的使用規(guī)范,以及對“聲音權”所有者的補償機制等,確保AI技術在聲音領域正確使用。對個人而言,如果發(fā)現有相關平臺未經許可AI化使用個人聲音,可在固定確鑿證據的基礎上,依法維權,莫讓此類AI“噪聲”侵犯自身的“聲音權”。
(編輯:映雪)