(记者郑典编译报道) 据《商业内幕》(The Business Insider)2024年6月10日(周一)。
示意图。(图片来源 : Jernej Furman from Slovenia/Wikimedia/CC BY-SA 2.0)
OpenAI在几个月内第二次解释其文字转音频工具,提醒大家它还没有、也可能永远不会被广泛使用。
该公司周五在其网站上发布的声明中表示:「重要的是,世界各地的人们都了解这项技术的发展方向,无论我们最终是否广泛部署它。」这就是为什么我们想要解释这个模型是如何运作的,我们如何将它用于研究和教育,以及我们如何围绕它实施我们的安全措施。
去年年底,OpenAI与公司外部的一小群用户分享了其语音引擎,该引擎依靠文字输入和15秒的人声音讯片段来「产生与原始说话者非常相似的自然语音」。该工具可以用多种语言创造出听起来令人信服的人类声音。
当时,该公司表示,它选择预览该技术,但不会广泛发布它,以「增强社会弹性」,以应对「越来越令人信服的生成模型」的威胁。
OpenAI表示,作为这些努力的一部分,它正在积极致力于逐步淘汰用于访问银行帐户的基于语音的身份验证,探索保护人工智能中个人语音使用的政策,教育公众了解人工智能的风险,并加快跟踪科技的发展视听内容,以便使用者知道他们正在与真实内容还是合成内容互动。
但尽管做出了这些努力,人们对这项技术的恐惧依然存在。乔·拜登总统的人工智能负责人布鲁斯·里德(Bruce Reed)曾表示,声音复制是让他彻夜难眠的一件事。美国联邦贸易委员会在三月表示,诈骗者正在利用人工智能来提升他们的工作水平,使用语音克隆工具,使区分人工智能生成的声音和人类的声音变得更加困难。
OpenAI在周五更新的声明中试图缓解这些担忧。该公司表示:「我们将继续与来自政府、媒体、娱乐、教育、民间社会等领域的美国和国际合作伙伴合作,以确保我们在建设过程中吸收他们的反馈。」
它还指出,一旦语音引擎配备其最新型号GPT4o,它也将带来新的威胁。该公司在内部表示,它「正在积极对 GPT-4o 进行红队部署,以识别和解决社会心理学、偏见和公平以及错误信息等各个领域的已知和不可预见的风险。」
当然,更大的问题是当该技术广泛发布时会发生什么。
原文连结