权限被故意泄露,OpenAI暂停Sora访问
- 科技
- 2024-11-29 04:21:04
- 662
每经记者 蔡 鼎 实习记者 岳楚鹏 每经编辑 兰素英
一直被外界寄予极高期望的OpenAI文生视频AI模型Sora自今年2月首次展示以来,就没有任何关于何时正式发布的消息了。当地时间11月26日,一些据称参与了Sora测试的艺术家泄露了该模型的访问权限(API),以抗议OpenAI对他们的压榨行为。
当日,公共AI模型社区Hugging Face突然出现了一个文生视频的项目。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有Hugging Face的用户可以使用Sora生成视频。
通过这一前端,用户可以通过输入简短的文字描述来生成分辨率高达1080p的10秒视频。但项目创建三个小时后,OpenAI就关闭了所有艺术家对Sora的早期访问权限。目前该项目已无法使用。在短短的三小时内,用户通过这一项目生成了87个视频并发布了出来。
目前OpenAI并没有公开确认所谓的Sora泄露是否属实。但是OpenAI强调,参与其“研究预览”是“自愿的,没有义务提供反馈或使用该工具”。
OpenAI暂停Sora访问权限这一举动也暴露出AI行业的透明度问题。随后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。截至发稿,这封信已经收到550个签名,包括马斯克。
艺术家们怒了
当地时间11月26日,一小群参与Sora测试的艺术家在Hugging Face泄露了Sora的访问权限,以表达对OpenAI的不满。项目团队使用他们的身份验证令牌(可能来自早期访问系统)创建了一个前端,让所有Hugging Face的用户可以使用Sora生成视频。
此前,OpenAI向数百名艺术家开放了Sora的早期使用权,以测试这款新的AI视频生成器。但部分艺术家认为,OpenAI利用了他们的无偿劳动,并利用他们来提升公司形象。
为引起外界对OpenAI这一行为的关注,他们在公共AI模型社区Hugging Face上发布了一个在线项目,允许公众使用Sora生成视频。
随项目同时发布的还有一封言辞激烈的公开信。在信中,艺术家们将OpenAI比作“中世纪的封建领主”,谴责他们利用了艺术家的无私贡献,却并没有给出合理的报酬。“我们获得了Sora的使用权,并承诺成为早期测试者、红队成员和创意合作伙伴。然而,我们认为,我们被引诱进行‘艺术洗白’,以告诉世界Sora对艺术家来说是一个有用的工具。”
这封信充斥着对OpenAI的不满,艺术家们写道:“我们不是你的无偿研发人员。我们不是你的免费错误测试人员、PR(公关)傀儡、训练数据和验证令牌。”
尽管参与模型测试的艺术家有数百名,但只有少数作品进行展映,而且报酬极为有限,与OpenAI获得的巨大公关和营销价值相比,简直是微不足道。更让这些艺术家们愤怒的是,“每个影片都需要OpenAI团队的批准才能分享。这个早期访问计划似乎更多关注的是公关和广告,而不是创作表达和批评。”
他们在信中强调,“我们并不反对将AI技术作为艺术工具使用(如果我们反对,可能就不会参加这个项目)。我们不同意的是艺术家项目的推出方式,以及该工具在可能公开发布之前的呈现方式。我们发布这个声明,希望OpenAI能变得更加开放,对艺术家更加友好,并在支持艺术方面不只是公关作秀。”
他们还呼吁其他艺术家使用开源的视频生成工具来抵制OpenAI这种闭源公司。“开源视频生成工具让艺术家能够在没有门槛、商业利益或服务于任何公司的公关目的下,探索前卫艺术。我们也鼓励艺术家使用自己的数据集来训练自己的模型。”
但在艺术家们上线Sora API项目后三小时,OpenAI迅速切断了访问权限。OpenAI发言人Niko Felix称,公司将暂停所有用户对Sora的访问,同时调查情况。但是他拒绝说明这个项目是不是真链接到了Sora模型。“Sora仍处于研究预览阶段,我们正努力在创造力与更广泛的强大安全措施之间取得平衡。”
Felix同时说道:“我们alpha版本的数百名艺术家塑造了Sora的发展,帮助确定新功能和保障措施的优先级。参与是自愿的,没有提供反馈或使用该工具的义务。我们很高兴为这些艺术家提供免费访问权限,并将继续通过赠款、活动和其他计划为他们提供支持。我们相信AI可以成为一种强大的创意工具,并致力于让Sora既实用又安全。”
AI研发被指缺乏透明度
在OpenAI暂停Sora访问权限后,该艺术家团体发布了一个公开信网站,鼓励任何与他们有相同观点的人签署这封公开信。
截至发稿,这封信已经收到550个签名,与OpenAI极其不对付的马斯克也在其中。
这次事件在AI行业中并不常见,因为早期测试人员的反馈受到公司的严格控制,而且严厉的批评很少公开。通常,公司会亲自挑选外部人员提前访问系统,在某些情况下,公司会要求这些用户签署保密协议或获得批准,然后才能公开分享系统生成的任何图像、视频或文本响应。
但最近,越来越多的AI安全专家批评这种做法对独立研究产生了寒蝉效应,降低了透明度,并阻碍了对公司行为的问责。斯坦福大学的基础模型透明度指数显示,没有一家主要的基础模型开发商能够提供足够的透明度(最高得分54分,满分100分),这揭示了AI行业缺乏透明度。
OpenAI的员工此前也指责公司强迫员工签署“封口协议”,不允许离职员工发表对公司的负面言论,否则公司可以收回员工已有股权。离职员工也不得对外公开这些协议内容。
为此,今年6月,OpenAI以及谷歌DeepMind的一批员工联合发布了一份名为《对AI发出警告》的公开信。
公开信预警,AI技术存在加剧不平等、操纵和误导信息,失去控制并威胁人类的风险。AI公司技术迭代的同时产生了大量安全相关的非公开信息,它们没有主动披露的动机。监管部门对此难以形成有效制约,只能由现任或前任员工要求它们向公众负责。
上述员工在公开信中对包括OpenAI在内的AI公司提出了4点呼吁:⒈不强迫员工签订禁止批评公司的协议;⒉为公司现任和前任员工提供匿名的安全反馈机制;⒊允许现任和前任员工向董事会、监管机构、其他安全机构提出对公司技术安全的担忧;⒋公司不对公开分享风险相关机密信息的现任和前任员工进行报复。
正如Hugging Face的一则评论所说,“AI并非凭空而来。它建立在创意人员的肩膀上,而这些创意人员往往没有得到认可。Sora泄密事件敲响了警钟:没有道德的创新就是剥削。”
翻译
搜索
复制
发表评论