据路透社 12 月 12 日报道,Meta 不顾自家律师警告,使用盗版书籍训练其人工智能模型。根据周一提交的新诉状,Meta 被指控未经许可使用受保护的作品训练人工智能语言模型 Llama。该诉讼由喜剧演员 Sarah Silverman、普利策奖得主 Michael Chabon 等作家于今年夏天联合发起。本周一起,该案与另一起类似诉讼合并审理。 上个月,加州一位法官驳回了 Silverman 的部分诉讼,但表示将允许作者修改诉讼内容。新诉状中包含了 Meta 一名研究员在 Discord 聊天服务器上讨论获取数据集的聊天记录,这一证据表明 Meta 意识到其对书籍的使用可能不受美国版权法的保护。在起诉书引用的聊天记录中,研究人员 Tim Dettmers 描述了他与 Meta 法律部门就使用书籍文件作为训练数据是否“合法”的争论。Tim Dettmers 提到,Meta 的法律部门律师曾表示,如果使用这些书籍训练 AI 模型,可能会存在法律问题。律师称,这些数据无法使用,如果使用了的话,模型也无法发布。
2
01:36
据 IT 之家 12 月 8 日消息,Meta 昨日推出一款名为 Purple Llama 的 AI 检测套件,号称提供了一系列工具,可帮助开发者检测自家 AI 安全性,并“负责任地部署生成式 AI 模型与应用程序”。 Purple Llama 套件目前提供“CyberSec _”评估工具、Llama Guard“输入输出安全分类器”,Meta 声称,之后会有更多的工具加入这一套件。Meta 介绍称,Purple Llama 套件旨在规范自家 Llama 语言模型,也能够作用于其它友商的 AI 模型,这一套件的名称由来,是基于安全领域的“紫队概念”。 Meta 声称,紫队是“攻击红队和防御蓝队”的结合,而 Purple Llama 套件的作用,就是在评估和缓解 AI 模型的潜在威胁,“兼顾攻击和防御策略”。具体而言,Purple Llama 套件目前能够量化大模型在网络安全风险的指标,评估可能存在的代码漏洞,并为模型的安全性提供见解,此外还能检查并过滤模型的输入和输出内容,防止黑客“越狱”相关模型。
01:04
据 AIGC 开放社区报道,微软宣布在 Azure AI 云开发平台中新增了 Falcon、Phi、Jais、Code Llama、CLIP、Whisper V3、Stable Diffusion 等 40 个新模型,涵盖文本、图像、代码、语音等内容生成。 开发人员只需要通过 API 或 SDK 就能快速将模型集成在应用程序中,同时支持数据微调、指令优化等量身定制功能。此外,开发人员可通过关键字搜索,在 Azure AI 的“模型超市”中迅速找到适合自己的产品,例如,输入“代码”两字,就能显示相应的模型。