分享
Daily Summary|Vol. 202304228
输入“/”快速插入内容
Daily Summary|Vol. 202304228
1.
产业新闻
▌Stability AI发布图像放大API
Stability AI宣布发布其图像放大API,这是一种由AI驱动的工具,可以增加任何图像的大小,而不会损失其锐利度。 图像放大API是Stability AI现有的图像生成和编辑API集合的最新补充,如广受欢迎的文本到图像、图像到图像和修补API。
▌ChatGPT新的数据管理方式
ChatGPT用户现在可以关闭聊天历史记录,从而选择哪些对话可以用来训练我们的模型。OpenAI还正在开发新的ChatGPT商业订阅服务,为需要更多数据控制的专业人士和寻求管理终端用户的企业提供服务。
▌Anthropic与Scale合作
Anthropic宣布与Scale合作,以利用其模型监控、部署解决方案、安全性和数据集成,推动商业化进程。这是一个合理的合作伙伴关系,有助于提高这些模型的竞争力。
▌Palantir展示了一种用于战争的 AI 系统
Engadget报道了Palantir展示的一种旨在用于战争的 AI 系统,这一发展突显了 AI 在军事行动中的日益重要的角色,并引发了人们对在战斗场景中使用 AI 的道德和监管问题的重要关注。
▌TikTok正在测试生成式AI头像
TikTok正在测试一种新的应用内工具,允许用户创建生成式AI头像,反映了将先进的 AI 功能整合到社交媒体平台中以增强用户体验和参与度的趋势。
2.
研究动态
▌用于规划的语言模型
语言模型在产生可信文本和某些情况下合理计划方面表现出色。然而,总体而言,它们无法生成长期计划。即使通过微调等方式不改变模型,通过特殊提示,我们也可以显著提高计划生成和计划执行的成功率。具体来说,语言模型生成一个计划语言(提供少量示例),然后由实际的规划者执行该计划,然后将生成的计划翻译回自然语言。这种改进是巨大的。
▌机器翻译需要注意力
运用于各种任务的结构化序列状态空间(S4)模型应用于机器翻译(MT),但在BLEU分数上落后于Transformer 4分,并且在处理长句时存在问题。这种差距归因于S4无法在单个隐藏状态中概括完整的源语句,可以通过引入注意力机制来解决这个问题。
▌如何训练具备能力和道德的LLMs
训练代理程序最大化奖励的一个负面副作用是,它们往往变得追求权力,即试图增加其资源和信息访问权限。这是一个新的发现,而且有点难以测量,本文介绍了一个基准测试来帮助理解这些语言模型的追求权力的行为。此外,他们提供了有关如何训练模型以同时具有高效用和符合道德准则的见解。世界需要更多高质量的基准测试,这是一个朝着这个方向迈出的重要步骤。
▌DeepFloyd IF代码发布
Stability AI的下一代图像模型已发布代码。该模型是一个多阶段模型,具有冻结的T5文本编码器和两个超分辨率模型。这里的一个重要优势是能够呈现极高质量的文本。据称,该模型可能首先仅用于研究,然后在社区反馈后开放。
▌167,000项病人摘要数据 (HuggingFace)
PMC-Patients是一个独特的数据集,包括从PubMed Central(PMC)的病例报告中提取的167,000个病人摘要,以及310万个病人-文章相关性和29.3万个病人-病人相似性注释。该数据集旨在用于检索型临床决策支持(ReCDS)系统,并包括两个基准任务:病人-文章检索(PAR)和病人-病人检索(PPR)。任务和排行榜的详细信息可以在论文中找到。
▌PoseVocab: 学习姿势嵌入以进行人体化建模
PoseVocab是一种用于人体化建模的新型姿势编码方法,构建关键姿势和潜在嵌入以有效地编码动态人体外观,实现姿势泛化和时间一致性。该方法通过使用特征线、紧凑的3D表示和层次化查询策略来插值姿势嵌入,在合成质量方面优于现有的基准线。
▌为什么语言模型需要强化学习?
大多数人都在合理地关注生成式语言模型中的幻觉问题。有一群人在呼吁采用检索作为解决这个问题的方法。这可能是正确的,但也可能带来一系列其他问题。然而,有一种观点是将学习目标从纯粹的专家模仿,即通过下一个标记的预测来改变学习目标,转向允许模型获得负反馈并提出寻求知识的查询的强化学习目标。
▌CopilotForXcode