分享
Daily Summary|Vol. 20230512
输入“/”快速插入内容
Daily Summary|Vol. 20230512
01.产业新闻
🔗
微软完成对Builder.AI的领投
Builder.AI与微软合作推动软件开发的民主化。此次合作包括微软对Builder.AI的股权投资,预计将加速Builder.AI的使命,赋予全球企业在无需技术专业知识的情况下构建软件的能力。
🔗
HuggingFace代理
代理是可以使用工具的语言模型。这些工具是数字化的,就像计算器或其他 AI 模型一样。HuggingFace有一个界面,可让您轻松快速地使用代理。它们提供了一组精选的模型,适用于许多任务。最近发布的Starcoder也大大提高了代理的可用性。
🔗
Google 发布MusicLM
Google 今天发布了MusicLM,这是一种新的实验性 AI 工具,可以将文本描述变成音乐。MusicLM可在网络,Android或iOS上的AI Test Kitchen应用程序中使用,允许用户输入提示,例如“晚宴的深情爵士乐”或“创建催眠的工业技术声音”,并让该工具创建歌曲的多个版本。
🔗
Bard 升级到 PaLM 2语言模型
Google 正在通过多语言支持、Google Docs 和 Gmail 集成以及视觉搜索等附加功能来提高其 AI 聊天机器人 Bard 的能力,同时还使其在全球范围内可用。Bard现在升级到Google 新的PaLM 2语言模型,将提供更好的响应,更好的编码帮助,包括调试,以及将来使用AI生成视觉效果的能力,使其与OpenAI的ChatGPT和微软的Bing聊天机器人等竞争对手保持竞争力。
02.研究动态
🔗
使用算法增强语言模型以实现卓越性能
最近的研究表明,将算法整合到大型预训练语言模型(LLM)中可以显着提高其功能,而无需微调。证据支持的问答示例表明,与标准基线相比,提高了6.4%,这表明这种创新,具有成本效益的方法的潜在优势。
🔗
使用大型语言模型构建负担得起的业务
这批 deeplearning.ai 新闻稿探讨了如何使用大型语言模型 (LLM)(如 GPT-3.5-turbo)成为自动化任务或生成内容的经济高效的解决方案。它强调LLM可以生成足够的文本,以低至0.08美元的价格吸引用户一小时,这使得它们在许多任务中比人力便宜得多,并且当生成的内容被大量受众消费时,成本效益进一步提高。
🔗
使用扩散模型探索数据增强的力量和潜力
本文系统地评估了从扩散模型生成图像的方法及其对下游任务中数据增强的好处。研究表明,针对目标数据的个性化扩散模型是有效的,但通过简单的最近邻检索程序单独使用扩散模型的训练数据可以提高下游性能,突出了扩散模型在数据增强中的潜力和局限性。
🔗
没有注意力的预训练(GitHub Repo)
注意力是语言模型对单词执行计算的一种方式。这是相当昂贵的。如果我们可以使用一维卷积状态空间模型进行BERT训练会怎样?事实证明,它的表现非常好,所有代码、权重等都可以在 Jax 中找到。
🔗
Chain-Of-Thought-Hub (GitHub Repo)
Chain-of-Thought-Hub通过思维链提示对大型语言模型的复杂推理能力进行基准测试。
🔗
LLM Chain (GitHub Repo)
LLM Chain是一个强大的防锈箱,用于在大型语言模型中构建链,允许您汇总文本并完成复杂的任务。
03. 产品体验
🔗
PrivateGPT (GitHub Repo)
PrivateGPT 允许您使用 GPT 的强大功能私下与您的文档进行交互。
🔗
Raycast Pro
Raycast Pro 是专业人士的生产力工具,具有 AI、云同步、自定义主题、无限剪贴板历史记录、Pro API 等功能,即将推出。