分享
Daily Summary|Vol. 20230829
输入“/”快速插入内容
Daily Summary|Vol. 20230829
01.产业资讯
🔗
Meta的PUG数据集
Meta AI发布了一系列利用Unreal Engine生成逼真图像的数据集。
🔗 HuggingFace上的连环画工厂
基于扩散模型的工具,根据样式和故事提示生成有点连贯的连环画。
🔗 微调的 Llama在基准测试中打败 GPT-4
拥有大量高质量内部数据的公司发布了精调版本的Llama,在Meta发布新的编程语言模型的几天后,这些模型在代码方面表现极为出色。需要注意的是,当前版本的GPT-4仍然比任何开源模型编写代码更出色。本文比较了新的Llama模型和3月份的GPT-4版本。
02.工程研究
🔗
CAPTCHA已无用武之地
最近的研究显示,AI机器人解码CAPTCHA的速度和准确性都比人类高。这项研究对CAPTCHA在AI不断进步的时代是否还有效提出了质疑。
🔗 FineRecon:用于详细3D重建的深度感知前馈网络
来自Apple的新研究在具有挑战性的3D物体重建问题上展示了惊人的性能。
🔗 用于更清晰图像融合的动态网络
科学家设计了一种新的名为MGDN的系统,可以将多个图像合并成一个清晰的图片,解决了旧方法在使用不同图像时存在的问题。 MGDN内部的特殊工具有助于更好地理解图像的不同部分并将它们平滑地混合。
🔗 检测LLM偏差的更好测试
研究人员开发了一种新的名为CALM的测试,以检查AI语言工具是否存在偏见。 在收集了来自不同来源的大量数据并测试了各种AI模型之后,他们发现一些大型AI模型可能比小型模型更具偏见。
🔗 使用DeepSpeed训练长上下文模型
DeepSpeed是一个来自微软的库,可用于扩展语言模型预训练。它使用起来有些复杂,但它提供了强大的抽象。微软最近添加了序列并行性,以训练具有更长上下文长度的模型。这并不是新的突破,而是对开源社区的工程优化。
🔗 另一个更好的开源代码模型
WizardLM的人员使用他们的Evol指令技术显著改进了Llama代码性能 - 他们甚至击败了Phind模型。 这些结果有些可疑,因为他们生成的指令直接改进了他们的评估分数,而不是使用固定的数据集并将评估视为固定的。 这可能不是一个问题,但它违反了机器学习的最佳实践,所以很难知道完整的一般功能是什么。
🔗 代码模型失去语言技能,但我们可以解决它
Claude或GPT-4等闭源模型之所以令人印象深刻,是因为它们在推理方面非常出色,并具有通用语言能力。 许多开源替代品专注于极其狭窄的技能集,而忽略其他技能。 OpenLemur项目旨在在不同任务之间平衡语言模型技能,类似于封闭模型。
03.资源效率
🔗 OpenCopilot
你的SaaS产品的开源AI助手。
🔗 Dicer
Dicer是一个数字营销人员,为你提供赚更多钱所需的洞察力。