分享
Daily Summary|Vol. 20230724
输入“/”快速插入内容
Daily Summary|Vol. 20230724
01.产业资讯
🔗 Microsoft宣布在Azure和Windows上支持Llama 2
Meta和Microsoft宣布在Azure和Windows上支持Llama 2,这是一个大型语言模型系列,标志着其首次商业发布。该合作伙伴关系使开发人员能够在Azure上构建、微调和部署基于Llama 2的模型,并且还可以在Windows上进行本地优化。这旨在增强Azure的模型目录,使人工智能民主化,并巩固Microsoft作为全球AI超级计算平台的地位,同时通过安全措施和风险缓解来维护负责任的AI实践。
🔗 Google据称向新闻编辑室推销新的AI工具
Google正在测试Genesis,这是一个旨在通过生成新闻文章来帮助记者的AI工具。尽管这些创新带来了好处,但如果此类工具没有得到准确监督,人们仍然担心会出现错误信息和偏见。
🔗 GitHub的Copilot Chat现已公开测试版
GitHub宣布其新的Copilot Chat功能,类似于ChatGPT的体验,旨在帮助开发人员编写代码,现已作为企业公司和组织的有限公开测试版提供。
🔗 OpenAI推出ChatGPT定制说明功能
OpenAI刚刚推出了ChatGPT用户的定制说明功能,这样用户在与ChatGPT交互时就不必每次都写相同的指令提示了。
02.工程研究
🔗 DeepMind的最新研究
Google DeepMind的研究人员今年在ICML上展示了80多篇新论文,包括AlphaFold的演示、融合科学的进展以及新模型,如用于机器人学的PaLM-E和从文本生成视频的Phenaki。
🔗 Rust还是Mojo是未来人工智能的选择
本文介绍了将一千行C++代码重新实现为几行Mojo代码的过程。作者讨论了权衡和速度优势。Mojo还没有正式发布,但预计会很快推出。
🔗 在连续空间中学习优化
摊销优化(AO)使用学习来预测优化过程的结果。由于重复的优化问题通常是相似的,因此可以使用许多强大的工具。本教程在强化学习、控制、凸优化、最优输运等方面为AO提供了非常全面的基础。提供了一个GitHub资源库。
🔗 仅使用加法进行矩阵乘法
现代人工智能很大程度上依赖于大型矩阵乘法。当在硬件上实现时,这意味着芯片上有昂贵的乘法组件。如果我们可以改用廉价的加法,我们可以在芯片上容纳更多的晶体管,同时可能使用更少的功率运行。这是非常早期的研究,但所提出的算法表明我们可以仅使用加法进行大型矩阵乘法。
🔗 使用openBB和LlamaIndex改进财务查询
不要直接使用向量存储来索引数据,而是使用元数据和现有查询语言来显著提高检索数据的质量。
03.资源效率
🔗 苹果的AX learn库
这是苹果推出的另一个深度学习库,它建立在Jax之上。值得注意的是,它支持基于编译器的大规模训练并行性,这是其他几个流行框架中没有的功能。
🔗 Ollama
在macOS上运行和打包大型语言模型。
🔗 RAGstack
在VPC中部署一个私有的ChatGPT替代版本。将其连接到组织的知识库,并将其用作企业的智囊团。支持开源的Llama 2、Falcon和GPT4All等LLM。