「信息部报道」
奥特曼在2024年冬季达沃斯经济论坛参加了一个名为“动荡世界中的技术”的分论坛。奥特曼在会上表示,AI的能力“有很强的局限性”, 人们应该将其视为一种“在某些领域非常有用”的工具,不能完全依赖于AI。在本次讲话中,奥特曼保持了他在整个达沃斯论坛上对于AI的态度:对AI的未来感到乐观,但也反复强调不要太过重视这项技术,以至于产生恐慌。
当地时间2024年1月18日,2024冬季达沃斯论坛年会期间,OpenAI首席执行官奥尔特曼出席会议。图源:视觉中国
✨AI 新应用 随着新一轮科技革命和产业变革加速演进,拥抱 AI 成为中国电信当下发展的核心战略之一。2019 年,中国电信在原数据中心基础上成立大数据和 AI 中心。2023 年11 月,中国电信注资 30 亿元成「中电信人工智能科技有限公司」(以下简称中电信 AI 、 AI 团队),牵头打造中国电信 AI 核心技术。同月中国电信宣布将星辰AI大模型通过GitHub、Gitee及Huggingface平台面向全社会开源,公开其底层代码、算法逻辑及其预制的各种基础大模型、开发模块、训练工具等能力。比亚迪集团董事长兼总裁王传福正式发布了比亚迪在智能化方向的新成果, 璇玑智能化架构。比亚迪副总裁杨冬生在后续的介绍中表示,璇玑架构由一脑、两端、三网、四链组成,是整车智能的重要组成部分,让汽车拥有了智能化的「大脑」和「神经网络」。
马斯克分享的视频中,擎天柱站在桌前,从盒子里取出一件黑色T恤缓慢折叠。但该视频内容遭到网友质疑,马斯克对此回应,“ 擎天柱(人形机器人)还不能自主地做到这一点,但未来肯定可以在任意环境下完全自主地做到这一点(不需要固定的桌子和只有一件衣服的盒子)。” 继第一份大模型对齐技术报告(Secrets of RLHF in Large Language Models Part I)获 NeurIPS 2023 workshop best paper 后,第二份报告强势归来, 复旦语言和视觉团队联合推出的第二份报告将进入这一领域更深层的探索和优化之旅。在首份报告中,复旦团队揭示了 RLHF 在大语言模型中的基本框架,并深入分析了 PPO 算法的内部机制,特别是 PPO-max 的高级版本在策略模型训练稳定性中的关键作用。现在, 复旦团队进一步挖掘 RLHF 的潜力,重点关注奖励模型(Reward Model)在面对实际应用挑战时的表现和优化途径。
MoE,全称为Mixed Expert Models,翻译过来就是混合专家模型。 GPT-4远不止1万亿,甚至,还是8个2200亿参数组成的混合专家模型(MoE)。2023年6月,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。这么算来,8 x 220B = 1.76万亿。就连PyTorch的创建者Soumith Chintala对此也深信不疑。下面这张8头怪,看起来就像现在的GPT-4。
|