关于 "大模型" 的最新相关报道
英伟达正式发布专为AI大模型训练优化的H200 GPU,其内存容量提升2倍,训练处理速度提高30%,旨在为数据中心提供更强大的计算能力,预计将对AI技术行业及相关产业产生深远影响。
英伟达正式发布专为AI大模型训练优化的H200 GPU,其内存容量提升2倍,训练计算性能提高30%,为数据中心提供了更强大的计算能力,有望加速AI技术发展和应用场景拓展。
在巴塞罗那世界移动通信大会前夕,英伟达联合合作伙伴发布了一系列推动电信网络迈向自主化运营的关键工具,包括开源电信大模型、智能体构建指南及多款行业蓝图,旨在帮助运营商构建能够理解意图、自主决策的智能网络。
腾讯云近日发布了混元AI大模型3.0,其多模态能力迎来重大升级,实现了图像、音频、视频与文本的深度融合,整体性能提升高达40%。这一重要进展不仅展示了AI技术的前沿突破,更将对相关行业格局产生深远影响。
据TechCrunch报道,研究人员成功将AI大模型压缩至边缘设备运行,实现了推理性能100倍的惊人提升。这一突破性进展极大地拓展了AI在本地设备上的应用潜力,预示着更广泛、更高效的智能应用即将到来。
英伟达发布专为大语言模型推理优化的H100 NVL GPU,配备96GB HBM3显存并支持高速多GPU通信,旨在为数据中心提供更高效的AI推理能力,反映了AI硬件领域的重要发展趋势。
微软研究人员提出“策略内上下文蒸馏”(OPCD)新框架,通过创新的师生训练模式,将企业应用中的复杂指令和专业知识直接“烘焙”进模型参数中,显著降低推理延迟与成本,同时避免模型产生幻觉或遗忘通用能力。
智谱AI发布7440亿参数开源大模型GLM-5,在多项基准测试中超越GPT-4,采用Apache 2.0许可证允许商业使用,推动中文AI生态发展。
2026年2月27日,OpenAI正式发布了GPT-4.5 Turbo大模型,这是继GPT-4 Turbo之后的又一重大升级。新版本在推理能力、上下文长度、多模态理解等方面实现了显著突破,为开发者和企业用户提供了更强大的AI工具。本文将深度解析GPT-4.5 Turbo的技术特性、性能提升、应用场景以及对AI行业的影响。
2026年,斯坦福大学、MIT和谷歌DeepMind联合研发的新一代AI大模型压缩算法取得突破性进展。该技术在保持98%精度的同时,实现了推理速度提升500%和成本降低90%,为AI大规模商业部署扫除了关键障碍。