戴尔科技集团表示,其在服务器领域的人工智能进步为客户提供了最密集的 GPU 容量,适用于在液冷机柜中运行的 Nvidia 最先进的处理器,共同将人工智能和数据推向极限。
戴尔 ISG 和电信高级副总裁 Varrun Chhabra 表示:“这是我们非常自豪的事情,作为戴尔的一名长期员工,过去一年半到两年间,整个基础设施领域的创新和创新速度确实令人难以置信,也非常令人兴奋。”
查布拉在微软 Ignite 和 SC 24 之前的媒体吹风会上表示,人工智能硬件的进步以更大的计算能力和设备与软件之间更复杂的协调形式出现,以改善推理能力。
但 Chhabra 表示,尽管 80% 的企业已经开始或计划在两年内开始生成 AI 工作,但许多企业尚未做好准备,无论是由于数据准备还是人才缺口。戴尔一直试图通过提供围绕经过验证的设计提供支持的交钥匙 AI 产品来解决这些瓶颈。
[相关:一年后,戴尔的合作伙伴首次在存储领域推动参与度和收入增长,合作伙伴表示]
戴尔公司计算和网络产品组合管理高级副总裁 Arunkumar Narayanan 在媒体吹风会上表示,在上个月的 SC24 活动上,戴尔推出了新款服务器,将 96 个 Nvidia 最先进的 GB200 处理器装入一个可扩展、水冷、19 英寸宽的机架中,该机架可以进行预配置并随时可以开机。
“我们将在工厂内整合所有这些,以提供交钥匙解决方案。因此,客户需要做的就是收到机架、插上电源、设置液体、设置风冷服务器,然后整个过程将作为一个解决方案运行,”他说。
戴尔在最近的第三季度中,AI 服务器出货量达 29 亿美元,导致 AI 服务器积压订单达到 45 亿美元,而戴尔五个季度的销售管道环比增长超过 50%,所有客户类型均实现增长,该公司在财报电话会议上表示。
Chhabra 表示,虽然戴尔许多最先进的人工智能产品都可供渠道合作伙伴使用,但戴尔独有的一些“定制功能”却并未提供。
“在服务方面,除了集成机架可扩展系统等集成专业服务外,还有一些精选服务器可供渠道转售,”他在电话会议上告诉记者。“简而言之,我们今天谈到的许多服务都可供渠道转售。但某些涉及定制功能的服务尚未可供渠道转售。”
以下是戴尔宣布的五项人工智能进展:
戴尔科技集团目前表示,它通过 Dell Data Lakehouse、液冷机架内最密集的 GPU 容量以及与 Nvidia 合作的 AI 模型增强 Agentic RAG 提供 AI 数据准备。
这款 4U PowerEdge 有望通过“Granite”系列芯片的 Intel Xeon 6 处理器提高 AI 生产力。它提供多达 8 个 Intel Gaudi 3、8 个 Nvidia H200 NVL GPU 或 16 个 Nvidia 的 L4 PCIe GPU。
“这款产品专为推理和模型微调而设计,尤其是在企业中,”戴尔的 Arunkumar Narayanan 表示。“这可能是企业采用的最佳平台。客户可以选择多种 AI 加速器。它从多达 8 个双宽 600 瓦 GPU 开始。或者他们可以降到 16 个单宽 GPU,一直到 75 瓦。因此,根据工作负载和用例,客户可以选择不同类型的选择。”
这是第一款采用英特尔至强 6 处理器的 PowerEdge 服务器。Narayanan 表示,与戴尔上一代产品相比,这款服务器的 PCIe GPU 容量增加了一倍,可以为 GPU 提供高速网络。
XE7740 是“非常成功”的戴尔 R760 的后续产品。它提供了两倍的 GPU 容量,以及额外的网卡
戴尔科技集团目前表示,它通过 Dell Data Lakehouse、液冷机架内最密集的 GPU 容量以及与 Nvidia 合作的 AI 模型增强 Agentic RAG 提供 AI 数据准备。
戴尔将“L”应用于其最新一代旗舰服务器 PowerEdge XE9685L,即液体冷却。戴尔表示,9685L 的直接液体冷却歧管可提供一流的冷却效率。
9685L 可以在其 4U 机箱内容纳 24 个 Nvidia H200 GPU 或 Nvidia GB200 GPU,配置为机架时最多可容纳 96 个 - 每个机架的 GPU 密度比戴尔的风冷 PowerEdge XE9680 高出三倍。
“这个平台的关键点在于我们可以在一个机架中安装 96 个 GPU。这将是业界领先的机架 GPU 密度,”Narayanan 说道。“它将具有 20% 更好的连接性,因为我们增加了两个 PCIe 插槽,现在服务器上有 12 个 PCIe 插槽,并且我们在服务器中内置了 iDRAC 功能,以帮助进行远程管理和泄漏检测。”
Narayanan 表示,该机器运行 AMD Turin CPU,每系统有 192 个核心,是所有平台中 CPU 核心密度最高的。戴尔希望将系统作为全机架出厂,安装在其最近宣布的机架系统中。
戴尔集成机架 5000 (IR5000)
IR5000 集成机架可扩展系统专为云服务提供商和大型企业而设计,可容纳液冷和风冷服务器。
该机型基于传统的 19 英寸标准,可容纳 PowerEdge 9680L 和 PowerEdge 9685L,每机架最多可容纳 96 个 GPU。它还可以容纳 PowerEdge XE7740、XE7745 和最畅销的 XE9680。
“我们将在工厂内整合所有这些,提供交钥匙解决方案,因此客户需要做的就是收到机架,插上电源,”Narayanan 说道。“液体将安装好。风冷服务器也将安装好,整个系统将作为一个解决方案运行。”
使用 Apache Spark 的 Dell Data Lakehouse
Chhabra 表示,戴尔针对 AI 工作负载中的企业数据单一查询平台现在已将 Apache Spark 作为完全嵌入的组件。他表示,它使组织能够处理 AI 工作负载的大规模数据,从而简化分析。
“所有这些都将减少人工智能部署所需的时间,”Chhabra说。
这使得查询速度提高三到五倍,并且数据分析成本降低高达 53%。
Chhabra 表示:“这将使企业能够处理 AI 工作负载的大规模数据,帮助企业简化管理、处理和分析,所有这些都在 Dell Data Lakehouse 提供的同一有凝聚力的环境中完成。”
Dell Data Lakehouse 在其使用的两个开源 SQL 引擎 Apache Trino 和 Spark(以前称为 PrestoSQL)之间实现了统一的访问控制。
Chhabra 表示:“这本质上是一个动态编排层,允许客户有效扩展,同时保持 AI 工作负载所需的性能。”
采用 Nvidia 的 Dell Agentic RAG 框架
它基于戴尔硬件构建,并与 Nvidia 软件一起运行,使客户能够在执行复杂查询时加速检索增强生成操作。该设计使用 Dell PowerEdge 服务器、Dell PowerScale 存储与 Nvidia 的 NeMo Retriever 微服务和 Nvidia AI Blueprint 进行多模式 PDF 数据提取,以通过提供多模式输出(包括图形、图像和表格)的自动化工作流程从公司数据中检索上下文洞察。
“RAG 改变了 AI 的采用格局,”Chhabra 说道。“RAG 允许客户获取其专有数据,并将其输入现有模型,而无需进行大量的前期工作,并将企业数据无缝集成到工作流程中,以便最终用户拥有有关其业务的最新和最好的信息,从而能够为业务做出最佳决策。”
Chhabra 表示,自今年年初以来,RAG 就备受关注,但组织在将 RAG 的大规模数据集成到 AI 运营中时面临挑战。他表示,采用 Nvidia 的 Dell Agentic RAG 通过在后台运行 RAG 代理来应对挑战。
他说:“我们与 Nvidia 合作采用了一种创新方法......这种方法使用在后台工作的 RAG 代理来解决数据碎片化、合规性挑战以及最终用户无法创建复杂提示来获取答案等问题。”
【公司名称】四川旭辉星创科技有限公司
【销售经理】熊经理
【联系方式】座机:028-85596747 手机:18244236404
【公司地址】四川省成都市武侯区二环路南一段13号群益商务大厦1栋单元4层1-403
请用微信扫描二维码