AI芯片“功耗悬崖”:大模型催生的冷却技术革命

huanghelou520 1月前 27

统计数据显示,2015年全球数据量约为10EB(艾字节),预计到2025年将飙升至175ZB(泽字节),而到2035年,则可能达到惊人的2432ZB。然而,边缘AI的发展面临两大挑战。首先,需要在性能、功耗和成本之间取得平衡。在提升算力的同时,如何在不将功耗和成本推向合理限度的情况下获得最佳效果,尤其是在电池供电的低功耗设备中?其次,构建强大的生态系统至关重要。如同CPU和GPU的发展一样,一个涵盖工具链、语言、兼容性和易开发性的统一生态系统,对于推动AI技术的普及和规模化应用至关重要。黑料网-独家爆料

ChatGPT 和类似的 AI 机器人用来生成类人对话的大型语言模型 (LLM) 只是众多依赖“并行计算”的新型 AI 应用之一。“并行计算”指的是由芯片网络同时执行多项计算或处理的海量计算工作。

人工智能基础设施的核心是GPU(图形处理单元),它擅长处理人工智能所需的专业高性能并行计算工作。与个人电脑中使用的 CPU(中央处理器)相比,这种强大的处理能力也会导致更高的能量输入,从而产生更多的热量输出。

黑料不打烊永久进入方法

这家伙太懒了,什么也没留下。
最新回复 (0)
    • 废品回收论坛 -fphs.cc
      2
          
返回
发新帖