发 帖  
  • 由于内存接口芯片的大规模商用要经过下游厂商的多重认证,还要攻克低功耗内存接口芯片的核心技术难关,从 DDR4 世代开始,全球内存接口芯片厂商仅剩 Rambus、澜起科技和瑞萨(原 IDT)三家厂商。...
    0
    704次阅读
    0条评论
  • Nitro DPU系统提供了密钥、网络、安全、服务器和监控等功能支持,释放了底层服务资源供客户的虚拟机使用,并且NitroDPU使AWS可以提供更多的裸金属实例类型,甚至将特定实例的网络性能提升到100Gbps。...
    0
    1053次阅读
    0条评论
  • 锐龙7040系列处理器支持双通道DDR5以及LPDDR5内存,支持PCIe 4.0,集成了USB4控制器,TDP为35W,最高可以实现45W性能释放。...
    0
    1413次阅读
    0条评论
  • DXG 服务器配备 8 块 H100 GPU,6400亿个晶体管,在全新的 FP8 精度下 AI 性能比上一代高 6 倍,可提供 900GB/s 的带宽。...
    0
    809次阅读
    0条评论
  • Universal Chiplet Interconnect Express (UCIe) 是一个开放的行业互连标准,可以实现小芯片之间的封装级互连,具有高带宽、低延迟、经济节能的优点。...
    0
    2276次阅读
    0条评论
  • 根据以上公式,可以反向推算出 CPU 的外频。如 CPU 主频为 3.2GHz,倍频为 24 时,外频为 3200MHz÷24=133MHz。...
    0
    1870次阅读
    0条评论
  • 根据芯思想研究院数据,2022 年通富微电是全球第四,中国大陆第二 OSAT 厂商,全球市占率 6.51%。公司收购 AMD 苏州及 AMD 槟城各 85%股权,是 AMD 最大的封测供应商,占其订单总数 80%以上,已...
    0
    471次阅读
    0条评论
  • 大模型当前以生成类应用为主,多模态是未来重点发展方向 企业用户是从应用视角出发,分成生成类应用、决策类应用和多模态应用。 受限于模型能力、应用效果等因素,当前阶段以生成类应用为主。...
    0
    588次阅读
    0条评论
  • AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);AI服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练...
    0
    224次阅读
    0条评论
  • CPU按用途可分为桌面、服务器、移动端CPU和嵌入式CPU。桌面CPU主要应用于个人计算机(台式机、笔记本电脑)。服务器CPU主要用于服务器,对运算性能和稳定性要求更高。...
    0
    1667次阅读
    0条评论
  •  Gridspace 机器学习主管Wonkyum Lee表示:“我们的速度基准测试表明,在 Google Cloud TPU v5e 上训练和运行时,AI 模型的速度提高了 5 倍。我们还看到推理指标的规模有了巨大改进,...
    0
    536次阅读
    0条评论
  • 生成式 AI 模型对计算基础设施需求极高,模型的推理随着用户数量和使用频率的增加而不断上升,云端推理成本剧增,这导致规模化扩展难以持续。混合AI为此提供了解决方案,不仅结合了云端与边缘终端协同处理AI计算负载,还根据场景...
    0
    928次阅读
    0条评论
  • TSV 指 Through Silicon Via,硅通孔技术,是通过硅通道垂直穿过组成堆栈的不同芯片或不同层实现不同功能芯片集成的先进封装技术。TSV 主要通过铜等导电物质的填充完成硅通孔的垂直电气互连,减小信号延迟,...
    0
    1603次阅读
    0条评论
  • 九章云极、亚马逊云科技、华为云、阿里云、腾讯云、Databricks和百度云被评为国内AI基础软件市场的 "领导者"。...
    0
    479次阅读
    0条评论
  • 以ChatGPT的训练为例,单次模型训练就可能需要超过2000张英伟达A100显卡持续不断地训练27天。不仅如此,大模型的日常运行中每一次用户调用都需要一定的算力和带宽作为支撑。...
    0
    632次阅读
    0条评论
ta 的专栏

成就与认可

  • 获得 4 次赞同

    获得 0 次收藏

谁来看过他

关闭

站长推荐 上一条 /7 下一条

返回顶部