Maxim 40G传输解决方案有效降低功耗、提高数据吞吐率

发布时间:2012-09-21 阅读量:1398 来源: 发布人:

导读:近日,Maxim推出40G传输解决方案,该方案可将数据中心的数据吞吐量提高4倍,且保持极低的设备功耗,在功耗成为制约现今数据的主要因素时期,Maxim的创新方案很好地解决了这一关键问题。

Maxim近日推出40G发射器芯片组,将数据中心的数据吞吐量提高4倍,且保持极低的设备功耗,该方案所占空间仅略高于传统的单通道。这款最新的4通道40G BASE-LR4 QSFP+芯片组包括MAX3948直流耦合激光驱动器和DS4830光电微控制器。

Maxim的40G芯片组为数据中心提供高性价比、高能效方案
Maxim的40G芯片组为数据中心提供高性价比、高能效方案
 
数据中心和数据通信网络在显著提升数据密度的同时,仍需维持原有的低功耗特性。Maxim的QSFP+发射器方案能够同时应对上述两个挑战:QSFP+模块可将数据吞吐量提高4倍,而所占空间仅为单通道SFP+方案的1.5倍;利用Maxim芯片组实现的4x10Gbps QSFP+模块,其每个通道的功耗均低于单个SFP+模块。该低功耗方案为服务供应商和网络运营商带来诸多优势:更长的系统工作时间、更低的运营成本以及节省更多的宝贵能源。
[member]
“功耗已经成为现今制约数据中心的最主要因素”,Ovum首席分析师Karen Liu说道:“功耗指标限制了功率密度及性能,进而影响成本。Maxim的创新方案很好地解决了这一关键问题”。

“MAX3948和DS4830体现了Maxim的集成创新优势,该芯片组通过直流耦合方式连接至激光器,解决了数据中心互联的功率密度限制”,Maxim Integrated高级业务经理Andrew Sharratt博士说道:“该发射器方案能够满足QSFP+的所有需求,且具有最低功耗”。

MAX3948主要优势

4个发射通道的总功耗低于2W,使QSFP+模块功耗降至3.5W以下。

直流耦合激光器接口(专利申请中,申请号13/352,011)有效降低功耗、减少外部元件数量。

DS4830主要优势

片内13位ADC带有专用的循环机制,可减轻16位微控制器内核的负荷、降低时钟速率;功耗比竞争方案低75mW至100mW。

单周期乘法累加器(MAC)使DS4830能够快速执行滤波计算,轻松支持四个平均功率控制(APC)环路。



相关资讯
美光Q4营收展望107亿美元超预期,AI存储需求引爆股价

美光科技(Micron Technology)于6月25日发布最新财报,其中对2024财年第四季度的业绩展望显著超越市场预期。公司预计第四财季营收将达约107亿美元,远高于华尔街分析师普遍预测的98.9亿美元。受此积极信号影响,美光股价在盘后交易时段应声上涨,凸显市场对其增长前景的强烈信心。

三星引入三星显示为XR头显供应OLEDoS,索尼独供格局生变

三星电子正计划调整其首款Android XR头显Project Moohan(代号“无限”)的屏幕供应链策略,拟将关联企业三星显示纳入OLEDoS(硅基OLED)面板供应商体系,与索尼形成“双供应商”结构。此举旨在打破索尼的独家供应局面,提升供应链韧性及议价能力。尽管三星显示加入,索尼仍将保持第一供应商地位,但三星电子借此强化了长期布局XR市场的战略基础。

先进封装驱动芯片性能革命,台积电产能扩张应对AI浪潮

台积电与苹果共同开发的晶圆级多芯片模块(WMCM)技术标志着先进封装的新高度。作为InFO-PoP的升级版,WMCM融合CoW(Chip on Wafer)与RDL(Redistribution Layer)等尖端工艺。其核心创新在于采用平面封装架构取代传统垂直堆叠逻辑芯片与DRAM,显著提升散热效率与整体性能。这项独家技术将成为苹果下一代iPhone搭载的A20处理器(预计采用2nm制程)的关键性能支柱。同时,苹果自研的AI服务器芯片正稳步导入台积电的3D晶圆堆叠SoIC封装技术,进一步强化计算密度和能效。

算力、智能与控制的融合:英特尔4U工控机、RK3568主板、HPM伺服板的全面对比

在现代工业自动化向智能化、网络化、柔性化加速演进的大背景下,高性能、高可靠、特定场景优化的核心硬件设备构成了系统的“大脑”、“眼睛”和“四肢”。英特尔4U工控机(IPC-615H5)、RK3568高性能监控主板和HPM6400/6300伺服电机控制板分别代表了通用工业计算平台、边缘AI视觉处理平台和高精度运动控制平台的最典型形态。它们在各自的领域拥有独特优势,共同支撑起复杂的工业控制闭环。本文旨在对这三款核心产品进行全方位对比分析,剖析其技术特点、优劣势、应用场景及市场前景,为工业自动化方案选型提供专业参考。

应对AI算力激增:安森美推出全链路数据中心电源解决方案与指南

人工智能技术,特别是生成式AI和大规模机器学习模型的迅猛发展,对全球数据中心的基础设施提出了前所未有的高要求。海量数据的实时处理与复杂模型训练,导致数据中心计算负载激增,随之而来的功耗攀升已成为产业亟待解决的核心瓶颈。这不仅推高了运营成本,也对电网承载能力和可持续发展目标构成严峻挑战。如何在高性能计算需求持续增长的同时,有效控制并降低能源消耗,成为AI数据中心建设与升级的关键命题。