8月14日消息,北极雄芯(Polar Bear Tech)官方宣布,历经近2年的设计开发,自主研发的启明935系列芯粒(Chiplet)已经成功交付流片,而且一次性投出两颗,一是通用型HUB Chiplet“启明935”,二是原生支持Transformer全系算子的AI Chiplet“大熊星座”。
北极雄芯成立于2018年,由清华大学交叉信息研究院助理教授马恺声创办,清华大学姚期智院士创建的交叉信息核心技术研究院孵化发展,在西安、北京、天津、南京设立研发中心。
该公司致力于成为基于Chiplet的定制化高性能计算解决方案领航者,采用创新型的Chiplet异构集成模式,以通用型Hub Chiplet、功能型Functional Chiplet等模块为基础,针对不同场景支持灵活的封装方式,为广大高性能计算场景使用方提供低成本、短周期、高灵活性的解决方案。
2023年初完成测试并发布了国内首个基于Chiplet架构的“启明930”芯片,在国产封装供应链上成功完成了工艺验证;
同年,发布首个基于国内《高速芯粒互联标准》的D2D接口PB Link,为Chiplet独立开发组合大规模量产奠定了基础。
北极雄芯的启明935系列芯粒包括以“启明935”高性能通用HUB Chiplet为核心,以及“大熊星座”AI Chiplet和GPU Chiplet等功能型Chiplet的芯粒家族,基于车规级要求设计,灵活搭配,可快速生成面向自动驾驶、具身智能、AI推理加速等场景的终端产品。
“启明935”高性能通用HUB Chiplet,基于多核ARM CorteX-A系列CPU核心,支持PCIe 5.0、LPDDR5,集成北极雄芯自主研发的车规级Zeus Gen2 NPU核心提供AI加速算力,还包含视频编解码模块、ISP模块、万兆网口及MIPI接口、信息安全及功能安全模块等,符合车规级设计要求。
4个独立的PB Link接口,芯粒互联带宽合计128GB/s,可与其他功能型芯粒拓展组合。
“大熊星座”AI Chiplet基于自主研发的Zeus Gen2 NPU核心,不同核心既可独立运行,也可联合运行加速同一任务。
原生支持Transformer全部算子,带宽利用率高,支持INT4、INT8、INT16、FP16等计算精度,支持常见的卷积层、线性层、池化层和激活层,功能上支持常用检测、分类等模型,包括但不限于VGG、ResNet、Yolo等。
可有效支持PyTorch、TensorFlow、PaddlePaddle、ONNX等主流AI框架,在不同AI模型上实测平均利用率达到70%以上。
北极雄芯用于智能座舱领域的GPU Chiplet也在同步开发中,预计2025年中交付流片。
通过启明935 HUB Chiplet与不同数量的AI Chiplet灵活搭配组合,可形成不同算力档次的自动驾驶芯片,覆盖辅助自动驾驶、高速NOA、城市NOA、车路协同等自动驾驶算力需求。
未来加入GPU Chiplet组合后,可生成不同AI、GPU算力的舱行泊一体芯片,为下游OEM、Tier1提供智能驾驶解决方案,而且成本较低,灵活性更高。
基于启明935 HUB Chiplet及AI Chiplet异构集成的多颗自动驾驶芯片,已于2024年取得SGS、中汽研境内外ISO-26262 ASIL-B车规级双认证,是国内首个取得车规级认证的Chiplet产品,预计将于2024年底提供核心板交付下游开展适配工作。
基于启明935 HUB Chiplet与AI Chiplet组合的AI推理加速模组、加速卡,也可以广泛应用于边缘侧、端侧AI推理应用领域,包括AI推理一体机、工控机、机器人等,并支持70B的大模型推理加速。