综述
2023年,经纬创投在Pre-A轮参与了无问芯穹的融资。经纬创投投资董事童倜表示:经纬创投相信中国AI行业的核心部分之一为国产异构算力生态,而无问芯穹的学术积累及产业能力能很好回应这一行业重大新增需求。经纬很高兴看到近一年来公司在技术开发及客户落地上的巨大进步。本次融资有幸获得众多投资机构支持,期待无问芯穹进一步加速发展,成为中国本土AI基础设施的重要组成部分。
无问芯穹AI模型算力公式
在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与AMD签署战略合作,携手推动商用AI应用的性能提升。
在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7月发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。
打造Infini-AI异构云平台,提供从异构算力利用到大模型应用开发全栈式能力
近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。
无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。
自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。
做大模型时代首选的算力运营商,繁荣异构算力生态、加速AGI普惠进程
无问芯穹构建的 Infini-AI异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和LPU IP领域亦有超前布局,致力打造“端模型+端芯片”闭环能力。无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。
以“释放无穹算力,让AGI触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低10000倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速AGI的普惠进程。
综述
2023年,经纬创投在Pre-A轮参与了无问芯穹的融资。经纬创投投资董事童倜表示:经纬创投相信中国AI行业的核心部分之一为国产异构算力生态,而无问芯穹的学术积累及产业能力能很好回应这一行业重大新增需求。经纬很高兴看到近一年来公司在技术开发及客户落地上的巨大进步。本次融资有幸获得众多投资机构支持,期待无问芯穹进一步加速发展,成为中国本土AI基础设施的重要组成部分。
无问芯穹AI模型算力公式
在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与AMD签署战略合作,携手推动商用AI应用的性能提升。
在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7月发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。
打造Infini-AI异构云平台,提供从异构算力利用到大模型应用开发全栈式能力
近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。
无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。
自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。
做大模型时代首选的算力运营商,繁荣异构算力生态、加速AGI普惠进程
无问芯穹构建的 Infini-AI异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和LPU IP领域亦有超前布局,致力打造“端模型+端芯片”闭环能力。无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。
以“释放无穹算力,让AGI触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低10000倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速AGI的普惠进程。