除了全新的“低空经济”概念,AI 同样是此次大会的主角之一,几乎所有参展企业都将自己的 AI 成果带到了大会现场。以大家熟悉的高通为例,作为知名的通信企业,高通除了在展示了大量采用高通芯片的手机、平板、手表、耳机外,还用大篇幅介绍了其在 AI 领域的技术成果。图片来源:雷科技比如首个可以在 Android 智能手机上运行的大语言与视觉助手大模型(LLaVA)、首个在 Android 智能手机上运行的低秩适应性模型(LoRA);除了 AI 的底层模型,高通也在现场展示了不少具体的 AI 用例,比如 AI 音频降噪、人声增强、即时混音等技术。图片来源:雷科技另一家大家熟悉的品牌——小天才,同样在现场展示了大量运用了 AI 技术的新产品,比如智能手表、智能牙刷、智能耳机,利用 AI 的能力优化产品的算法逻辑,提高最终的用户体验。至于我们的老朋友联想、中兴,同样在现场展示了大量 AI 设备。这些设备不仅有直接和消费者接触的 AI 消费级产品,甚至还有一般消费者接触不到的 AI 运算节点等边缘运算设备。小雷之所以着重强调这些产品,不仅是因为这些产品在他们各自的领域做得足够出色,更是因为这种“万物 AI”的做法,同样也是 AI 浪潮下科技行业不约而同的新发展方向——让 AI 算力无处不在。图片来源:雷科技曾几何时,AI 算力只处于远端服务器中,设备本地只能进行简单的机器学习(ML)运算。5G 技术的出现缩短了设备端调用远端算力的延迟,但并不能降低 AI 请求对远端 AI 算力的需求。随着 AI 请求的增加,远端算力总有枯竭的一天。而如今这种“让算力无处不在”的做法,就很好地解决了算力枯竭的问题。本地算力+云端算力、本地模型+云端模型的混合架构,允许 AI 请求在设备上先分流,仅“必须使用远端大算力”的请求会传递到远端的 AI 算力节点中。这种类似的“CDN”的做法不仅有效分担了用户对算力的请求,同时也缩短了用户获取 AI 算力的时间。而这种混合模型、混合算力的技术设想,最离不开的就是来自运营商的网络支持。事实上,运营商同样利用 AI 对用户的网络请求进行智能调度,在保证用户体验的情况下提高整体响应速度,同时降低 AI 算力节点的运营成本。这里的成本不仅仅是“金钱成本”,还有“绿色成本”,让 AI 行业朝着更绿色的方向迈进。
除了全新的“低空经济”概念,AI 同样是此次大会的主角之一,几乎所有参展企业都将自己的 AI 成果带到了大会现场。以大家熟悉的高通为例,作为知名的通信企业,高通除了在展示了大量采用高通芯片的手机、平板、手表、耳机外,还用大篇幅介绍了其在 AI 领域的技术成果。图片来源:雷科技比如首个可以在 Android 智能手机上运行的大语言与视觉助手大模型(LLaVA)、首个在 Android 智能手机上运行的低秩适应性模型(LoRA);除了 AI 的底层模型,高通也在现场展示了不少具体的 AI 用例,比如 AI 音频降噪、人声增强、即时混音等技术。图片来源:雷科技另一家大家熟悉的品牌——小天才,同样在现场展示了大量运用了 AI 技术的新产品,比如智能手表、智能牙刷、智能耳机,利用 AI 的能力优化产品的算法逻辑,提高最终的用户体验。至于我们的老朋友联想、中兴,同样在现场展示了大量 AI 设备。这些设备不仅有直接和消费者接触的 AI 消费级产品,甚至还有一般消费者接触不到的 AI 运算节点等边缘运算设备。小雷之所以着重强调这些产品,不仅是因为这些产品在他们各自的领域做得足够出色,更是因为这种“万物 AI”的做法,同样也是 AI 浪潮下科技行业不约而同的新发展方向——让 AI 算力无处不在。图片来源:雷科技曾几何时,AI 算力只处于远端服务器中,设备本地只能进行简单的机器学习(ML)运算。5G 技术的出现缩短了设备端调用远端算力的延迟,但并不能降低 AI 请求对远端 AI 算力的需求。随着 AI 请求的增加,远端算力总有枯竭的一天。而如今这种“让算力无处不在”的做法,就很好地解决了算力枯竭的问题。本地算力+云端算力、本地模型+云端模型的混合架构,允许 AI 请求在设备上先分流,仅“必须使用远端大算力”的请求会传递到远端的 AI 算力节点中。这种类似的“CDN”的做法不仅有效分担了用户对算力的请求,同时也缩短了用户获取 AI 算力的时间。而这种混合模型、混合算力的技术设想,最离不开的就是来自运营商的网络支持。事实上,运营商同样利用 AI 对用户的网络请求进行智能调度,在保证用户体验的情况下提高整体响应速度,同时降低 AI 算力节点的运营成本。这里的成本不仅仅是“金钱成本”,还有“绿色成本”,让 AI 行业朝着更绿色的方向迈进。