(资料图片仅供参考)
5月31日,360集团对外发布“360智脑-视觉大模型”。360集团创始人周鸿祎表示,大语言模型是构建视觉大模型的基础,多模态能力增强的核心是借助了大语言模型的认知、推理、决策能力。
据介绍,“360智脑-视觉大模型”是360在视觉感知能力基础上,融合千亿参数“360智脑”大模型,基于十亿级互联网图文数据进行清洗训练,并针对安防场景百万级行业数据进行微调而打造。
周鸿祎提出,原来的AIoT只是垂直AI,不是通用AI,经过大模型赋能的AIoT才是“真AI”。“过去的人工智能是弱人工智能,在此基础上打造的智能硬件不具有真正的智能。大模型出现后,计算机第一次真正地理解这个世界,并能够赋予AIoT真正的智能”。
在他看来,大模型的出现标志着通用人工智能到来,AI完成了从感知层到认知层的进化,不仅对传统人工智能而言是一场颠覆性的革命,还能够推动自动驾驶、蛋白质计算、机器人控制等领域的发展。
周鸿祎认为,从大模型的发展趋势来看,多模态是大模型发展的必经之路,GPT-4最重要的变化是拥有了多模态的处理能力。因此,其预言,多模态大模型与物联网的结合将会成为下一个风口。
其进一步说道,多模态技术与智能硬件结合是大势所趋,未来大模型将成为物联网的大脑,物联网设备则相当于大模型的感知端,让大模型进化出“眼睛和耳朵”,大模型还有可能操控物联网设备,进化出嘴巴、手和脚,从而拥有行动力,最终实现从感知到认知,从理解到执行。
“目前,大模型的能力主要体现在软件层,当大模型接入智能硬件,会让大模型的能力从数字世界走向物理世界。”周鸿祎表示。