上海自贸区叠加谷歌 聪明资金合力
admin2023-12-08 09:00:0481
一、谷歌Gemini多模态技术望推动人形机器人加速商业化产业链公司受关注日前谷歌正式推出大模型Gemini,其最大亮点之一就是设计时就原生支持多模态,可以泛化并无缝理解、操作和组合不同类型的信息,包括文本、代码、音频、图像和视频,远远优于现有(近似)多模态模型,并且它的能力在几乎每个领域都是最强的。谷歌研发负责人Hassabis透露,谷歌DeepMind已经在研究如何将Gemini与机器人技术结合起来,与世界进行物理交互。他表示,新的多模态模型将成为智能体、规划和推理、游戏甚至物理机器人快速创新的基础。看完后,昨晚迟迟未能入眠,脑子里都是感叹,这就是应用大爆发(斯坦福华裔美女等4人开发“文生视频”Pika项目估值2个亿?AI应用堪比寒武纪生物大爆发),就连遭受质疑的Pika,也被相关知名博主验证了言归正传,说到Google这回憋的大招,作为AlphaGo的创造者,有望通过Gemini一洗被OpenAI超过的前耻数据上看,Gemini Ultra是首个在 MMLU(大规模多任务语言理解数据集)任务表现上优于人类专家的大模型,得分率高达90.0%。作为对比,人类专家的成绩为89.8%,GPT4的成绩为86.4%显然,这次Gemini赢了而我还注意到一条消息,早在今年8月,著名分析师Dylan Patel称,Gemini训练所需的算力是GPT-4的五倍,数据库为 Youtube 上 93.6 亿分钟的视频字幕,总数据集大小约为 GPT-4 的两倍 Gemini的预训练数据集使用来自web文档、书籍和代码的数据,包括图像、音频和视频数据,并通过筛选、过滤方式去除有害数据,提升数据质量硬件层面,采用了谷歌的TPU v5e及v4训练,并针对任务进行优化,训练的硬件规模相较上一代的PaLM-2显著提升谷歌在此次发布会推出更高级的TPU v5p,与TPU v4相比,TPU v5p的Flops性能提高了2倍以上,高带宽内存(HBM)增加了3倍,模型训练速度将提高280%如此看来,Google强大了,不再依赖英伟达,而Google自研的TPU芯片和自研的光电路交换(OCS)所形成网络架构闭环是对openai与英伟达的联合反击,而Gemini的超预期快速推出是对OpenAI旗下ChatGPT4.0的反击未来谷歌的训练、推理成本将会变得非常低,TPU(V4)单颗是5000美金,预计v5会贵些,但对比2.6万美金H100几乎微不足道换个角度想,英伟达、OpenAI不再是唯一,那更新迭代升级给下游降本将是未来AI算力链的主旋律,各种量价齐升的逻辑对于AI算力股岂不乐哉?GPT4.5、GPT5.0也许要被迫提前出击迎战Gemini对于整个AI应用端,谷歌可不止有大模型,还有youtube、安卓、google search、地图、语音助手Now、日历、浏览器、workspace,看来此次反击力度堪比冲绳岛战役了回到投资机会从刚才的陈述中,基本可以推断,大模型就是个大力出奇迹的产品,更多更优质的数据+更变态的算力所以围绕Google算力供应链无疑是A股最正确的选择