谷歌新推Gemini 3.1 Flash-Lite:轻量高效,智能规模化新选择

谷歌近日发布Gemini 3.1 Flash-Lite模型,专为高吞吐、低延迟场景优化。相比标准版Flash,它在保持核心推理能力的同时大幅压缩参数量与计算开销,更适合边缘设备、实时API服务及高频调用的商业应用。该模型支持多模态输入(文本、图像),在代码生成、摘要提炼和逻辑推理等任务中表现稳健,且响应速度提升显著——实测平均延迟降低约40%,资源占用减少超35%。值得注意的是,Flash-Lite并非简单“缩水版”,而是通过结构重设计与知识蒸馏技术,在精度-效率间取得更优平衡。目前,它已集成至Google AI Studio与Vertex AI平台,开发者可一键部署、快速集成。对于需要兼顾性能、成本与扩展性的企业级AI应用,这款轻量化大模型正成为务实之选。

来源:Google-AI-Blog

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    请登录后查看评论内容