谷歌开源非洲24种语言语音数据集WAXAL
语音技术长期面临“数据偏食”问题:英语、中文等高资源语言模型飞速迭代,而非洲大陆上百种本土语言却在AI训练数据中近乎“失声”。为填补这一空白,谷歌AI联合多方研究者正式开源WAXAL——迄...
Google Colab上线开源MCP服务:本地AI代理直连云端GPU运行环境
谷歌近日正式开源了Colab MCP Server——一个基于Model Context Protocol(模型上下文协议)的轻量级服务,让本地AI智能体(如LangChain、LlamaIndex等构建的Agent)无需手动复制粘贴,即可直接...
LlamaIndex开源LiteParse:让PDF解析快如闪电
在当前RAG(检索增强生成)应用开发中,真正卡住进度的往往不是大模型本身,而是PDF等非结构化文档的解析环节——传统方案耗时长、精度低、成本高,尤其面对含表格、多栏、图文混排的复杂PDF时...
SPEED-Bench发布:首个统一多样的推测解码评测基准
近日,Hugging Face联合研究团队推出全新开源评测基准——SPEED-Bench,专为评估大语言模型的推测解码(Speculative Decoding)性能而设计。与以往零散、场景单一的测试不同,SPEED-Bench 首次...
NVIDIA开源OpenShell:为AI智能体打造安全沙箱
近日,NVIDIA AI团队正式开源全新项目OpenShell,专为自主式AI智能体(Autonomous AI Agents)构建高可信度的运行时环境。与传统大模型仅限文本交互不同,AI智能体需调用系统命令、读写文件、访...
OpenClaw爆火背后:AI智能体进入实用化新阶段
2025年11月,奥地利开发者Peter Steinberger在周末用不到48小时打造了一款名为Clawdbot的轻量级AI助手——它不靠复杂模型,却能通过Telegram或WhatsApp接收指令,自动管理日程、筛选邮件、执行...
PARK堆栈是什么?新一代开源可观测性组合
提到技术栈,你可能熟悉LAMP(Linux-Apache-MySQL-PHP)——这个诞生于1998年的经典开源组合,曾支撑起Web 1.0时代的无数网站。随着云原生与微服务架构兴起,运维复杂度激增,可观测性(Observa...
别拒之门外:开源项目如何应对AI代码潮
最近,越来越多开源维护者对AI生成的Pull Request感到疲惫不堪——有人甚至直接关闭了外部贡献通道。这看似是为质量把关,实则可能误伤真正有价值的社区协作。AI代码并非洪水猛兽,问题核心在于...
仅4B参数!Nemotron 3 Nano轻量模型上线
NVIDIA近日在Hugging Face正式开源了全新轻量级AI模型——Nemotron-3-Nano-4B。这款模型虽仅有约40亿参数,却融合了指令微调与强化学习(RLHF)双重优化策略,在保持极小体积的同时,显著提升了...
Hugging Face开源生态春季报告:AI模型民主化加速
2026年春季,Hugging Face发布了最新《开源状态报告》,揭示全球AI开源社区的蓬勃活力。报告显示,平台模型库已突破100万个公开模型,其中超40%由亚太地区开发者贡献,中文社区增长尤为迅猛——...

