2025年4月19日 AI 资讯
-
微软推动 AI 互操作性,发布两大 MCP 服务器
AzureMCPServer为多种Azure资源提供通用访问支持,而AzureDatabaseforPostgreSQLFlexibleServer专用服务器则专注于数据库操作。这两个服务器均基于开放的MCP标准,简化开发流程,减少为不同数据源定制连接器的需求。
-
27B 显存需求 54 → 14.1GB:谷歌发布 Gemma 3 QAT AI 模型,RTX 3090 显卡可运行
以int4量化为例,Gemma327B显存需求从54GB锐减至14.1GB,Gemma312B则从24GB降至6.6GB;Gemma31B仅需0.5GB显存。
-
研究称生成式 AI 背后隐藏高昂水电消耗,直接影响数据中心周边生活成本
研究发现,AI即便仅仅是在生成文本时,背后也需要消耗大量水资源用于服务器降温,此外还伴随着庞大的电力消耗。
-
部分 iPhone 开发者不满苹果新规:所提交 BUG 被用于训练 AI,无退出选项
科技媒体AppleInsider昨日(4月18日)发布博文,报道称苹果公司于本周一宣布新计划,支持iPhone用户自由选择,是否加入AppleIntelligence训练计划。
-
谷歌 Gemini 2.5 Flash 混合推理 AI 模型上线:性能成本双优
谷歌公司昨日(4月17日)发布公告,宣布在GoogleAIStudio和VertexAI中,以GeminiAPI的方式推出Gemini2.5FlashPreview预览AI模型。
-
微软 AI 负责人预测:未来“智能”成为新货币,知识和能力比钱更重要
在接受JulesTerpak频道采访时,微软人工智能业务首席执行官穆斯塔法・苏莱曼(MustafaSuleyman)表示,未来“智能”将成为新的货币,将重新定义财富与生活的本质。
-
METR 实测:OpenAI o3 AI 推理模型有“作弊”倾向以提升分数
风险测试机构“机器智能测试风险”(METR)昨日(4月17日)发布报告,与OpenAI合作测试其o3模型时发现,该模型展现出更强的“作弊”或“黑客行为”倾向,试图通过操控任务评分系统提升成绩。
-
微软 BitNet b1.58 2B4T 登场:内存占用仅 0.4GB,20 亿参数模型颠覆 AI 计算
微软研究团队推出了一款开源大型语言模型BitNetb1.582B4T,区别于传统训练后量化的方式,这款拥有20亿参数的大型语言模型(LLM)以1.58位低精度架构原生训练而成。
-
谷歌也要“送 AI 进校园”:美国大学生可限时免费订阅 Google One AI Premium 计划
这一订阅方案不仅提供2TB云存储空间,还包含多项AI工具,帮助学生“更高效地学习”。其中,Gemini2.5Pro驱动的GeminiAdvanced,是谷歌为对抗ChatGPTPlus推出的旗舰级产品。
-
字节 Seed 开源 UI-TARS-1.5:基于视觉-语言模型构建的多模态智能体
UI-TARS-1.5昨日正式发布并开源。这是一款基于视觉-语言模型构建的开源多模态智能体,能够在虚拟世界中高效执行各类任务。