Together AI 升级微调平台,支持视觉和推理功能
Joerg Hiller 2026年3月19日 02:27
Together AI 在其平台上新增工具调用、推理追踪和视觉语言微调功能,100B+参数模型的吞吐量提升6倍。
Together AI 于3月18日推出其微调服务的重大扩展,新增对工具调用、推理追踪和视觉语言模型的原生支持——这些功能解决了构建生产级AI系统团队长期面临的痛点。
此次更新正值该公司据报道正在谈判一轮融资,估值将达到75亿美元,是其2025年2月B轮融资33亿美元估值的两倍多。
真正的新功能
该平台现在处理三类微调任务,这些任务以前需要零散的变通方法:
工具调用使用与OpenAI兼容的模式获得端到端支持。系统在训练开始前验证训练数据中的每个工具调用是否与声明的函数匹配——这是防止困扰代理工作流程的幻觉参数和模式不匹配的保障。
推理微调允许团队使用专用的reasoning_content字段在特定领域的思维追踪上训练模型。这很重要,因为推理格式在不同模型系列中差异很大,如果没有标准化,很难进行一致的训练。
视觉语言微调支持混合数据集,包含图像文本和纯文本示例。默认情况下,视觉编码器保持冻结状态,而语言层进行更新,尽管当视觉模式识别需要改进时,团队可以启用联合训练。
基础设施升级
除了新功能外,Together AI 声称通过优化其训练堆栈以适应混合专家架构,获得了显著的性能提升。该公司集成了SonicMoE内核,可将内存操作与计算重叠,以及用于损失计算的定制CUDA内核。
结果因模型大小而异:较小的模型吞吐量提升约2倍,而像Kimi-K2这样的大型架构则获得6倍的提升。该平台现在可处理高达100GB的数据集和超过1,000亿个参数的模型。
可用于微调的新模型包括Qwen 3.5变体(最多397B参数)、Kimi K2和K2.5,以及GLM-4.6和4.7。
实用新增功能
此次更新包括任务执行前的成本估算和实时进度跟踪,以及动态完成估算——这些功能听起来很基础,但可以防止使实验变得有风险的预算意外。
XY.AI Labs被Together AI引用为客户案例,报告称使用该平台的微调和部署API,从每周迭代周期转变为每日迭代周期,同时将成本降低2-3倍,准确率从77%提高到87%。
市场背景
这一时机与AI基础设施支出激增相吻合。根据最近的报告,2026年前两个月,AI领域的初创企业融资达到2,200亿美元,其中大部分资金流向训练和推理基础设施。
Together AI 将自己定位为构建内部AI基础设施的替代方案,通过其平台提供访问200多个开源模型的途径。该公司的宣传——消除基础设施复杂性,让团队专注于产品开发——现在扩展到日益复杂的训练后工作流程,这些工作流程以前是资源丰富的研究实验室的专属领域。
图片来源:Shutterstock- together ai
- ai基础设施
- 微调
- 机器学习
- 企业ai



