微软最新AI模型Fara-7B,强调本地端运行与数据隐私,企业可安心使用。Fara-7B具备卓越效能,通过视觉感知操作,完成复杂任务,展现AI模型的无限潜力。微软于11月24日正式发表最新AI模型Fara-7B,这款具备70亿参数的模型被定位为"电脑使用代理"(Computer Use Agent, CUA),主打可直接在本地端运行、无需依赖云端算力,同时兼顾高效能与数据隐私。 主打企业数据安全,支援"视觉感知"操作 Fara-7B的设计核心在于满足企业客户对敏感信息处理的隐私与合规需求。由于模型足够精简,可以在个人电脑上执行,不仅降低延迟,也避免数据上传至云端,有助于落实本地化自动化,例如用于内部账号管理、机密文件处理等场景。 这款模型最大特色是采用"看屏幕操作"方式与网站互动——通过屏幕截图读取画面排版,再预测鼠标点击、输入或滚动等动作。与传统依赖浏览器结构的方式不同,Fara-7B完全基于像素级数据进行推理,因此即便是程序代码结构混乱的网站,也能正常运作。 微软研究院产品经理Yash Lara表示,Fara-7B通过本地端处理视觉输入,实现所谓的"像素主权",让包括医疗、金融等高度监管产业也能安心使用。 实测效能超越GPT-4o,小模型更高效 在WebVoyager测试基准中,Fara-7B的任务完成率达73.5%,高于GPT-4o的65.1%与UI-TARS-1.5-7B的66.4%。此外,Fara-7B完成任务平均仅需16步操作,明显优于UI-TARS-1.5-7B的41步,在准确率与效率之间达成最佳平衡。 Fara-7B同时引入"关键确认点"(critical checkpoints)机制,在遇到涉及用户个资或不可逆操作(如发送信件、金钱转移)时会自动暂停并请求确认,搭配"Magentic-UI"互动界面,提供人机协作的安全防线。 知识蒸馏与专家示范训练,强化自主学习潜力 Fara-7B采用"知识蒸馏"训练方法,整合由多代理系统Magentic-One所产生的14.5万笔成功导航范例,并压缩至单一模型中学习。此外,底层模型基于Qwen2.5-VL-7B,拥有最长128,000 token的上下文窗口,具备优异的图文对齐能力,训练过程以模仿人类专家操作为主。 微软表示,未来不会盲目追求更大模型,而是致力于打造更"小而聪明、安全"的模型,并计划引入强化学习(RL)于合成沙盒环境中进行自学训练。 已开源上架,可自由测试商用但尚非正式产品 目前Fara-7B已通过MIT授权开源释出,可在Hugging Face与微软Foundry平台下载使用,允许用于商业应用。但微软也提醒,该模型尚未达到生产环境部署标准,目前主要适合开发者用于原型测试与功能验证。 延伸阅读:Google推WeatherNext 2新一代气象预报AI模型,Pixel、搜寻、Gemini抢先用 延伸阅读:研究者发现让AI变得更有创意的懒人提问法,不论ChatGPT、Gemini等任何AI模型皆能适用 延伸阅读:Anthropic发表Claude Haiku 4.5小型AI模型:仅1/3成本、效能对标Sonnet 4,程序表现甚至小赢 加入T客邦Facebook粉丝团微软最新AI模型Fara-7B,强调本地端运行与数据隐私,企业可安心使用。Fara-7B具备卓越效能,通过视觉感知操作,完成复杂任务,展现AI模型的无限潜力。微软于11月24日正式发表最新AI模型Fara-7B,这款具备70亿参数的模型被定位为"电脑使用代理"(Computer Use Agent, CUA),主打可直接在本地端运行、无需依赖云端算力,同时兼顾高效能与数据隐私。 主打企业数据安全,支援"视觉感知"操作 Fara-7B的设计核心在于满足企业客户对敏感信息处理的隐私与合规需求。由于模型足够精简,可以在个人电脑上执行,不仅降低延迟,也避免数据上传至云端,有助于落实本地化自动化,例如用于内部账号管理、机密文件处理等场景。 这款模型最大特色是采用"看屏幕操作"方式与网站互动——通过屏幕截图读取画面排版,再预测鼠标点击、输入或滚动等动作。与传统依赖浏览器结构的方式不同,Fara-7B完全基于像素级数据进行推理,因此即便是程序代码结构混乱的网站,也能正常运作。 微软研究院产品经理Yash Lara表示,Fara-7B通过本地端处理视觉输入,实现所谓的"像素主权",让包括医疗、金融等高度监管产业也能安心使用。 实测效能超越GPT-4o,小模型更高效 在WebVoyager测试基准中,Fara-7B的任务完成率达73.5%,高于GPT-4o的65.1%与UI-TARS-1.5-7B的66.4%。此外,Fara-7B完成任务平均仅需16步操作,明显优于UI-TARS-1.5-7B的41步,在准确率与效率之间达成最佳平衡。 Fara-7B同时引入"关键确认点"(critical checkpoints)机制,在遇到涉及用户个资或不可逆操作(如发送信件、金钱转移)时会自动暂停并请求确认,搭配"Magentic-UI"互动界面,提供人机协作的安全防线。 知识蒸馏与专家示范训练,强化自主学习潜力 Fara-7B采用"知识蒸馏"训练方法,整合由多代理系统Magentic-One所产生的14.5万笔成功导航范例,并压缩至单一模型中学习。此外,底层模型基于Qwen2.5-VL-7B,拥有最长128,000 token的上下文窗口,具备优异的图文对齐能力,训练过程以模仿人类专家操作为主。 微软表示,未来不会盲目追求更大模型,而是致力于打造更"小而聪明、安全"的模型,并计划引入强化学习(RL)于合成沙盒环境中进行自学训练。 已开源上架,可自由测试商用但尚非正式产品 目前Fara-7B已通过MIT授权开源释出,可在Hugging Face与微软Foundry平台下载使用,允许用于商业应用。但微软也提醒,该模型尚未达到生产环境部署标准,目前主要适合开发者用于原型测试与功能验证。 延伸阅读:Google推WeatherNext 2新一代气象预报AI模型,Pixel、搜寻、Gemini抢先用 延伸阅读:研究者发现让AI变得更有创意的懒人提问法,不论ChatGPT、Gemini等任何AI模型皆能适用 延伸阅读:Anthropic发表Claude Haiku 4.5小型AI模型:仅1/3成本、效能对标Sonnet 4,程序表现甚至小赢 加入T客邦Facebook粉丝团

微软推出 Fara-7B 小型 AI 模型,在本地端直接执行、性能超越 GPT-4o

2025/11/28 13:30

微软于 11 月 24 日正式发表最新 AI 模型 Fara-7B,这款具备 70 亿参数的模型被定位为"电脑使用代理"(Computer Use Agent, CUA),主打可直接在本地端运行、无需依赖云端算力,同时兼顾高效能与数据隐私。

主打企业数据安全,支持"视觉感知"操作

Fara-7B 的设计核心在于满足企业客户对敏感信息处理的隐私与合规需求。由于模型足够精简,可以在个人电脑上执行,不仅降低延迟,也避免数据上传至云端,有助于落实本地化自动化,例如用于内部账号管理、机密文件处理等场景。

这款模型最大特色是采用"看屏幕操作"方式与网站互动——通过屏幕截图读取画面排版,再预测鼠标点击、输入或滚动等动作。与传统依赖浏览器结构的方式不同,Fara-7B 完全基于像素级数据进行推理,因此即便是程序代码结构混乱的网站,也能正常运作。

微软研究院产品经理 Yash Lara 表示,Fara-7B 通过本地端处理视觉输入,实现所谓的"像素主权",让包括医疗、金融等高度监管产业也能安心使用。

实测效能超越 GPT-4o,小模型更高效

在 WebVoyager 测试基准中,Fara-7B 的任务完成率达 73.5%,高于 GPT-4o 的 65.1% 与 UI-TARS-1.5-7B 的 66.4%。此外,Fara-7B 完成任务平均仅需 16 步操作,明显优于 UI-TARS-1.5-7B 的 41 步,在准确率与效率之间达成最佳平衡。

Fara-7B 同时引入"关键确认点"(critical checkpoints)机制,在遇到涉及用户个资或不可逆操作(如发送信件、金钱转移)时会自动暂停并请求确认,搭配"Magentic-UI"互动界面,提供人机协作的安全防线。

知识蒸馏与专家示范训练,强化自主学习潜力

Fara-7B 采用"知识蒸馏"训练方法,整合由多代理系统 Magentic-One 所产生的 14.5 万笔成功导航范例,并压缩至单一模型中学习。此外,底层模型基于 Qwen2.5-VL-7B,拥有最长 128,000 token 的上下文窗口,具备优异的图文对齐能力,训练过程以模仿人类专家操作为主。

微软表示,未来不会盲目追求更大模型,而是致力于打造更"小而聪明、安全"的模型,并计划引入强化学习(RL)于合成沙盒环境中进行自学训练。

已开源上架,可自由测试商用但尚非正式产品

目前 Fara-7B 已通过 MIT 授权开源释出,可在 Hugging Face 与微软 Foundry 平台下载使用,允许用于商业应用。但微软也提醒,该模型尚未达到生产环境部署标准,目前主要适合开发者用于原型测试与功能验证。

  • 延伸阅读:Google 推 WeatherNext 2 新一代气象预报 AI 模型,Pixel、搜索、Gemini 抢先用
  • 延伸阅读:研究者发现让 AI 变得更有创意的懒人提问法,不论 ChatGPT、Gemini 等任何 AI 模型皆能适用
  • 延伸阅读:Anthropic 发表Claude Haiku 4.5 小型 AI 模型:仅 1/3 成本、效能对标 Sonnet 4,程序表现甚至小赢
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。

您可能也会喜欢

DOGE 终于不炒梗了、1 月要搞实用性大动作、0.14 美元能不能守住?

DOGE 终于不炒梗了、1 月要搞实用性大动作、0.14 美元能不能守住?

DOGE 终于不炒梗了!1 月要搞实用性大动作,0.14 美元能不能守住?
分享
Jinsehot2025/12/16 11:51
Tether 以 3 亿美元和解金解决 Celsius 诉讼案

Tether 以 3 亿美元和解金解决 Celsius 诉讼案

区块链恢复投资联盟(BRIC),一个由GXD Labs和VanEck合作成立的伙伴关系,周二宣布了Celsius破产案的重大进展。Tether(USDT)已同意向这家加密贷款机构的破产财产支付一笔巨额款项,这是继去年启动的对抗程序之后的结果。 Tether解决十亿美元诉讼 这项和解标志着围绕Celsius的持续法律纠纷中的重要里程碑,Celsius于2022年7月申请破产。Celsius此前曾指控Tether处理不当抵押品和清算,索赔39,542 BTC(当时约43亿美元)以及额外1亿美元的损失赔偿,这构成了他们最大的第三方索赔。 相关阅读:比特币重置完成?Ostium预见爆发性上涨至133,000美元 据Bitcoinist此前报道,Celsius声称Tether的行为体现了一个更广泛的"利用美国加密货币市场的计划",他们认为这一立场可以支持此案的管辖权。针对这些指控,Tether将诉讼描述为"敲诈",声称鉴于当时比特币价格波动,Celsius有责任提供额外抵押品。Tether坚持认为,Celsius的管理不善不应导致他们承担不当成本。 Celsius破产债权人获得显著回报 最终,这项和解允许Tether以Celsius最初索赔金额的一小部分解决此事,预计将收回近3亿美元,为参与破产程序的债权人提供了显著回报。Tether首席执行官Paolo Ardoino也在社交媒体网站X(前身为Twitter)上评论了这项和解,表示:"Tether很高兴已就与Celsius破产相关的所有问题达成和解。" 相关阅读:数十年酝酿:加密交易所预测柴犬价格何时将达到0.01美元 GXD Labs管理合伙人David Proman也对解决方案表示满意。他表示:"我们很高兴已解决Celsius的对抗程序和针对Tether的相关索赔。" 特色图片来自DALL-E,图表来自TradingView.com
分享
NewsBTC2025/10/15 03:22
香港 Web3 每日必读:12 小时全网爆仓约 1.91 亿美元

香港 Web3 每日必读:12 小时全网爆仓约 1.91 亿美元

香港 Web3 每日必读:Ribbon Finance 遭攻击或因管理地址被控,12 小时全网爆仓约 1.91 亿美元
分享
Jinsehot2025/12/16 11:53