数码之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

微信登录

微信扫一扫,快速登录

搜索
查看: 50|回复: 1

[科技] 微软官宣Windows11变身智能体操作系统,动嘴就能使唤电脑干活!

[复制链接]
发表于 昨天 13:23 | 显示全部楼层 |阅读模式
哎,您说说,这科技发展的速度是不是有点快得离谱了?前几天我们可能还在琢磨怎么用语音助手关个灯,今天,微软就直接拍板宣布:您电脑里那个Windows 11,正准备来一场彻底“变身”!它不再甘心只当一个您点一下它才动一下的“工具人”了,它要进化成一个能自己“思考”、能主动“干活”的“智能体操作系统”(Agentic OS)。

这事儿可不是空穴来风。您要是最近刷过那个以前叫推特、现在叫X的平台,肯定瞅见微软官方账号在那儿发一些让人浮想联翩的句子,什么“您的双手即将迎来带薪假期”(Your hands are about to get some PTO),还有什么“妈,快看,不用手!”(Look ‘ma, no hands)。这可不是随便说说的俏皮话,这明显是在呼应微软自己之前发布的一个挺有未来感的视频,叫做“Windows 2030愿景”。在那个视频里,微软就大胆预测,说我们现在习以为常的键盘鼠标这种交互方式啊,到了2030年可能就变得跟以前的软盘驱动器一样,成了老古董了。

当时好多人觉得,哎哟,2030年听着还挺远的,好歹还有五六年呢,不急不急。结果您猜怎么着?微软这家伙,它压根没打算等到2030年!它现在就撸起袖子,开始动手把未来往今天拽了。它今天就跟全世界摊牌了:您很快就能用您的声音,直接“使唤”您的Windows 11电脑了。

那么,这个听起来有点玄乎的“智能体操作系统”(Agentic OS),它到底是个啥玩意儿呢?​​
您就这么理解吧:它本质上还是您熟悉的那个Windows操作系统,是电脑的“大管家”。但是呢,这个“大管家”升级了,它现在不光能管好硬件软件,它还成了“AI智能体”(AI Agents)的“总司令”。这些“AI智能体”又是什么呢?它们就像是一群藏在您电脑里的、特别能干、特别有眼力见儿的“数字小助手”。每个小助手都各有本领。而升级后的Windows 11这个“总司令”,它的本事就是能够协调、指挥这些AI小助手,让它们替您去“思考”、去“规划”、去“执行”各种任务。

这么说可能还有点抽象,咱再打个比方。以前您用电脑,是“人驱动电脑”:您得知道哪个文件在哪个文件夹,得记得打开哪个软件,用哪个菜单功能,一步一步亲手操作,就像开车得自己握方向盘、踩油门一样。而以后,有了这个“智能体操作系统”,就可能变成“任务驱动电脑”:您只需要告诉电脑您“想要什么结果”,比如“把上个月旅游的照片挑出最好的十张,做个漂亮的短视频,配上音乐,发给我妈”。然后,您就可以端着茶杯在旁边看着了。Windows 11这个“总司令”会接手您的指令,它可能会先派一个AI小助手去扫描您的照片库,按人脸、景色智能筛选;再派另一个小助手去调用视频编辑软件,自动套用模板、添加转场;第三个小助手负责挑选合适的背景音乐;最后,它还能指挥邮件客户端或者聊天软件,把成品给您妈发过去。这一整套流程,可能完全不用您插手。

您看,这操作系统就从“被动响应”的工具,变成了“主动作为”的代理(Agent),所以叫“Agentic OS”(能动/代理/智能体操作系统)。

那微软是靠什么黑科技来实现这么神奇的功能呢?关键就在于一个叫做​​“模型上下文协议”(Model Context Protocol,简称MCP)​​ 的开放标准。这个协议啊,不是微软自己闭门造车搞出来的,而是另一家挺有名的AI公司叫Anthropic,在2024年11月(也就是去年年底)正式提出来的。您可以把这个MCP协议想象成一套“万能钥匙”和“安全行为准则”。有了这套准则,那些AI小助手们才能在Windows 11系统里被“规范化管理”。它们可以安全地“发现”您电脑里都装了哪些应用(比如Word、Photoshop),可以“召唤”这些应用来干活,并且能够根据您的复杂指令,“规划”出一步步的任务执行路线。

更重要的是,通过MCP协议,这些AI智能体获得了安全地与系统底层功能和应用交互的权限。比如,它们可以帮您编辑文件、启动一些特定的自定义工作流程、调整系统设置等等。所有这些操作,都打破了传统上必须依靠键盘鼠标“点点戳戳”的模式。您不用再去记“文件”菜单在哪儿,“另存为”选项在哪儿,您只需要动动嘴就行了。

接下来,咱得重点聊聊实现这一切的核心角色——也就是微软称之为“Copilot Actions”的这个功能。它可以说是让Windows 11真正“活”起来、拥有“行动力”的灵魂所在。​​

其实这个“Copilot Actions”功能,严格来说不算百分之百的新面孔。早在今年5月份,微软就介绍过它了,不过那时候它主要是在网页版的Copilot上活动。即使是在网页版上,它当时已经能展现出一些“代理”能力了,比如它能通过与一些第三方网络服务集成,帮您完成餐厅订座、购买活动门票、甚至网上购物等操作,相当于在互联网上替您跑腿。

但是,仅仅过了大概5个月,这个“Copilot Actions”就已经不满足于只在网络上活动了,它现在要深入地整合进Windows 11的“血脉”里。正是它的深度融入,才使得Windows 11蜕变成了所谓的“智能体操作系统”。您现在可以把“Copilot Actions”看作是微软为Windows 11配备的“首席AI智能体”或者“总调度员”。

不过,微软在这方面显得比较谨慎。可能是因为考虑到赋予AI这么高的权限涉及到安全和隐私问题,所以这个“Copilot Actions”功能默认状态下是关闭的。微软说了,等到这个功能正式向公众推送的时候,您需要自己手动去Copilot应用程序的设置里面,找到一个叫做“Experimental agentic features”(实验性智能体功能)的选项,把它打开,才能体验到这个“能动”的魔法。

微软对这场技术创新有着非常清晰的三步走蓝图,他们称之为Windows AI PC的三个核心目标,咱们来好好看一下:​

第一目标:自然交互。​​ 实现这个目标靠的是“Copilot Voice”(Copilot语音)。目的就是让您能用最自然的方式——无论是用语音说,还是用文字输入——来跟您的电脑交流。它的唤醒词就是“Hey Copilot”(嘿,Copilot)。这个听起来是不是有点耳熟?对,就跟咱们用“Hey Siri”或者“Hey Google”唤醒手机助手类似。但微软的野心显然不止于让您问问天气,他们希望您能通过语音真正地“操控”电脑,完成复杂任务。

第二目标:环境感知。​​ 实现这个目标靠的是“Copilot Vision”(Copilot视觉)。这个功能可就厉害了,它旨在让您的电脑“长眼睛”。它能通过摄像头或者直接分析屏幕内容,来“看到”您当前在做什么、屏幕上显示的是什么。比如,它能看到您正打开一个满是数据的表格,然后基于“看到”的内容来提供帮助。这就让AI的帮助变得非常有针对性,知道您所处的“上下文”。

​​第三目标:代理执行。​​ 这是最核心的一环,实现它靠的就是我们刚才重点说的“Copilot Actions”。它的目标就是赋予电脑“动手能力”,让AI代理能够代表您去实际执行任务、处理工作流程。这才是“智能体操作系统”真正发挥威力的地方。

光说概念可能还是有点虚,咱们来构想一个微软官方可能展示过的、非常具体的应用场景,您感受一下:​

假设您现在电脑浏览器里正打开着自己的个人作品集网站。您需要根据这个作品集的内容,写一段关于自己的个人简介(Bio),然后总结一下作品集,一起发给一位潜在的客户。

在传统的操作模式下,您可能需要:在作品集网站和Word(或记事本)之间来回切换,一边看网站内容,一边在Word里打字,复制粘贴一些关键信息,再组织语言,折腾半天。

而在未来的“智能体操作系统”下,您可能只需要深吸一口气,对着电脑说:“嘿,Copilot,帮我把我的作品集内容整理成一份个人简介。”

接下来,您可能会看到如下一幕:

首先,​​Copilot Voice​​ 被唤醒,它准确地识别并理解了您的语音指令——“整理作品集成个人简介”。

接着,根据指令需求,​​Copilot Vision​​ 开始发挥作用。它就像一双数字眼睛,快速“扫描”和分析您当前打开的浏览器窗口里,那个作品集网站上的所有内容——您的项目名称、职责描述、使用的技术、成果亮点等等——并把关键信息提取出来。

最后,重点来了,​​Copilot Actions​​ 这个“实干家”出场。它会自动在您的电脑上启动Microsoft Word应用程序(或者其他您指定的文本编辑工具)。然后,它就像一个真正的助理一样,开始“噼里啪啦”地自动输入文字!它会根据Copilot Vision提取的信息,组织语言,生成一份草稿式的个人简介。如果您的指令更复杂,比如“再从我云盘里找最新的简历补充一下工作经历”,那么Copilot Actions还会通过所谓的“Copilot Connectors”功能,安全地连接到您授权的云服务(比如Google Drive、OneDrive),获取额外信息,补充到文档里。

您看,整个过程中,您除了说出一句指令,完全没有使用键盘和鼠标。一个包含您个人简介的新Word文档就创建好了。这就是“智能体操作系统”在实际运作中的一个缩影。是不是有点科幻电影里那种“贾维斯”(钢铁侠的AI管家)的感觉了?

任务完成后,如果您一段时间没有新的互动,Copilot界面可能会自动关闭。或者,您也可以很有仪式感地对它说一声“再见”(Goodbye)来结束对话。当然,如果您就是习惯用鼠标,那依然可以移动光标去点击那个熟悉的“X”关闭按钮,一切随您方便。

还有一个很贴心的设计是:当Copilot Actions在后台任劳任怨地替您完成那个“整理个人简介”的任务时,您完全不用干等着。您可以自由地在电脑上做任何其他事情,比如浏览网页、处理其他文档。这是因为,所有这些AI代理任务据说会在一个独立的桌面环境或上下文中运行,不会妨碍您的主工作流程。同时,您应该能随时查看任务的实时进展状态。如果您对AI的操作不满意,或者想中途干预,完全可以随时“接管控制权”(Take Control)。

说到这儿,肯定有很多朋友心里会嘀咕,甚至有点担心:安全吗?隐私怎么办?​​
这绝对是重中之重的问题。想想看,这相当于给一个AI软件开了很高的权限,让它能访问您的文件、操作您的应用程序、甚至“看到”您屏幕上的内容。这要是出点岔子,或者被恶意软件利用,那还得了?

微软也明白大家的担忧。所以他们在宣布这些功能时,特别强调了用户掌控权。微软表示,用户将对Copilot Actions能做什么拥有完全的控制权(full control),包括可以随时暂停它的操作,或者完全禁用这个功能。而且,这些涉及到高级权限的功能,目前都还处于微软的内部测试阶段。即使未来推出,也会采取逐步、缓慢的方式,先向Windows Insider计划(预览体验计划)的成员们发布预览版,收集反馈,不断完善安全和隐私保护措施,不会一下子全面铺开。

还有一个大家非常关心的问题:是不是只有最新、最高端的所谓“AI PC”才能用上这些酷炫功能?​​
答案可能出乎您的意料。微软一位执行副总裁发布的相关博客,标题直接就叫做“让每一台Windows 11 PC都成为AI PC”(Making every Windows 11 PC an AI PC)。通篇读下来,它并没有明确说Copilot Voice、Copilot Vision或者Copilot Actions这些功能是新一代“Copilot+ PC”(通常指搭载了强大NPU神经处理单元的电脑)的专属。

这一点其实挺让人惊讶的。因为从微软之前的一些演示视频来看,有些复杂的AI任务(比如实时视觉分析、多步骤自动处理)对电脑的处理器(CPU)、特别是专用的NPU(神经网络处理器)算力要求是不低的。如果您的电脑是几年前的老型号,CPU性能一般,又没有强大的NPU,在运行这些后台AI任务的同时,还想流畅地做其他工作,可能确实会比较吃力,甚至卡到完全无法正常使用。对于配备了现代系统级芯片(SoC)、拥有至少40 TOPS(每秒万亿次操作)算力NPU的电脑(比如高通的骁龙X Elite平台笔记本)来说,处理这些任务可能就“小菜一碟”了。

这次,微软看起来没有采取非常激进的策略去强推用户必须更换最新的Copollt+ PC硬件,这在一定程度上对现有用户来说是件好事,降低了体验门槛。无论如何,这都清晰地表明了微软的决心:他们迫切地希望将Copilot Voice(语音交互)打造成我们未来使用PC的一种自然而然的方式。

目前,根据微软的信息,“Hey Copilot”这个语音唤醒功能,连同Copilot Vision视觉功能,正在全球范围内逐步推送。而其他更高级的功能(比如核心的Copilot Actions)将很快首先面向Windows Insider预览体验成员开放测试。普通用户可能还需要再耐心等待一段时间。

总结一下:​​ 微软这次的动作,是想从根本上改变我们与个人电脑的交互范式。从“我们适应电脑的操作逻辑”转向“电脑理解我们的自然意图”。如果这一切能顺利、安全地实现,那无疑会大大提升效率,甚至改变很多人的工作生活方式。当然,随之而来的隐私、安全、以及对硬件性能的真实需求等问题,也需要我们持续关注。您准备好了对您的电脑“发号施令”了吗?欢迎在评论区分享您的看法!



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册 微信登录

x
发表于 昨天 13:27 | 显示全部楼层
慢慢习惯吧 技术越来越强,操作越来越方便。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

APP|手机版|小黑屋|关于我们|联系我们|法律条款|技术知识分享平台

闽公网安备35020502000485号

闽ICP备2021002735号-2

GMT+8, 2025-10-19 02:03 , Processed in 0.078000 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz!

© 2006-2025 MyDigit.Net

快速回复 返回顶部 返回列表