在宣布为 Office 应用程序提供人工智能 (AI) 支持的 Copilot 助手后, Microsoft现在将重点放在网络安全上。Microsoft Security Copilot 旨在作为网络安全专业人员的新助手。它将帮助他们更好地了解每天收到的大量信号和数据并检测违规行为。
由OpenAI 的 GPT-4 生成人工智能和微软自己的以安全为中心的模型提供支持,Security Copilot 看起来像一个简单的提示框,就像任何其他聊天机器人一样。“我公司有哪些安全事件?” 您可以询问并获得摘要。但在后台,它使用微软每天收集的 65 万亿个信号来收集威胁情报及其安全相关技能,让安全专业人员能够检测威胁。
Microsoft Security Copilot 旨在支持安全分析师的工作,包括一个允许同事协作和共享信息的仪表板部分。网络安全专业人员可以使用 Security Copilot 协助事件调查或快速总结和协助报告事件。
Security Copilot 接受自然语言输入,因此安全专业人员可以要求总结特定漏洞、提要文件、URL 或代码片段以供分析,或请求来自其他安全工具的事件和警报信息。所有的提示和响应都会被记录下来,这样研究人员就有了完整的审计线索。
可以在协作工作区中固定和汇总结果,以便同事可以进行相同的威胁分析和调查。微软 AI 安全架构师 Chang Kawaguchi告诉The Verge,“它就像一个普通的笔记本,供研究人员拥有独立的工作空间并介绍你正在做的事情。” 说。
Security Copilot 最有趣的方面之一是它的提示簿功能。它本质上是一组步骤或自动化工具包,人们可以将其与一个易于使用的按钮或提示捆绑在一起。它可能涉及安全研究人员使用共享提示对脚本进行逆向工程,而无需等待团队成员执行此类分析。Security Copilot 甚至可以让您创建总结事件和攻击向量的 PowerPoint 幻灯片。
当安全研究人员寻求有关最新漏洞的信息时,Microsoft 和 Bing 一样会公开获取结果。Microsoft 使用来自网络安全和基础设施安全局、美国国家标准与技术研究所的漏洞数据库以及 Microsoft 自己的威胁情报数据库的信息。
但这并不意味着微软的 Security Copilot 将始终做正确的事情。“我们知道这些模型有时会出错,所以我们确保提供反馈,”川口说。说。反馈循环承载的内容比 Bing 上的喜欢或不喜欢按钮多得多。“因为它可能出错的方式太多了,”川口说。说。微软将向用户提供有关问题所在的完整答案,以便他们更好地理解任何错觉。
“没有人能保证零幻想,但通过处理诸如发现来源、提供反馈以及将它们基于您自己的上下文中的数据之类的事情,我们试图让人们理解和验证他们看到的数据,”川口说。“在某些情况下,没有正确答案,因此我们认为概率答案对组织和进行研究的个人来说要好得多。”
Microsoft Security Copilot 不是一个简单的聊天机器人虽然微软的 Security Copilot 看起来像 Bing 一样的提示和聊天机器人界面,但该公司仅限于与安全相关的查询。用户将无法从这里获取最新的天气信息或向 Security Copilot 询问他们最喜欢的颜色。“这不是 Bing 有意识的,”川口说。说。“我们不认为这是一种聊天体验。我们认为它更像是一种笔记本体验,而不是通用聊天或聊天机器人。”
Security Copilot可谓是微软在人工智能(AI)领域取得重大突破的最新例证。看起来 Microsoft 365 Copilot 将永远取代 Office 文档,而微软旗下的 GitHub 正在将其 Copilot 转变为更具对话性的助手,以协助开发人员生成代码。微软没有放缓 Copilot 目标的迹象,因此我们将继续看到这种 AI 助手技术在公司的软件和服务中普及。
周二,微软与“一些客户”一起开放了这款新的 Security Copilot 预览版。但是,该公司尚未确定日期以使其更广泛地使用。“我们还没有讨论全面上市的时间表,”川口说。“很多都是关于学习和负责任地学习,所以我们想与一小群人分享这一点,开始学习过程,努力提供最好的产品,并负责任地提供它。”