科技媒体 darkreading 近日发布博文,报道微软 Copilot Studio 存在服务器端请求伪造(SSRF)安全漏洞,会泄露敏感云数据。
Copilot Studio 是一个端到端对话式 AI 平台,支持你使用自然语言或图形界面创建和自定义助手。用户使用 Copilot Studio,可以轻松设计、测试和发布满足内部或外部场景的需求。
研究人员利用微软 Copilot Studio 工具中的一个漏洞,能够发出外部 HTTP 请求,从而访问云环境中有关内部服务的敏感信息,并潜在影响多个租户。
Tenable 的研究人员在聊天机器人创建工具中发现了服务器端请求伪造(SSRF)漏洞,他们利用该漏洞访问了微软的内部基础架构,包括实例元数据服务(IMDS)和内部 Cosmos DB 实例。
该漏洞被微软追踪为 CVE-2024-38206,根据与该漏洞相关的安全公告,经过验证的攻击者可以绕过 Microsoft Copilot Studio 中的 SSRF 保护,通过网络泄漏基于云的敏感信息。
免责声明:素材源于网络,如有侵权,请联系删稿。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。