谷歌的人工智能计划现在包括网络安全
随着人们试图寻找生成式人工智能的更多用途,而不是制作假照片,而是真正有用,谷歌计划将人工智能指向网络安全,并使威胁报告更容易阅读。
谷歌在一篇博客文章中写道,其新的网络安全产品谷歌威胁情报将把Mandiant网络安全部门和VirusTotal威胁情报的工作与GeminiAI模型结合起来。
新产品使用Gemini1.5Pro大语言模型,谷歌称该模型减少了逆向工程恶意软件攻击所需的时间。该公司声称,2月份发布的Gemini1.5Pro只需34秒即可分析WannaCry病毒(2017年勒索软件攻击,导致世界各地的医院、公司和其他组织陷入困境)的代码,并识别出终止开关。考虑到法学硕士阅读和编写代码的技巧,这令人印象深刻,但并不奇怪。
但Gemini在威胁领域的另一个可能用途是将威胁报告总结为威胁情报中的自然语言,以便公司可以评估潜在的攻击可能如何影响他们,或者换句话说,这样公司就不会对威胁反应过度或反应不足。
谷歌表示,威胁情报还拥有庞大的信息网络,可以在攻击发生之前监控潜在威胁。它让用户能够更全面地了解网络安全形势,并优先考虑要关注的内容。Mandiant提供监控潜在恶意团体的人类专家以及与公司合作阻止攻击的顾问。VirusTotal的社区还定期发布威胁指标。
谷歌于2022年收购了网络安全公司Mandiant,该公司揭露了2020年针对美国联邦政府的SolarWinds网络攻击。
该公司还计划利用Mandiant的专家来评估人工智能项目的安全漏洞。通过谷歌的安全人工智能框架,Mandiant将测试人工智能模型的防御能力并帮助红队工作。虽然人工智能模型可以帮助总结威胁并对恶意软件攻击进行逆向工程,但模型本身有时也可能成为恶意行为者的牺牲品。这些威胁有时包括“数据中毒”,即向人工智能模型抓取的数据添加不良代码,从而使模型无法响应特定提示。
当然,谷歌并不是唯一一家将人工智能与网络安全相融合的公司。微软推出了CopilotforSecurity,由GPT-4和微软网络安全专用人工智能模型提供支持,让网络安全专业人员提出有关威胁的问题。这是否真的是生成式人工智能的一个很好的用例还有待观察,但很高兴看到它除了用于拍摄傲慢的教皇图片之外的其他用途。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。