人工智能模型的引入带来了与模型毒性相关的安全风险,以及与及时注入攻击相关的幻觉和安全风险。思科执行副总裁兼首席产品官杰图-帕特尔(Jeetu Patel)表示,企业必须持续验证人工智能模型,以确保它们在各种场景下都能按照预期执行,尤其是在对其进行微调或接触新数据时。
他说:“算法红队能够以前所未有的规模进行测试,以确保模型在各种条件下都是稳健的,而且在通过验证发现漏洞后,还可以实施防护措施,以防止类似故障的发生(参见:思科通过购买稳健智能加强人工智能安全)。”
“你需要对模型持续进行某种验证,”帕特尔说。“每一次对模型进行微调–每一次对模型进行调整–模型都会根据新的数据进行训练,而这些数据实际上有可能改变模型的行为。”
在与信息安全媒体集团(Information Security Media Group)的视频访谈中,帕特尔还讨论了以下问题:
- 思科如何利用人工智能驱动的工具来提高运营效率和降低风险;
- 人工智能防御平台如何与思科更广泛的安全框架集成;
- 收购 Robust Intelligence 如何增强思科的人工智能安全能力。
帕特尔自今年 8 月起担任思科首席产品官,此前他曾在思科安全和协作业务部门任职四年。他曾领导 Box 的产品和平台战略,为公司制定了云内容管理的长期愿景和路线图。他还曾担任 EMC Syncplicity 业务部总经理兼首席执行官,该业务部是一个文件同步共享和协作云服务部门。
1.本站内容仅供参考,不作为任何法律依据。用户在使用本站内容时,应自行判断其真实性、准确性和完整性,并承担相应风险。
2.本站部分内容来源于互联网,仅用于交流学习研究知识,若侵犯了您的合法权益,请及时邮件或站内私信与本站联系,我们将尽快予以处理。
3.本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
4.根据《计算机软件保护条例》第十七条规定“为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。”您需知晓本站所有内容资源均来源于网络,仅供用户交流学习与研究使用,版权归属原版权方所有,版权争议与本站无关,用户本人下载后不能用作商业或非法用途,需在24个小时之内从您的电脑中彻底删除上述内容,否则后果均由用户承担责任;如果您访问和下载此文件,表示您同意只将此文件用于参考、学习而非其他用途,否则一切后果请您自行承担,如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。
5.本站是非经营性个人站点,所有软件信息均来自网络,所有资源仅供学习参考研究目的,并不贩卖软件,不存在任何商业目的及用途
暂无评论内容