OpenAI裁撤内部风险团队,引发AI数据安全新讨论
来源:李智衍 发布时间:2025-06-24
分享至微信

据外媒报道,人工智能创企OpenAI近日裁撤了其负责保护知识产权的“内部风险团队”部分成员。该团队的核心职责是确保OpenAI软件的关键信息,例如模型权重等敏感数据,不会被泄露给外部实体。这一决定引发了业界对AI数据安全保护的广泛关注。
今年早些时候,美国拜登政府推出了一套名为“AI扩散规则”的新政策。该政策不仅限制英伟达GPU向全球多数国家和地区的销售,还对与海外共享AI模型权重作出严格规定。根据新规,美国最先进的AI软件模型权重必须在严格的安全条件下存储,且跨境传输需获得许可。美国政府强调,模型权重一旦被恶意窃取,可能被迅速复制并传播至全球,带来重大风险。
OpenAI表示,裁撤部分团队成员是公司应对日益复杂的威胁环境的必要调整。AI模型的参数,例如输入权重,是决定其性能和市场竞争力的关键因素,因此这些数据被严格保护。然而,AI公司还面临来自竞争对手或客户的企业间谍活动威胁。一些企业发现,其产品在短时间内即被客户复制。OpenAI作为全球估值最高的纯AI软件公司,已与美国国防部签订合同,并参与美国及海外的主权AI基础设施建设。
[ 新闻来源:李智衍,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!


李智衍
开创IC领域,共创美好未来!
查看更多
相关文章
美国与中东AI芯片交易引发内部争议,官员担忧或助中国
2025-05-19
OpenAI豪掷64亿美元收购苹果前设计团队,进军AI硬件领域
2025-05-22
AMD收购Untether AI团队,强化AI计算能力
2025-06-06
热门搜索