越来越强大的 AI 科技隐忧不容忽视,如果遭滥用,有机会发生毁灭性灾难。OpenAI 特地成立团队评估防范问题,确保 AI 科技不会造成灾难。
OpenAI 团队名为「Preparedness」(备战),由麻省理工学院机器学习中心(Center for Deployable Machine Learning)主任 Aleksander Madry 领导。团队任务包括追踪预测及防范 AI 系统可能的危险,特别是系统对网路安全的潜在威胁。OpenAI 提及不同风险,有化学、生物、辐射和核威胁等。
OpenAI 举办挑战赛邀请开发者社群提交风险研究提案,开发者不只可获奖金,还有机会加入 Preparedness 团队。这活动要求参与者思考如果恶意使用者获得 OpenAI 某些先进模型的不受限制权限,可能发生的最坏情况。
OpenAI 强调 AI 模型能力不断提升,对全人类的潜在益处增加同时,也形成严重风险,故积极发展策略和基础设施,以确保安全控制和部署高阶 AI 系统。
- Frontier risk and preparedness
(本文由 Unwire HK 授权转载;首图来源:shutterstock)