跳到主要内容
人工智能安全

人工智能是指一系列以电脑程式和机器模仿人类解决问题的能力,应用科技例子包括脸容识别、语音辨识、聊天机械人、数据分析、自动化决策或建议等。

人工智能安全是指通过采取必要措施,防范对人工智能系统的攻击、侵入、干扰、破坏和非法使用以致意外事故,使人工智能系统处于稳定可靠运行的状态,以及遵循人工智能以人为本、权责一致等安全原则,保障人工智能演算法模型、数据、系统和产品应用的完整性、保密性、可用性、稳健性、透明性、公平性和隐私的能力。

面对人工智能带来的机遇与风险,国家坚持人工智能的使用和研发必须伦理先行、安全可控、公平普惠、开放包容、和平利用。

香港个人资料私隐专员公署于2021年8月颁布《开发及使用人工智能道德标准指引》,让相关机构、企业及个人在开发及使用人工智能时有所依循。香港市民应合法地开发和使用人工智能,防范将人工智能用作非法用途。