红灯,就是做好风险的控制。“我们要警惕AI技术被恶意利用,比如用于制造虚假信息、发动网络攻击或者加剧社会不平等。深度伪造技术就是一个例子,如果不加以限制,它可能会破坏社会的信任体系,引发混乱。”李俊奎表示,必须对抗这种会对人类价值观和社会稳定造成严重冲击的应用,让红灯成为不可逾越的红线。
李俊奎认为,负责任AI的建立需要各界多方共同努力。对于政府来说,要制定合理的法规政策,明确红线和监管的机制;对于社会组织、科研机构来说,要加强对AI伦理和风险的研究,为决策提供科学依据;对于科技企业来说,要自觉遵守道德和伦理准则,将社会责任融入技术研发中;对于公众来说,要积极关注和参与AI发展的讨论,共同构建负责任的AI。“总之,设立好红绿灯,建立负责任AI,是一个系统性、开放性的命题,既刻不容缓,也需要长期主义。”
黄灯,就是在技术之外,做好AI制度管理,谨慎对待那些具有潜在风险的AI领域。“例如,自动驾驶领域虽然前景非常广阔,但目前还存在很多复杂的伦理问题,比如当自动驾驶汽车面临不可避免的碰撞时,它应该优先保护车内乘客还是行人?”李俊奎认为,面对类似情况,要进行充分、深度的研究和讨论,建立完善的伦理和安全框架,只有当风险可控时,才允许其继续前行。
绿灯,就是为那些有益于人类的AI应用亮起通行信号。“安全是手段,最终目的是促进AI健康发展,广泛应用于产业和方便人民的生活,缩小AI引发的技术鸿沟。”
凤凰体育网址11月21日,在2024年世界互联网大会乌镇峰会“人工智能负责任开发与应用分论坛”上,蚂蚁集团副总裁李俊奎在发言中指出,要为AI健康发展设立“红绿灯”:对会给人类价值观和社会稳定造成严重冲击的AI应用,必须进行防御和抵制;对具有潜在风险的AI应用领域,要做充分、深度的分析和研究,建立完善的伦理和安全框架;对那些有益于人类的AI应用,应亮起通行信号。
李俊奎介绍,蚂蚁集团在去年年初建立AI安全伦理委员会时便期望用“善治”应对“善智”。集团的任何AI应用在出台前,都会经过包括科技伦理在内的评测,真正做到用制度引导AI驱动的业务符合“以人为本,科技向善”。
李俊奎将AI比作高速行驶的列车,“它既带来了前所未有的机遇,如促进经济发展、社会进步、助力公益事业,但如同列车需要轨道和信号的引导一样,AI的发展也不能毫无约束地狂奔,必须为其设立红绿灯,保障其健康前行”。
李俊奎表示,为AI的发展设立“红绿灯”的过程也是构建负责任AI的过程。负责任AI的建立从长远来看面临三大趋势:第一,从“准确性”到“人情味”。除了保证AI的可靠性和准确性之外,也要真正让AI更好地服务人类。第二,从“显性风险被动防控”到“隐性风险主动防控”。第三,从“对话交互”到“有效协同”。
网友评论更多
73临江k
2025校园招聘 | 德国西克SensorP...🌮🌯
2024-11-28 07:06:04 推荐
187****6618 回复 184****7877:精准洞察!海康机器人DP4000系列...🌰来自延吉
187****4356 回复 184****2570:海康机器人“海”亮惊喜即将空降...🌱来自图们
157****2981:按最下面的历史版本🌲🌳来自敦化
47珲春795
7018米!中国科学家又迎来历史性突破🌴🌵
2024-11-28 05:42:48 推荐
永久VIP:G7财长会砸了 日本欧盟都在盯着中国🌶来自龙井
158****8150:周永康令计划之后,又有人因“秘密文件”被查🌷来自和龙
158****1520 回复 666🌸:美国非法移民被集体宣判画面🌹来自扶余
65齐齐哈尔wh
成飞这次又要火!歼20蒙皮细节纤豪毕现 高超工艺让国人放心🌺🌻
2024-11-29 11:12:53 不推荐
黑河eb:副市长暗访便民中心 工作人员戴耳机听歌当天被辞🌼
186****3038 回复 159****3387:联合国报告称美国有4000万人贫困 美主持人凌乱了🌽