赞助体育赛事

 

赞助体育赛事

🔎赞助体育赛事🔏     

在谈及前沿大模型带来的风险时,姚期智表示,“大家关心AI安全治理的很大一部分原因是ChatGPT带来的大模型的问题。信息安全有风险,大模型幻觉产生的错误信息可以误导人类。同时,AI控制更多基础设施已成为一个不可改变的趋势,不安全的AI所带来的危险,会真正变成生存的危机。那么我们该如何管控它?”

“AI智能作为新的潮流,除了带来益处,它的安全治理也变得越来越重要,超大型大模型的治理需要尽快研发出规范。其次,从学术角度来讲,安全治理正成为学术交叉的新领域,涉及AI、密码学、政治、法律、企业、经济等,多领域需要合作。第三,构建AI安全系统的基础研究是AI安全治理非常重要的前沿方向。”姚期智说道。

姚期智表示,从长远看,AI安全治理不是缝缝补补,他分享了两个研究思路:一是让AI和人类利益对齐的有益的通用人工智能(Beneficial AGI),在设计时要有数学规律,让机器人的一切决定都以人为本,并且机器人要和人保持交流、能够和人对话,了解人的需求到底是什么。另一个思路是设计数学上绝对安全的通用人工智能(Provably Safe AGI),即人类不直接和大模型接触,只和可证明安全的白盒子交流。

此外,姚期智也谈及中国在AI安全治理方面具有的优势:“我们有完善的实名制身份验证系统,减少了计算机网络分布式系统的问题。中国有很多管控新科技风险的成功经验,同时,数字化转型、数据要素化、数据资产入表等都做得很好。”

结合中国的优势,姚期智表示可以建立符合中国国情的AI治理框架、简化中国AI治理。包括建立AI大模型的分级体系;建立ID的实体映射,所有智能机器都有可以实名找到的ID;实现全产业链监控AI。

赞助体育赛事7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议在上海开幕。人工智能技术在治理上将遇到哪些挑战、实际运用的情况如何,是各界专家学者关心的话题。

其中,姚期智分享的内容为《人工智能安全治理的研究走向》。他首先介绍了前沿大模型带来的信息、物理、生物智能风险与生存风险,引申出AI系统安全与如何确保人的利益等问题,提出从技术和路径的维度进行分类治理。以大模型时代的数据安全研究举例,他指出大模型会记住隐私数据,而保护用户隐私的研究尚处在较原始阶段,重要方向是为大模型数据安全开发出一组核心技术。

在“人工智能前沿技术的治理挑战与应对措施”主题论坛上,图灵奖获得者、中国科学院院士姚期智,联合国副秘书长、联合国大学校长Tshilidzi Marwala,香港科技大学首席副校长郭毅可等就人工智能安全治理的话题发表了主旨演讲。

🔐(撰稿:河津)

本文来自网友发表,不代表本网站观点和立场,如存在侵权问题,请与本网站联系。未经本平台授权,严禁转载!
展开
支持楼主

85人支持

阅读原文阅读 2304回复 3
举报
    全部评论
    • 默认
    • 最新
    • 楼主
    • 思雅🔑LV5六年级
      2楼
      腾讯回应苹果税争议🔒
      11-21   来自原平
      9回复
    • 🔓脚下潮流LV7大学四年级
      3楼
      代理商起诉怪兽充电🔔
      11-21   来自侯马
      9回复
    • 童心时装🔕LV1幼儿园
      4楼
      多平台下架长荣桂冠🔖
      11-22   来自霍州
      8回复
    • 拓佳德LV2大学三年级
      5楼
      失踪女童在深山找到🔗
      11-22   来自孝义
      3回复
    • 清恒双🔘🔙LV3大学三年级
      6楼
      房价很低的宜居城市🔚
      11-20   来自汾阳
      3回复
    • 风华女郎LV6大学四年级
      7楼
      美国又现暴力执法🔛
      11-20   来自怀仁
      回复
    你的热评
    游客
    发表评论
    最热圈子
    • #女孩疑遭母亲谋杀#

      佳森

      3
    • #朝鲜或开放国际旅行#

      通双

      1
    • #官员性侵女童和山羊#

      名来

      8
    • #自称长得好看不排队

      化妆品

      4
    热点推荐

    安装应用

    随时随地关注赞助体育赛事

    Sitemap