logo

联系我们:027-85695666

在华科大成立!清华大学教授当选,旨在防控AI风险

新闻中心 > 武汉频道 > 要闻

2024-06-19 11:09 来源: 长江日报
【字体:

  长江日报大武汉客户端6月19日讯“人工智能也会带来负面影响,需要用公共政策来解决人机失调的风险。”6月18日,在华中科技大学公共管理学院举行的国家现代化与公共管理创新高峰论坛上,清华大学文科资深教授、公共管理学院薛澜教授做了题为《人工智能时代公共政策面临的机遇与挑战》主旨报告,他表示,AI大模型或将加剧人机进化失调、人机关系边界模糊化风险,分不清哪是AI哪是人类行为,过度依赖AI将导致人类机能退化或沦为AI的附庸,需要公共政策解决人机失调的风险。

  薛澜教授作主旨报告。

  薛澜介绍,人工智能发展经历了三次大浪潮,2010年后进入爆发期,尤其是深度学习大模型的兴起,以物联网、云计算、大数据、ChatGTP、Sora为代表的大模型的出现,人工智能由繁荣进入爆发期。

  生成式AI具有强渗透性,对社会的影响是系统性的,包括制造业和服务业。例如,在制造业领域,三一重工的智能制造工厂,生产周期由过去的30天缩短到7天,生产效率提高185%。在服务业领域,国家政务服务平台联通了46个国务院部门平台,也联通了32个省级平台。不仅统一了身份认证,也统一了事项服务,统一了投诉建议和好差评,方便了用户。

  薛澜表示,但是人工智能也带来风险和负面影响,会带来治理层面、社会层面、伦理安全等方面的挑战。如AI大模型或将加剧人机进化失调、人机关系边界模糊化风险,过度依赖AI将导致人类技能退化乃至沦为AI的附庸风险;“硅基文明”或将挑战“碳基文明”,失控AI恐危害人类社会。如果不加以限制,互联网上的AIGC内容将很可能快速超过人类文明生产的内容,可能出现大量的机器谎言掩盖事实真相,人机失调;另外,AI大模型将加速劳动力替代,深化劳动剥削和“劳动降级”。

  “防范人工智能风险,要确保AI发展与公共政策的良性互动。”薛澜教授表示,在制定公共政策过程中,要防范人工智能技术在歧视、偏见、隐私泄露、数据安全等方面出问题,要促进数据、算法、算力的协调发展,把握发展与平衡的关系,确保AI风险得到有效防控。

  论坛上,华科大公共管理学院战略咨询委员会成立,薛澜教授当选为主任,John Bartle、杨开峰、蓝志勇、傅晓岚等一批世界知名管理学者获聘为华科大公共管理学院战略咨询委员。

  (长江日报记者杨佳峰 实习生彭冠迪 通讯员左盈)

  【编辑:王戎飞】