2023 Inclusion·外滩大会正式开幕。


(资料图)

9月7日,2023 Inclusion·外滩大会正式开幕。四川在线记者受邀参会,从现场第一时间为您带回精彩分享。

这场以“科技·创造可持续未来”为主题的大会为期三天,近20位“两院”院士、诺贝尔奖和图灵奖得主,全球超500位有影响力的科技领军企业和专家学者,带来一场科技、人文和产业的思想碰撞。大会设有1场主论坛、36场见解论坛、8000平方米科技展览、绿色集市,并首次举办科技人才招聘会。

复旦大学为什么能举行首次户外开学典礼?马斯克为什么要成立对标OpenAI的新公司xAI?大模型有哪些安全隐忧?我们如何为其套上“紧箍咒”?当天的主论坛活动上,院士专家带我们直面新兴人工智能系统的应用前沿和挑战。

从“伏羲”到xAI,科学智能或将成为引爆产业创新的“核爆点”

今年9月1日,20年来复旦首次举办户外开学典礼,1.6万余名新同学在草坪上参与这一盛会。

为什么复旦大学能够从容地举办这次盛会?中国科学院院士、复旦大学副校长张人禾揭秘——典礼前,“伏羲”说:9月1日,上海不下雨。

“伏羲”是谁?

伏羲气象大模型,是由复旦大学人工智能创新与产业研究院联合大气与海洋科学系共同发布、基于复旦自有的云上科研智算平台。拥有45亿参数能够成功预报未来15天的全球天气,每次预报耗时3秒以内。

张人禾发表演讲

这是科学智能(AI for Science)的一次典型应用。张人禾说,除了因OpenAI走红引发的人工智能在内容生产领域的爆火外,科学智能(AI for Science)已经成为当今科技届最热门的话题。

科学智能火到什么程度?近期,马斯克成立对标OpenAI的新公司xAI。张人禾说,马斯克此举正是旨在回答更深层次的科学问题,期望未来可以用AI帮助人们解决复杂的科学和数学问题并且“理解”宇宙。

张人禾认为,科学智能已经成为人工智能的重点发展方向,推动跨学科的交叉研究,激发创新突破。加速科技创新与产业变革的深度融合,推动产业转型升级。“科学智能是推动科学研究范式变革、实现科技原始创新策源的利器,拥有引爆产业创新核爆点的巨大潜能。”

入局者不只是马斯克。2023年5月,美国能源部发布《面向科学、能源和安全的人工智能》报告指出AI将从底层推动科学、能源和安全的发展,并展开布局。斯坦福大学、麻省理工学院等知名学府,谷歌、Meta等科技企业纷纷入局开展体系化研究。

张人禾表示,科学智能的发展正在从部分机构的探索变成产学研各界的共识,从点状突破转变为系统布局,科学智能已经成为人工智能的重点发展方向。“国内科学智能也在迅速发展,相继涌现出大量的科学领域大模型,但仍处在起步阶段。”面对 “AI时代”的来临,“单打独斗”已不适应大科学时代的科技创新,要进行“有组织科研”,最大的优势在于布局建设大平台。

张人禾透露,近年来,复旦大学在人工智能领域进行了颇有成效的探索。牵头“脑与类脑智能基础转化应用研究”市级重大专项,攻关国际首个全脑计算平台;基于人工智能的电子设计自动化EDA,在400多家单位推广应用,特别是在尖端芯片设计中获得应用。

大模型“无孔不入”,如何为它戴上“紧箍咒”?

“我们做人工智能安全的,好像生活在一个早期的黑暗丛林里。看不清全貌,只能逐步探索。”在外滩大会主论坛演讲中,中国科学院院士何积丰坦言,面对大模型带来的安全隐忧,目前人工智能的安全工作,还在发现问题,还没到解决问题的阶段。

何积丰发表演讲

何积丰说,大模型开启了真正意义上的通用人工智能。模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”。经历数次迭代升级后,我们可能会得到超越人类智能的人工智能。

“人类将如何应对一个比自己更强大的智能?一旦无孔不入的人工智能出现安全问题,其影响将难以预估!”何积丰介绍,大模型进入大众视野不到一年,科学家们已经提出了很多警示,其疑虑主要集中在两个方面。

何积丰认为,大模型的主要安全问题,一是隐私,二是“对齐”。

隐私问题主要是在未经同意的情况下,收集、使用和泄露个人信息。这既可能发生在训练过程,也可能发生在使用过程中,而大模型的生成能力则让“隐私泄露”的方式变得多样化,造成隐私保护更加困难。

“对齐”,是上世纪60年代由美国数学家诺伯特·维纳提出的概念。它是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。“如果把人工智能看作西游记里的孙悟空,‘对齐’就是唐僧的紧箍咒。有了紧箍咒,就可以保证技术不会任意使用能力胡作非为。”

不过,对齐技术同样面临挑战。首先,对齐的基础,人类的价值观是多元且动态变化的,需要保证大模型为人服务、与人为善;其次,大模型的有用性与无害性之间目标也不完全一致。如何对错误进行有效纠正,设好大模型的“紧箍咒”也是挑战。

因此,对齐技术已经成为了一项令人眼花缭乱的跨学科研究,不仅考验技术,也审视文化。

何积丰介绍,反馈强化学习是实现对齐的技术途径,目前有两种方式,一种方式是通过人工反馈给模型不同的奖励信号,引导模型的高质量输出;另一种方式,事先给大模型提供明确的原则,系统自动训练模型对所有生成的输出结果提供初始排序。“这意味着,不仅智能系统需要向人类价值观对齐,人类的训练方法也要向价值观对齐。”何积丰说。

图源:受访者供图

推荐内容