人工智能的范式革命——2023年国际信息研究大会宣言正式发布

来源: 环球网
2023-08-18 10:06 
分享
分享到
分享到微信

8月14日-16日,以“信息领域学术研究的进展、问题与范式变革”为主题的第六届国际信息研究大会在北京邮电大学成功举办。

两年一度的《国际信息研究大会(International Conference on the Study of Information)》是由国际信息研究学会(International Society for the Study of Information)于2013年发起并主办的系列性国际学术大会。迄今为止,前五届大会已经吸引了数万名来自五大洲的著名信息科学家、人工智能专家、IT行业专家、经济学家、社会学家、哲学家、企业家等业界精英参与,成为全球信息科技与人工智能科技研究成果交流合作的重要平台与数字经济发展的重要载体。受到各国IT与AI领域科技工作者的广泛赞誉。

本次大会首次在中国举办,并由北京邮电大学首次承办。数十位学术领军人物和行业大咖作了富有突出创新特色的精彩特邀学术报告,数百位学术骨干和青年学者围绕信息哲学、信息科学(含智能科学)、信息技术(含人工智能)、信息经济、信息社会、人工智能教育发展战略等相关内容展开热烈的学术交流。

本届大会针对信息领域各学科近年的发展状况,深入分析学科研究的进展和存在问题,尤其是GPT系列所引发的问题,提出了信息学科研究应当遵循的信息学科范式,使信息学科特别是人工智能的研究能够在信息学科范式的引领下走上正确的发展轨道。

人工智能是模拟人类解决问题的智能,是迄今最先进最重要的研究领域。努力在人工智能发展方向和理论、方法、工具、系统方面取得变革性、颠覆性突破”。

为了进一步澄清人工智能研究一直面临的种种迷雾疑云,本届大会在闭幕之前郑重发布了《人工智能的范式革命宣言》,从科学技术发展根本规律的高度揭示了一个人们前所未晓的新规律:新兴学科存在漫长的“范式建构期”,在此期内没有本学科的范式可用,就自然会借用其它学科的范式,造成范式的张冠李戴,导致学科的病态发展。所以,去除病根的根本方法就是实施范式革命:以凝练出来的本学科范式取代借过来的其他学科范式。只有实施了人工智能的范式革命,才能走上健康发展的轨道,实现人工智能的源头创新。

宣言发布了人工智能研究应当遵循的新规:一、学科范式是科学研究不可或缺的最高指南,缺失则必然陷于迷茫;二、打破科学与哲学间的壁垒,是确保范式引领地位的首要前提;三、只要研究对象从物质客体扩展到主客相互作用的信息生态过程,物质学科范式就应让位于信息学科范式。这是时代进步的要求。四、范式革命,是检验人工智能理论研究能否成功的根本准则。

作为本届大会的学术总结,本次发布的《人工智能范式革命》大会宣言引起了与会者的高度关注,吹响了人工智能范式革命的号角。

最后,钟义信教授接受了本网记者的采访,对于为什么GPT系列不能发展成为通用人工智能?他的致命问题在哪里?

钟教授告诉记者:传统人工智能是按照物质学科范式的“分而治之”方法论发展起来的,分为:(1)受人脑神经网络启发的人工神经网络,(2)受人脑逻辑思维功能启发的专家系统,(3)受生物行为启发的感知动作系统。

GPT系列属于人工神经网络的研究,不过做了两点重要的改进:(1)早期的人工神经网络规模较小,神经元数目比较少;GPT的神经网络规模则变得很大,ChatGPT的可调参数达到千亿级,GPT-5的可调参数甚至可达到万亿级;(2)早期的人工神经网络是通过神经元的“权矩阵”来记忆知识,GPT则增加了专门的记忆库来记忆知识。

但是,GPT系列仍然没有治愈“分而治之(整体被肢解)”的创伤。这是GPT不能发展成为通用人工智能的内在原因之一。

更重要的内在原因是,GPT系列甚至完全没有意识到另一个致命创伤,这就是:它依然遵循了“纯粹形式化(阉割了信息的内核 - 价值因素和内容因素)”。

具体来说,GPT系列所利用的信息都只有形式因素 - 波形(模拟场合)或码型(数字化场合),完全没有价值因素和内容因素。众所周知,面对“只有形式因素而没有价值因素和内容因素的”信息(可以形象地成为“空心的信息”)、有空心的信息而提炼出来的“空心的知识”以及“空心的策略”,人们是无法做出对于所追求的目标而言最为有利的“明智的决策”的。这就是为什么会造成“人工智能不智能”的根本原因。

为了面对“只有形式因素而没有价值和内容因素的”信息进行决策,GPT只好求助于统计理论,因为“统计决策”是可以仅仅根据形式(不管价值和内容)来做决策的。可是,这就引发了另外两个问题:(1)统计决策要求样本数足够大,这被称为“遍历性原理”。这也是为什么GPT的“语料库”的规模要做到“万亿级”的道理,造成极为巨大的资源消耗。(2)统计决策只保证“平均意义上的”最优,不保证具体每个现实的最优。这就是为什么GPT“有时说人话,有时说鬼话”的原因(也就是“结论的不可信”性)。

说到底,统计决策不是在“理解涵义”的基础上做决策,而是在“形式比较”的基础上做决策。因此,基于统计决策的GPT没有理解能力。这在某种程度上就像学舌的鹦鹉,它能喊出一些词语(比如“欢迎光临”),但它并不知道它喊出的是什么意思。“没有理解能力(也就是没有真正的智能)”,这就是GPT系列的致命问题。

免责声明:该文章系我网转载,旨在为读者提供更多新闻资讯。所涉内容不构成投资、消费建议,仅供读者参考。
【责任编辑:钟经文】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn