发布时间:2024-08-29作者来源:赵敏浏览:1324
近年来,伴随着AI大模型的显著技术进步,新一代人工智能成果倍出,如人工智能对话系统ChatGPT、文生视频软件Sora、文生音乐软件Suno等AI新应用不断给大家带来惊喜,在冲击人们眼球和大脑的同时,也正在深刻影响着社会的千行百业。
2023年初,美国Open AI公司推出了基于大规模深层神经网络、通过人工反馈的强化学习和人工提示的预训练生成式人工智能对话系统ChatGPT,随后又推出了它的更新版本GPT-4。
2023年底,Google推出的Gemini系统,性能表现也与GPT-4各有千秋。2024年推出的SORA,则可根据用户提供的简单文本生成极为酷炫的短视频;Anthropic研制成功的Claude 3更是全面超越了GPT-4。
有些人发出感慨,认为“硅基生命超越碳基生命的日子为期不远了”,甚至还有人提出了荒唐的建议:面对人工智能的发展,人类要么设法逃离地球,要么就得学会臣服机器。
也有不少头脑清醒的人对此持有不同看法。他们认为,当前GPT产品还存在很多问题,“一本正经地说胡话”就是其中一个特别突出的例子。众所周知,理解能力是智能的前提。没有理解能力,不识真伪好歹,怎么能算是“有了真正的智能”?!GPT“一本正经地讲胡话”,说明它没有理解能力,本身意味着巨大风险,因为“胡话”可能把用户引到错误方向。实际上,GPT有意回避了“内容理解”难题,转而借助同样也是基于样本形式特征的“统计方法”来生成语句和选择对话的“候选答案”。这种缺乏理解能力的GPT离真正的人工智能还相差甚远,更谈不上“全面超人”。
不少国内外的专家、院士、学者,在肯定ChatGPT、Gemini等AI大模型系统的巨大进步的同时,也提出了质疑和反对意见。
2024年8月1日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在ISC.AI 2024第十二届互联网安全大会的演讲上表示,当前人工智能还没有理论,只有发展出来针对的模型和算法,它们都是针对特定领域的,软件或硬件也都是专用的,市场很小,因此到现在为止还没有发展出一个大型的人工智能产业,问题就出在这里。
张钹院士还指出,尽管深度学习在多个领域取得了显著成就,但是仍然有不少局限性,包括对大量标注数据的依赖、模型的可解释性差以及容易受到对抗性攻击的影响。他提出,未来的改进方向应包括开发更高效的学习算法、增强模型的泛化能力、提高模型的可解释性,并探索更符合人类认知机制的智能系统。
中国科学院院士、北京大学教授鄂维南,在2024年6月26日中国科学院第二十一次院士大会期间,旗帜鲜明地表示,当前人工智能的技术路线是不可持续的,要想找到能使我国人工智能长期稳定发展的技术路线,必须探索人工智能的基本原理。
在2024年5月20日举办的搜狐科技年度论坛上,中国工程院院士邬江兴指出:“他们团队对当前[敏感词]的10种大模型进行安全分析发现,90%以上的主流大模型是不可信的,而采用内生安全构造的问题,相比单一安全具有显著优势,达到了几个数量级的提升。”
邬江兴指出,深度学习模型存在“三不可”基因缺陷。分别是:
第一,不可解释性,从数据提供AI模型训练到知识规律,到获得应用推理阶段,工作原理到现在不明确,问题发现定位非常困难,AI系统中的安全问题比破解密码还要难。
第二,不可判识性,因为AI对序列性强依赖,不具备对内容的判识能力,所以数据存在质量差异,来源差异,就可能导致训练出的结果有差异。
第三,不可推论性,AI的推理是从已知数据中获得规律性,难以胜任对中长期未来事物变迁的预测和推理,只是把现有的东西归纳起来,看起来它聪明无比,但仅仅是比我看得多,并没有产生什么新的认知。
Meta人工智能首席科学家杨立昆(Yann LeCun)认为,当前的LLM(大语言模型)技术存在“理解逻辑能力极其有限”、“无法对物理世界建模”、“无法形成持久记忆”、“无法进行层级规划推理”等重大缺陷,并称单纯追求推进LLM的发展“本质是上不安全”的,无法实现真正的AGI(通用人工智能)。
杨立昆指出,现有的LLM尽管在自然语言处理、对话交互、文本创作等领域表现出色,但其仍只是一种“统计建模”技术,通过学习数据中的统计规律来完成相关任务,本质上并非具备真正的“理解”和“推理”能力。结论是:目前的LLM路线无法通往AGI,且非常危险,显示出业界对AI发展路线图的分歧。
同济校长郑庆华认为,大模型已经成为当前人工智能的[敏感词],大模型之所以强,是依托了大数据、大算力和强算法,但是也面临着四大固有缺陷:
缺陷一是过度消耗数据和算力。大模型的参数量已达到万亿级别,训练数据规模和算力消耗与参数规模成正比。
缺陷二是灾难性遗忘。在新任务上训练会损害之前任务的性能;在问题求解阶段,无法记住处理过的数据或场景,比如在无人驾驶中,人脑对路况有记忆,但自动驾驶每次都要重新计算,并为此消耗了大量能量。
缺陷三是黑盒模型逻辑推理能力弱,大模型缺乏“分而治之”能力,在处理需要逻辑、数值推理等复杂问题时表现不佳,无法举一反三、触类旁通。
缺陷四是大模型不知道自己错了,也不知道为啥错,更做不到知错就改。以GPT4求解算术运算题的实例为例,对于在1381和1453之间选两个随机数相乘的结果给出了错误答案,被指出错误后,无法定位是语料,还是训练等原因,更无从修正。
中国科学院院士陈润生在接受媒体采访时,谈及过他对国产大模型的看法。他认为,好的大模型要真正解决实际问题,并具有足够的准确度和效率。中国现在有上百个大模型,其中的90%没多大用处,只会加剧资源和人力的浪费,应该被淘汰。
原工信部副部长杨学山教授在2019年3月21日的人工智能春季创新大会上提到一个统计数据和一个重要观点,麻省理工近日对16625篇人工智能的论文进行了分析总结,得出结论是:近26年来人工智能领域并没有出现新技术。他认为,人工智能到今天为止还没有理论基础,没有形成类似经典物理学的“牛顿定律”式的理论,人工智能的理论仍处于“前牛顿时期”。
杨学山在其所著《智能原理》前言中指出:智能成熟度不是以使用什么算法和逻辑决定的。更进一步,人在进化和发展中形成这样的本能或直觉,也没有经过逻辑或算法的过程。(编者注:真正的智能无需计算。通过暴力计算出来的结果,也不是真正的智能)
杨学山在《智能原理》P79指出:2017年,又有一些科学家预测到2136年,人工智能可以承担所有人的工作,这样的可能性是存在的,但前提是对一系列重大理论和方向问题要有答案。工业革命基于物理学的大发现,智能革命的理论尚未建立,任何乐观的预言都缺乏理论基础。
杨学山在《智能原理》P085指出:不仅指导人工智能走向未来的理论尚未建立,最佳实践也没有达到,这是有人忧虑人工智能进入再一个冬天的原因。…还有人指出,人工智能的神经网络研究进展,并没有跟上认知神经科学[敏感词]研究的成功,深度学习的算法与人脑的工作机制几乎没有共同之处。
杨学山在《智能原理》P092指出:但是人工智能的理论研究与具体的非生物智能应用成果之间存在一条不协调的沟壑。
杨学山在其另一本专著《智能工程》P005指出:智能和通用人工智能没有[敏感词]的定义,常识和理解这两个通用人工智能的必要条件也成为可望而不可即的空中楼阁。…与此相伴的是人工智能界对算法、算力和具有算法能力的人的崇拜,认为具备这三者就一定能构造通用人工智能,这是一个基本认识论的错误。
杨学山在《智能工程》P205指出:通过数据挖掘就能得到知识和智慧更是一厢情愿,因为知识和智慧的形成根本不是通过数据挖掘这种模式就能够获得的。我们通过大数据及利用一些计算工具和算法得到的一些有趣或有效的结论,这种局部想象泛化为知识和智慧的来源,是科学方法的不严谨。
中国人工智能学会原理事长钟义信教授认为:在物质学科范式引领下的人工智能研究,虽然在技术层次上不断取得一些浅层和局部的进展,但始终没有在基础理论的研究上实施必要的变革,因此始终无法根治物质学科范式给人工智能研究带来的致命性缺陷:
第一,受到“分而治之”方法论的制约,三大学派各奉所信,各行其是,分道扬镳,无法建立统一的人工智能理论,也无法研制出通用的人工智能系统。
第二,受到“唯形式化”方法论的制约,人工智能所有概念都被阉割了内涵,成为了难以理解的“无心概念”。因此,所有人工智能产品(当然包括GPT系列)都无法实现对概念的理解,无法生成基于理解的真实智能。
如前所述,当今的AI大模型尽管目前看起来“很成功”,但是确实是没有发展后劲的,其成果是不可持续的。
上述质疑者和批评者的共性意见摘录如下:
*“当前人工智能还没有理论指导”;“指导人工智能走向未来的理论尚未建立”;“人工智能到今天为止还没有理论基础”;“人工智能所有概念都被阉割了内涵”;“智能革命的理论尚未建立,任何乐观的预言都缺乏理论基础”;
*“理解逻辑能力极其有限”;“不可解释,不可判识,不可推论”;“本质上并非具备真正的‘理解’和‘推理’能力”;“大模型不知道自己错了,也不知道为啥错,更做不到知错就改”;“无法生成基于理解的真实智能”;
*“当前人工智能的技术路线是不可持续的”;。
*“算法、算力和具有算法能力的人,这三者不可能构造AGI”;“目前的LLM路线无法通往AGI”;
*“90%以上的主流大模型是不可信的”;“中国现在有上百个大模型,其中的90%没多大用处”。
从上面的专家观点可以看到,目前还不能对当今AI大模型取得的巨大成果过于乐观,客观上AI大模型还存在诸多弊病和偏差。如果上述专家们所言属实,那么用不了两三年,很多现有AI大模型在技术上是走不下去的,甚至是没有未来的。
现有人工智能缺乏理论基础,是诸多专家诟病最多的一个问题。人类几百年的近代科学史证明,缺乏理论的科研,一定走不远。
那么,该怎么办?
当今人工智能在技术取得长足进步、市场一片喧嚣之后,是时候该放慢脚步,换个思路,思考一下人工智能的理论基础了,即研究人工智能的学科范式问题。
钟义信教授的见解是:作为信息学科高级篇章的人工智能研究,一直遵循着经典的物质学科范式的“唯形式化”和“分而治之”的方法论,这不符合信息学科性质的需要,属于学科范式的“错配”。应该用全新的信息学科范式来研究今天的人工智能,用中华文明中的“整体观和辩证论”的思想去重新思考人工智能的基本问题。
物质学科只研究物质。信息学科则不仅研究物质,更要研究主体(编者注:只有主体才有智能),尤其要研究主体驾驭下的主体客体相互作用的信息生态过程。信息学科的迅猛崛起是时代进步的需要。物质学科研究主导的科学时代一定要向信息学科研究主导的科学时代迅速转变,才能适应时代进步和科学发展的要求。
信息学科范式在人工智能领域取代物质学科范式,并不表明物质学科范式本身存在什么问题,只是表明学科范式与学科研究的性质之间必须和谐匹配,而不应当错位,不应当张冠李戴:人工智能是信息学科的高级篇章,因此应当遵循信息学科范式;而物质学科的研究则应当遵循物质学科的范式。各种范式都按照学科的性质各就其位,各得其所,各司其职,各领风骚,协调发展,共创辉煌。
免责声明:本文采摘自英诺维盛公司,本文仅代表作者个人观点,不代表金航标及行业观点,只为转载与分享,支持保护知识产权,转载请注明原出处及作者,如有侵权请联系我们删除。