复旦教授肖仰华:我们要努力缩小与openai的差距

“我们的文化中,聪明人太多,总想抄近路。有时候就是要坚持,要笨一点,才能做出真正的大杀器。我们与OpenAI的差距正在拉大,不是在缩小。”

Open AI带来的巨震还在继续。近日,复旦大学计算机科学技术学院教授、上海市数据科学重点实验室主任肖仰华接受了蓝鲸财经的专访。

肖仰华推测OpenAI或许使用了大小模型结合的技术,多模型协同可以很大程度上缓解成本问题。“让大模型去解决复杂问题,但普通用户一般都是简单的问题,用相对小一些的模型来解决就可以了。”他形容,ChatGPT的AI技术已形成一种“飞轮效应”,迭代和优化正推动技术进入一个自我强化的快速发展阶段行业或将变成“只有第一,没有第二”的局面。

“我们国内的大模型研发要瞄准GPT4这一前沿,力争差距不被放大,同时要积极开辟大模型竞争的新赛道。”肖教授指出,还有很多如蓝海可以挖掘,比如具身大模型、智能Agent、医疗大模型、科学大模型等其他方向,都是大趋势。企业可以在这些新领域找到自己的优势。

肖仰华指出,AI技术的进步可能导致人类智力的相对退化。每一次技术革新,虽然带来了便利和进步,却也可能以牺牲某种人类能力为代价。特别是在AI领域,随着机器智能的提升,人类可能会在某些方面变得更加依赖技术,从而导致智力活动的减少和能力的退化。在AI技术高度发展的未来,在人们的生产活动大量被机器代替时,如何更有意义的生活是值得思考的问题。在这种情况下,社会生产几乎不依赖于人类劳动,机器能够完成大部分工作,人们则需要寻找新的生活意义和价值。

他还强调,对AI技术的应用需要制定明确的界限和规则。在某些情况下,即使技术能够实现某些功能,也不意味着应该无限制地使用。例如,在教育领域,学生如果过度依赖AI可能会削弱其思维训练和创造力。因此,AI应用应遵循一定的社会和伦理原则,以避免负面的长远影响。

最后,肖仰华强调了AI应用中的“留白”原则,即不应盲目在所有场合使用AI。他将这一原则比作中国画中的留白,认为在AI的使用上应保持克制,避免过度依赖,以保持人类的智力活动和创造力。

蓝鲸财经: 您提到AI技术在降低成本方面的影响,请问这是如何实现的?

肖仰华: AI技术的成本控制将成为核心能力。这背后包含许多关键技术。例如,大型模型的背后可能不是单一的模型,而是多个专门针对不同简单任务的小模型。再比如模型蒸馏与压缩技术,能够实现使用小模型逼近大模型的能力。在移动终端,还可以通过端云协同等技术进一步降低大模型的服务成本。

蓝鲸财经: 您认为中国在AI领域的发展和突破的难点是什么?

肖仰华: 当前,我国在AI领域的原始创新能力仍然有待进一步提高。具体到大模型方面,我们并未能在国际上率先推出最为先进的大语言模型。虽然国内很多企业投入了巨大研发资源,我们的大模型也能在某些评测数据或评测指标上接近甚至超过GPT4。但是总体而言,其综合能力仍与GPT4存在明显差距。智能从本质上来讲是一种综合能力,再多的单项指标超越也难以宣示对于对手的绝对领先。国产大模型必须踏踏实实炼制好自己的大模型,从数据源头治理好数据。大模型本质上是工程创新,要多做数据方面的脏活、累活、苦活、细活,才有可能炼制出领先水平的大模型。大模型的效果取决于能否把工程细节做得足够细致、足够深入。一味地追求模型方面的巧活可能会浪费大模型追赶的宝贵时间。

同时,我们要努力健全国产算力体系,做到国产算力的自主可控。西方的领先算力很容易被限制,必须大力发展国产算力,比如华为的晟腾系列。国产算力仍需时间耐心地培育市场和生态体系,才能建立健全包含芯片、设备、软件在内,涉及开发者与使用者的完整生态。当前,西方不断提升对于我国高端算力的禁运力度,在此形势下,发展国产高端算力成为了唯一路径,相信国产算力很快就能赶上。除了算力,高质量训练语料的汇聚与治理问题也是完善大模型发展生态不可缺的重要一环。

提升我国人工智能的原始创能力可能还要从科研文化这个根本问题上着手解决。要推动长期主义的原始创新。短频快式的科研文化难以胜任原始创新。以大语言模型为代表的通用人工智能本质上也是OpenAI这类企业长期坚持的结果。OpenAI从18年GPT第一个版本发布开始,直到2022年底推出ChatGPT才一鸣惊人,大获成功,进而引起从学术界到工业界的广泛关注,才成就了AGI(通用人工智能)的Iphone时刻。在其漫长的探索过程中,要对错误、失败有着高度的容忍,要对未来保持高度的自信,要对科研的试错报以足够的耐心。这样一种长期主义科研文化是我们当下所缺失的。我国长期以来的科研文化是工程师文化,是追赶式跟随式的文化,已经难以适应当下对于原始创新的迫切需求。只有从科研文化源头上找寻问题、解决问题,才能确保我们与OpenAI的差距不被拉大,才能确保在通用人工智能赛道上不掉队。

蓝鲸财经: 对于国内企业而言,在发展AI生态方面应该采取什么策略?

肖仰华: 对我们来说,首先是坚定通用人工智能发展路线。Open AI的五年探索时间,给其带来了先发优势,也为我们这些追随者明确了发展方向与发展路径。坚定不移地走通AGI的发展路径,推动AGI与千行百业的融合是一条明确的发展路线。

其次,要做聪明的跟随者。要在确保不掉队的前提下,积极开辟属于自己的竞争赛道。在通用大语言模型赛道上的落后,可以通过在细分行业大模型、场景大模型、科学大模型、专业大模型、语言模型与机器人深度融合、语言模型与群体智能深度融合等新赛道上的竞争优势所弥补。同时我们也要认真思考如何多元化通用人工智能的发展形态,当前的同质化技术路线有可能扼杀AGI更为广阔的发展前景。AGI有可能存在不止生成式语言模型这一种形态,应该积极探索其发展的其他可能路径。

最后,要做到监管和发展并举。唯有健康的发展才是可持续的发展。AGI必须得到适当的监管和治理,才能与社会发展相协调,才能成为社会发展的积极动力,而不是将人类社会推入深渊的消极因素。所以负责任的AI、可持续的AI等技术都是值得我国企业高度重视的技术形态。

蓝鲸财经: 关于大语言模型的应用落地,您觉得未来会有哪些颠覆性的变化?能否举例说明?

肖仰华: 是否会发生颠覆性的变化取决于所处行业的智能化水平。大模型将在很多提质提效的场景取得了显著效果。比如互联网信息抽取,传统方法需要针对不同的网站定制相应的抽取器。但是随着大模型Agent技术的发展,大模型根据信息获取意图,像人一样地浏览网页并抽取目标信息成为可能,从而极大降低互联网信息的获取成本。对于互联网信息服务企业而言,这类基于语言Agent的自动化网页抽取就是具有颠覆意义的新技术。未来,众多大模型企业将深度挖掘大模型所赋能的提质提效场景。

大模型的应用落地不仅需要来自基座模型的智能能力,更需要结合场景形成智能应用。这就好比电能的应用,不仅需要发电厂产生电能,更需要设计各种电器,才能使用电能。如果将GPT产生的智能比作电能,那么最近OpenAI推出的GPTs就好比是电器。每个GPTs应用就像某类电器,比如电冰箱、洗衣机等。最终解决问题的是这些电器产品。最终释放GPT价值的是各种GPTs应用。各行业都应积极探索各自行业、具体场景与GPT所提供智能能力的结合方式。唯有在自己的行业率先使用AGI所代表的先进生产力,才可能成为行业引领者,才不至于被先进生产力所淘汰。

GPT这样的通用人工智能也会带来新的商业模式和产业形态。我们看到了很多有趣的新应用,如虚拟主播、数字人、数字员工、数字教培、智能陪伴。这些都是GPT之前难以做好、难以做到的。在大模型的应用过程中,传统的经过通识教育再加上简单岗位培训就能胜任的工作(比如招聘、客服、办事员),以及追求标注化服务的“窗口型”工作,容易被大模型提质提效。此外,大部分文案性工作,比如编程、文字编辑、合同撰写等岗位也容易被大模型所赋能。这些行业的从业人员结构有可能受到大模型广泛应用的影响。所以,我们需要认识到这种颠覆性变化的可能性,并做好应对这些挑战的准备。

蓝鲸财经: 在AI颠覆性变化的情况下,您有什么建议给普通人?

肖仰华: 对普通人来说,首先要学习和理解新技术。我们需要掌握如何使用AI,了解它的原理,这样我们才能有效地驾驭和利用它。我曾提到,未来人的角色可能是“智能机器的牧羊人”,我们需要能够控制AI,驾驭AI,让它为我们服务。

大规模AI应用对个人的冲击将会很大。我们需要思考自己的价值和生存意义。例如,当AI能够完成大多数工作时,我们的价值在哪里?学习的意义又是什么?这些都是我们需要思考的问题。未来智能机器大量代替人类成为主要劳动力之后,社会生产的人力需求可能极大降低,人们可能会 “无所事事”,每个人如何找寻到生活的价值与生存的意义将是新型社会结构下的关键问题。或许,未来的每个人都将成为鉴赏家、诗人、作家、导演、学者或哲学家。但这种转变不会一蹴而就,需要社会的整体结构以及个人的价值观念的缓慢转变。在这一过程中,如何平稳的过度而避免社会的剧烈震荡将是AI技术发展所难以回避的问题。

同时,我们必须密切关注AI技术的过速发展对整个社会带来的破坏性影响。这就好比一辆失速的列车很容易脱轨。AI的过速发展有将整个社会拖垮的风险。AI技术需要合理控制其应用边界,确保其应用安全,实现AI的可持续发展。我们需要通过立法和行政手段来规范和监管AI应用,确保社会结构不会因技术发展而受到破坏。

普通人应慎用生成式人工智能技术。生成式人工智能对于有能力判断AI生成内容好坏的专家而言确实可能成为提质提效之利器。然而,一个普通人在成为领域专家之前,如果滥用生成式人工智能,则有可能形成依赖于沉溺,阻断了成长为专家的实践路径。在AI出错时也存在被误导的极大风险。我们既需要拥抱AI技术所代表的先进生产力,也必须充分认识到大规模AI应用所带来的挑战与风险,正确使用它才能发挥其正面作用。

蓝鲸财经: 您认为未来人机关系会达成怎样的形态?

肖仰华: 从长远来看,人机关系一定会达到和谐共生的状态,但达到这个目标的过程可能会比较艰辛。AI技术与历史上的其他技术不同,它影响到人类的所有依赖智力的活动。AI所形成的智能取代的是人类的脑力活动,对整个社会产生了广泛且深远的影响。

每次技术进步往往以人类某种能力的倒退为代价。例如,交通工具的发展减少了我们行走的需求,电脑的普及减少了手写的必要。现在,AI的发展可能会导致我们智力能力的退化。如果我们过分依赖AI,不再使用大脑解决问题,那么我们的智力可能会逐渐退化。

我强调AI应用中的“留白”原则,就像中国画一样,要留有空白。我们不能盲目地在所有场合都使用AI。例如,如果学生的作文都由大模型自动生成,那么学生们就丧失了思维训练的宝贵机会,久而久之就会形成智力倒退。我们需要坚持AI适度使用的基本原则,避免让它完全取代人类的智力活动。

因此,未来人机共生的关键在于平衡。我们需要在确保AI技术的发展不会削弱人类的智力和创造力的前提下,积极发展AI技术成为一种先进生产力,成为一种辅助人类认知复杂世界的超级认知工具,从而帮助人类实现更大的潜能,实现人类的自我提升。