中医药盘古大模型个人能用吗是干什么的?


我们说一个挺争气的事。就在7月9日,也就是上周,《自然》杂志上发表了一篇文章,主要内容是介绍华为的盘古气象大模型,这是一种用于气象预测的大模型。为什么说争气?因为这是目前第一篇,中国科技公司作为唯一署名单位,发表在《自然》正刊上的论文。
我们先说论文的主要内容。核心可以用一句话概括,叫,AI天气预报,终于超过了数值天气预报。
什么意思?在目前的天气预报领域,最主流的预测方式,叫数值预测。你可以把它理解成,用解方程的方式,来预测天气。
这就好比,你要判断老王今天几点吃饭,你就要搜集很多信息。比如,老王早上是几点吃饭的?吃了多少?再比如,老王今天中午有没有应酬?有没有人约他吃饭?等等。这些信息,就叫数值。同时,有一个非常懂老王的人,设计了一个方程式。只要你把这些数值代入方程,就能算出老王几点吃饭。
数值天气预报的原理,就跟这个过程有点像。你搜集了很多关于天气的数值,代入方程,再求解,算出天气。换句话说,你看到的绝大多数天气预报,其实是用方程式算出来的,并不是来自,西边来了一片云,因此今天要下雨,这种直接的观测。
当然,你可能也发现了,数值预报,经常不准。怎么办?有人就想,全程用AI来做预报,具体的技术细节就不展开了。但问题是,AI预报的,更不准,而且慢。而这回,盘古气象大模型之所以能登上《自然》杂志,就是因为,作为AI预报,它第一次在精度和速度上,都超过了传统的数值预报。而且速度比数值预报,提升了大概10000倍。在一张V100专业显卡的支持下,大概只需要1.4秒,就能预测出全球24小时的天气。
听到这,你可能会说,这顶多算是气象领域的进展,跟我有什么关系吗?别着急,咱们要说的重点,并不是气象AI,而是它背后的华为盘古大模型。
就在上周末,华为刚刚举办了2023年开发者大会。假如把不同行业比作武林里的不同门派,那么开发者大会,就像一场针对武林人士的兵器展。给你看看今年出了哪些称手的新工具。而今年华为开发者大会最重要的事,就是发布升级版的盘古大模型。盘古大模型在2020年就已经开始研究,比GPT-3还要早一点。这回公布的,是最新的升级版。
当然,估计今天提起大模型,很多人都有点麻木了。毕竟,今年关于大模型的新闻太多了。但是,这回的盘古大模型,还真不太一样。借用华为自己的话说,这回的盘古大模型,是一个产业大模型,它不会写诗,只会做事。
要想弄清盘古大模型背后蕴藏的新机会,我们需要搞懂这么三件事。
第一,大模型的下半场,拼的是什么能力?你可以这么理解,大模型的能力,正在从解决困难型问题,转变成解决复杂型问题。
注意,难和复杂,这是两个不同的概念。
难,指的是这个问题在知识层面上要求很高。比如,写一首诗、画一幅画、做一道数学题。这个过程就像跳高,目标虽然高,但落实到动作上,无非就一个字,跳。现在的很多大模型,核心能力都在于解决这类困难型问题。这类问题的特点就是,回答起来有难度,但问题的链条很短,一问一答,就结束了。
但是,你肯定也发现了,在现实世界中,大多数真实挑战,它的链条都很长。我解决第一个问题,又会衍生出第二个问题。解决第二个,后面还有第三、第四个。现实世界的挑战,往往是一组问题的集合。就好比教小孩子写字,看起来简单,但是,你不可能一开始就设计好所有的方案。你得先教完一部分,看看小孩子写得怎么样,再根据他的表现调整后面的方案。说白了,就是得走一步看一步,根据实际情况随时调整。
这类环环相扣的问题集,就叫复杂。解决它需要的不仅是抽象的知识,更是来自前线的一手经验。
说白了,你能执行一个具体任务,能干成一件具体的事,这个应对复杂问题的能力,也许是很多行业更需要的。
而这回的盘古大模型,核心就在于这个解决具体问题的能力。盘古大模型,是一组预训练大模型和工程应用平台的统称。所谓预训练,指的是它已经预判到了将来可能遇到的问题,并且储备了相应的解决问题的能力。
具体看,盘古大模型,内部包括三个能力段位,分别是,L0、L1、L2。
L0能力段位,指的是大模型的通用能力。就好比,这人天生是个练武奇才,骨骼清奇,天赋极高,而且已经打通任督二脉,练什么功夫都快。你想让它练什么,比如,学怎么做天气预报,怎么做药物研发,好,你可以稍微教教它,一学就会。
L1能力段位,指的是更针对具体行业、具体企业的大模型。就好比练武,这个大模型已经精通独孤九剑、降龙十八掌,具体的功夫已经练好了。
L2能力段位,就更具体了,它针对的是具体的业务场景,比如,让一个懂降龙十八掌的人,去做保镖,护送一个人从上海到北京。你看,这就是非常具体的任务。L2级别的大模型,具备的就是这类解决具体任务的能力。
简单说,假如L0是个通才,L1是个专才,那么,L2就是精通某件事的老师傅。企业需要哪个,就可以调用哪个。借用华为自己的话说,通用大模型是人类的大脑,而工业领域大模型,就是手和脚。它的核心能力,在于做成具体的事。
这是盘古大模型背后的第一个重点。我们能从中看到,大模型的未来方向,正在从解决困难问题,转向解决复杂问题,执行具体任务。
第二个重点是,这回的盘古大模型,实现了算力的国产化。说白了,这回盘古大模型用的芯片,是咱们自己的。我们都知道,AI的训练有三个关键要素,算力、语料、训练方法。而且其中最底层的能力基座,就是算力。这也是为什么在这一轮AI热中,英伟达成了最大赢家。而这回,华为训练盘古大模型用的,包含GPU在内的芯片,全部是华为自研的昇腾芯片。
说到训练,在这还得特别强调一句。按照华为开发者大会上的说法,未来的大模型训练,将出现一个新趋势,端云协同。也就是,有分布在各处终端的无数双手,同时执行各种各样的任务,积累各式各样的经验。而这些经验,最终将沉淀到同一个云端的大脑。
比如,某一条工业流水线上的质检,这个场景看起来非常小,很难积累出大规模的经验。但事实上,它并不是小,只是分散。假如能把每一个企业,每条流水线上的质检经验加在一起,就能形成一套稳定的解决方案。从这个角度看,大模型的应用部署,更像是一场新训练的开始。
第三个重点是,大模型未来的研究趋势。按照这回开发者大会上的说法,未来在行业应用方向,大模型的发展重点主要有这么几个。
首先,是垂域数据标注与模型微调将成为重点。也就是,大公司提供基础大模型,而细分行业里的公司,为大模型提供垂直细分领域里的数据,通过微调,让它们在细分任务上有更好的表现。
其次,是大小模型协同。也就是,在遇到复杂任务时,需要通用型的大模型,与专家型的小模型配合解决。这个解决方案可能不是一步到位,可能每个环节,需要调用不同的模型。
其实,这些重点,可以概括成一句话。过去说起大模型,它的优点是,够聪明。但是未来说起大模型,它需要的是,有本领。够聪明,指的是你针对一个问题,有足够的知识存量。而有本领,指的是你能面对挑战,把事办成。返回搜狐,查看更多
责任编辑:}

我要回帖

更多关于 盘古大模型个人能用吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信