在当下这个时间节点谈到AI,ChatGPT似乎是个永远绕不过的话题,诚然,ChatGPT强大的语言能力在某种意义上确实改变了部分行业的生产模式,不过AI的火热,也绝对不是最近两年才初现端倪的,从Deepfake到Alpha Go,从GPT-3到DALL·E,每次AI相关技术的更迭,都能为人类带来极大的震撼,而现在,轮到Stable Diffusion、ChatGPT这类生成式AI来改变人们的生活了。
(资料图)
当然,从本质上来讲,AI技术的更新离不开庞大的算力支撑,笔者自己在校园期间接触到的图像处理算法很明显就受到了算力的限制,不但对图像的分辨率有着严格的要求,用于训练的数据集也相当有限,否则会花掉大量时间,而从现在AI模型的体量来看,算力无疑在过去数十年间得到了飞速的增长。
作为深耕半导体领域的企业,英特尔多年来始终致力于算力创新,自然也早早看到了AI在未来的无限可能,“英特尔始终深耕AI领域,尤其是生成式AI。”英特尔院士、大数据技术全球首席技术官戴金权在接受采访时表示。
事实也是如此,多年来英特尔对AI始终秉持着拥抱的态度,而且还有一个相当宏伟的目标:将AI,包括现在的生成式AI普适化,让各行各业和普通的消费者都能使用。
于是我们可以看到,英特尔一方面致力于拥抱开源和AI开放社区,与TensorFlow、PyTorch、Hybrid Bonding、OpenAI等业界知名的框架/机器学习库都有合作,并致力于在开源AI的软件工具和软件基础架构上有所作为,除此之外,英特尔也非常关注时下流行的开放大语言模型,与Hugging face在像Bloom这样的开源模型上也做了很多工作。
另一方面,英特尔也希望通过算力优化,用计算能力的提升来让生成式AI无所不在。这点也是英特尔多年来始终贯彻如一的策略,无论是英特尔GPU,还是Gaudi 2这样的专用AI加速器,或是英特尔最新发布的第四代至强可扩展处理器也加入了针对矩阵运算的AI加速器英特尔AMX,从而让行业用户能够更好地在最新的至强服务器上加速矩阵运算,加速神经网络运算。
“除了专用硬件加速之外,为了让AI能够无所不在,计算本身也要无所不在,基于英特尔的XPU技术,英特尔希望为通用计算设备,例如电脑CPU、集成显卡、独立显卡、数据中心里的至强服务器等通用计算设备提供AI能力,做到AI的无所不在。”戴金权补充道。
上文中提到,笔者在大学期间运行AI相关的算法模型有着诸多限制,而现在,即便是普通人,也可以在笔记本上轻松运行生成式AI,在搭载英特尔12代酷睿i5处理器的笔记本上,已经可以运行开源的7亿参数和13亿参数的大语言模型,后者的体量基本上已经跟上人的阅读速度,和人进行交互,即便在入门级大语言模型中也算是参数较大的一类,可以看到在入门级大语言模型上,笔记本的运行速度已经有了很高的提升,而这些都离不开英特尔围绕软硬件进行的优化。
在英特尔终端酷睿处理器的表现已经如此,那么在至强处理器上生成式AI又能发挥什么作用呢?戴金权表示,英特尔希望对更大规模的语言模型进行优化,与数据库、CIM系统这些通用的应用进行有机结合,使至强处理器能够带来更优秀的体验。
除了大语言模型之外,生成式AI在近期的另一个重要应用便是Stable Diffusion了,目前Stable Diffusion已经可以运行在搭载集成显卡的12代酷睿笔记本上,在二三十秒内的时间里通过关键词生成图片,这对普通人来说意义非凡,因为可以将任意的模型和算法直接部署到本地的笔记本上,而无需任何额外特殊设备,例如云的访问。当然,如果想要更加快速的图片生成速度,也可以通过英特尔锐炫独立显卡来进行加速。
当然,AI发展到现在,本身也是伴随着一些争议的,生成式AI爆火之后,整个业界都在关注其可用到可信赖的演变,因为对任何一个AI来说,都避免不了通过开源的公开数据集进行训练的过程,而这个过程中一旦涉及到虚假数据集的干扰,就会导致算法乃至AI模型学习到不良行为。此外,针对AI的不当应用也十分容易引发隐私方面的担忧,前几年的Deepfake就是最好的佐证。
虽然严格来说,这个问题是需要整个业界去共同努力去关注的,不过英特尔也在积极履行社会责任,并围绕“负责任的AI”展开了很多工作。例如在英特尔内部,关于AI展开的工作,无论是其数据、模型还是应用,都由“负责任的AI”流程加以引导,其中定义了如何消除偏见,如何使用正确的数据等。此外,英特尔围绕数据安全和隐私计算也做了很多相关的工作,借助英特尔硬件级别的安全技术,如英特尔TDX和英特尔SGX,加上软件层构建的面向大数据分析和机器学习的隐私计算平台(BigDL PPML, Privacy Preserving Machine Learning),在此基础上结合大语言模型或者Stable Diffusion,就可以从数据和模型两方面来保护生成式AI的应用,确保数据安全和隐私性。最后,为了避免Deepfake这样的应用出现,英特尔研究院在过去几年也做了很多工作,例如通过算法来判定生成出来的内容是不是类似于Deepfake这样的应用。
“实际上,降低AI门槛这件事本身也是对普通人隐私的保护,因为他可以把整个生成式AI、大语言模型部署在本地,算法、应用、数据都在本地的话,就不存在数据泄露这样的问题。”戴金权表示。
生成式AI的火热,很大程度上是其生成内容的能力有助于提高生产力,现阶段,在本地运行Stable Diffusion已经成为了一件触手可及的事情,而对设计行业来说,他们可以通过一些设计师的简单草图和描述快速生成最终的效果图和渲染图,这就大大提高了他们的工作效率。在不久前举办的2023英特尔On产业创新峰会上,英特尔也展示了和中国一家时尚行业3D设计软件服务提供商——浙江凌迪数字科技有限公司(Style 3D)合作的成果,一个将生成式AI和3D结合的设计应用,可以轻松进行本地化,并通过笔记本部署到客户端。
另一方面,在AI for Science的领域,生成式AI也是一个非常有价值的方向,不久前,英特尔公布了旗下生成式AI大模型Aurora genAI。这是一款参数高达一万亿的生成式AI模型,主要面向科研领域,包括生物学、医学、大气科学、化学、天文学等科研领域。可以为这些科研领域提供非常强大的AI能力。
此外,另一个业内比较关注的生成式AI的应用场景,是如何将大模型作为一个控制器来自动化一些工作流,以提高工作效率。
“对普通人而言,他们对生成式AI感兴趣的初衷,是在自己的笔记本设备上生成一些照片、视频、文字,这也是消费者接触未来计算趋势的一个重要途径,可以非常低门槛的接触到生成式AI,这也是英特尔所坚持的,将AI普适化的意义所在。”戴金权在最后说。