温馨提示:本站为童趣票务官方授权演出订票中心,请放心购买。
你现在的位置:首页 > 演出资讯  > 儿童亲子

3D动画解析人工智能的底层数据逻辑

发布时间:2025-12-02 07:14:41  浏览量:34

为什么AI需要GPU?

在Deepseek出现之前,人工智能都是靠大量GPU堆算力做出来的。为什么人工智能需要那么多的GPU?先来看看GPU为什么出现。

一开始为了让3D游戏的画面有更多的细节,工程师把3D模型的表面划分成许多个三角形,这样就能把立体计算简化成平面运算。用三角形的原因是三个点能确定一个平面,四个点有些浪费,而两个点只能确定一条直线。划分出来的三角形越小,数量越多,细节就越丰富。

之后只要记下三角形三个顶点的坐标,再找出其中Y值最大的一个,向下一行一行地填充像素点,一直填充到Y值最小的一个点,就能给三角形涂上颜色,然后结合材质和光影渲染一遍,就得到了物体的外观。

为了减少计算量,工程师决定不用展示游戏里所有的物体,而是假装在你的位置有一台摄像机,只展示摄像机拍到的物体就够了。不过即使这样,也需要把762000个三角形,382000个顶点,还有9种不同的材质和颜色,从三维的游戏世界投射到二维的摄像机上。

另外对你来说,更重要的是这些物体在游戏世界里的相对位置。所以工程师还要建立游戏世界的三维坐标系,把物体放在里面,物体每一个顶点的坐标都要重新计算。这还不够,为了让你玩游戏时有身临其境的感觉,还需要考虑透视物体的旋转和比例的影响,这是通过矩阵运算实现的。

矩阵运算看似复杂,但其实只是做乘法和加法,只不过运算量比较大。对于CPU来说,每个运算都很简单,但每帧图像要完成几十亿次运算,一秒钟只能完成几帧。而要想游戏画面流畅,每秒至少需要120帧。如果用很多CPU同时计算,又太浪费了。要是能造出很多简单的运算单元,每个只计算乘法和加法,但可以同时工作就好了。

恭喜你发明了GPU,这些小的运算单元就是CUDA核心,它们全都执行一样的指令,只需要往里面填充不同的数据就可以了。由于CUDA核心的运算非常简单,所以可以做得非常小,一个芯片里可以放很多。现在的CPU、GPU里已经可以放10752个核心了。相对的CPU的核心可以完成各种复杂的运算,比如逻辑运算,但是由于个头太大,一般只能放得下24个。这就好比要画出一幅画,CPU可以按照指令用复杂的路线完成画作,但需要一笔一笔地画,速度很慢。

而GPU拥有很多格子,每个格子只需要做喷颜料这一件简单的事,但由于众多格子同时工作,瞬间就能完成更复杂的画。感谢3D游戏的玩家,让工程师有动力不断研发高算力的GPU。现在的GPU每秒已经可以完成36亿次运算了。

到了人工智能时代,训练大模型让机器能够深度学习成了最耗时的难题。而训练大模型用的是神经网络算法,神经网络运算有输入部分、输出部分和中间隐藏的运算层,每部分都有许多神经单元,每个神经单元都可以看做是装数字的一个容器,要计算出结果需要经过许多次运算。

举个例子,想让人工智能学会判断一个图形是正方形、圆形还是三角形,这个大模型的输入部分是把形状划分成784个像素点,并根据特征给每个像素点赋值。比如最亮的像素点记作1,最暗的记作0,把每个数值放到一个神经单元里。

另外不同的像素点还有不同的权重,比如边缘的像素点对形状特征的影响更大,权重更高。再确定每种图形的特征,比如边缘像素点到中心像素点的距离是否相等、曲率是否恒定等等,每个特征值都可以转换成数字,通过像素点的赋值和权重计算出来。

每一个特征值可能需要若干层运算,综合这些特征值的结果,最终能算出一个数值交给输出部分。人工智能把这个数值跟每个图形固有的特征值去比较,跟哪个图形的特征值最接近就认为它是哪个图形,而中间一系列的复杂运算就可以转化成矩阵运算。

看起来是不是很眼熟?没错,这正是GPU最擅长的工作。人工智能训练的工作量远远大于渲染游戏画面,所以现在的GPU里除了CUDA核心,还有张量核心,它在矩阵运算方面更加专业,效率更高。