盘点技嘉AORUS 2080系列显卡的那些黑科技
在显卡硬件厂商界,英伟达最为活跃,N卡一直以绝对优势占据大部分显卡市场。其旗下的显卡定位也非常明确。2018年8月,NVIDIA的黄总在发布会上,正式发布了RTX20系列显卡,宣告20系列显卡时代的来临,NVIDIA号称RTX20系列显卡是是12年来显卡技术上最大飞跃,那么RTX2080和GTX1080有哪些区别?而技嘉RTX 2080 相对GTX 1080又有哪些不同点呢?
下面小编和大家聊一下RTX2080系列显卡和GTX1080的区别究竟在哪里
一、基于全新的Turing图灵架构;
同样是12nm工艺,Turing架构却比Pascal架构规模大了很多,GP102和GP104分别为6组GPC和4组GPC,图灵架构在删除了FP64双精度单元后,加入了RTX单元用于处理RTX计算,而新款Quadro RTX的光线追踪性能如此之强,应该归功于这些专用的RTX单元,这同当年Fermi架构推出的“曲面细分单元”似乎有异曲同工之处,但是尚且不知道RTX单元是否也属于CUDA核心,能否参与常规图形运算,这些就需要以后NVIDIA提供的技术白皮书来了解了。
最强的Quadro RTX8000所用的GT102核心,很有可能是技嘉 AORUS 2080TI显卡未来采用的核心,754的核心面积、最高4608个流处理器、384bit位宽,作为游戏显卡,核心频率和显存频率有望继续提高,整体单精度运算能力预估为16T,这要比技嘉 AORUS GTX 1080TI显卡的计算性能超出接近6T(划重点)。
至于技嘉 AORUS 2080显卡,对比目前最低端的Quadro RTX5000,GT104核心有可能是3072个流处理器、256bit位宽、8G-16G的gddr6显存,算上更高的核心/显存频率,预估算力达到能够达到12-13T,所以即使是精简版的2070,其性能对比技嘉 AORUS 1080Ti也应该稍胜一筹,如果再算上光线追踪技术,那真的就可以秒杀技嘉 AORUS 1080Ti了。
至于功耗方面,官宣GT102:225W;GT104:180w。从数据上看并不是很高,但游戏卡如果频率提升的话,功耗可能还会增加。相对老卡来说,在核心规模增大不少的情况下,能效比仍然不错。
二、引入光线追踪技术内核TR Core:无疑是RTX20系列显卡最大的亮点
目前最热门的图形学技术,那必然就是实时光线追踪。在2018年的GDC上,微软率先为DX 12 API增加了光线追踪模块,并且将其命名为DirectX Raytracing (DXR),NV则紧随其后发布了基于实时光线追踪的RTX技术;同时直接将融入光线追踪技术的显卡命名为RTX系列。AMD紧随其后也宣布ProRender渲染引擎将引入光线追踪技术。
硬件厂商都这样了,游戏引擎厂商自然不会掉队,EA 寒霜引擎、EA Seed、Unreal 引擎、3DMark、Unity 引擎已经宣布将会引入光线追踪。
今年8月份,NVIDIA发布了RTX 2080 Ti、RTX 2080、RTX 2070游戏显卡,并明确表示硬件将会支持光线追踪!那么到底什么是光线追踪?
首先,我们看下光线追踪与传统图形技术的区别:其实在绝大部分科幻、动作电影里面,多少都会加入用上光线追踪技术。比如惊险刺激的《*飞车》,又比如《权力游戏》中仿若身临其境的火焰、烟雾和爆炸特效,单从视觉上来说,由光线追踪技术生成的画面和摄影机在真实环境中拍摄的影像是难以区分的,这就是光线追踪能达到的极致效果。具体如何做到的,让小编给你编一…说道说道。
想要了解什么是光线追踪,首先我们了解下什么是光栅化,光栅化是光线追踪的基础,同时也是高效替代的方案。这么矛盾的定义似乎有点难以理解?
首先,光栅化是非常宏达的概念,这个概念有可能特质某一框架,又或者具体到某个技术层面,就现阶段的情况,光栅化和光线追踪技术是相辅相成的关系,无法相互替代。
光栅化的简单原理:
从字面上解释来看,光栅化就是把图像栅格化,大家都知道屏幕是由一个一个像素点组成的,像素越高画面越清晰,光栅化就是将矢量图形(这里不做解释,可自行查找概念)转化为屏幕像素点的过程。
很多2K、4K游戏中的人物、建筑都是由三维、点面线组成,但是如果要将其通过显示器展现出来,就需要将画面栅格化,将图片拆解成一个一个像素点,这是三维向二维的转化过程,也是目前图像渲染的基础理论。
每个三角形的顶角与大小和形状不同的其他三角形的顶点相交,每个顶点关联着大量信息,包括其在空间中的位置以及有关颜色、纹理及其“正常形式”的信息,这些信息用于确定物体所朝向表面的形式。 计算机随后将3D模型的三角形转换为2D屏幕上的像素或点,可以根据存储在三角形顶点中的数据为每个像素分配一个初始颜色值。
进一步的像素或阴影处理,基于场景中光线碰撞像素从而造成像素颜色的改变,又或将一个甚至多个多个纹理应用于像素,从而结合生成应用于像素的最终颜色。
这里涉及到的计算量非常巨大,同一场景中所有物体模型用栅格化进行处理,可以产生几百万个像素,4K显示器接近800万个像素,而且每一帧的画面通常会每秒刷新30-100次!
除此之外,内存缓冲区的使用,在即将来到的帧画面上显示之前预先渲染的帧,还需使用深度、“Z缓存”等存储像素信息,从而保证画面的流畅性和连贯性。
光栅化处理后的平面图像并没有那么真实,这是其底层的原理决定的,因此需要后期处理,这就涉及到图形学中为了增强画面真实感而出现的各种渲染技术,包括“全局照明、环境遮蔽、漫反射、软阴影等(有兴趣的同学可以了解下),研究人员意图用更低成本的方法展现出更真实的虚拟世界。
由于都是通过算法实现的,并没有统一的标准,这就让游戏开发商有了选择的空间,在某些游戏中有着各种光影特效,而另一部分游戏却没有。从上图看出,有光影效果和无光影效果差距还是很大的,但目前来说即便加入了光栅化的技术,其效果并没有那么理想,说到底还是因为显卡的算例太弱,只能用这种解决方案。
那么我们如何把画面做的更加真实,这就要说到光线追踪技术了。
人们在电影中,很早就用上了光线追踪,而且已经有了非常成熟的解决方案,完全可以欺骗大家的双眼,达到以假乱真的地步,比如《速度与激情7》中,保罗沃克的很多镜头并非本人所拍,再例如漫威科幻大片中的很多特效,肉眼根本无法分辨其真假。
那么为什么电影能够如此成熟的运营这项技术呢?1、时间,电影的时长一般1-2小时,所需要处理的帧数有限;2、钱,他们有专业的特效团队来帮忙渲染,使用的显卡是一个个渲染群服务器,并非我们电脑里的技嘉RTX 1080 Ti。
NVIDIA开创了个人显卡实时光线追踪的新时代
乙方米NVIDIA针对极低样本数量的光线追踪结果进行实时降噪方面的研究,取得了不小的成果,最后制造出GameWorks SDK中一个光线追踪降噪模块,也就是Denoising算法。从而可以用比较低样本的光线追踪应用到实时渲染中,最终渲染质量可以媲美大样本下的光线追踪收敛图像。
另一方面,随着显卡算力的提升,显卡加入硬件级光线追踪支持的时机已经非常成熟,将来光线追踪也会成为3A级游戏常用技术,以实现玩家们梦寐以求的真实画面效果。因此NVIDIA在Volta游戏显卡跳票后,带来了拥有专门处理光线追踪的RT Core的Turing游戏显卡,不仅仅可以让游戏开发者进行实时光线追踪计算,作为最大获益者的游戏玩家也能从游戏中感受到前所未有、电影级的画质。
三、采用了下一代GDDR6显存颗粒。
三星电子、SK海力士、美光三大内存巨头早已完成了GDDR6显存的研发,NVIDIA这里采用的是最先进、最成熟的三星方案,也是业界最早定型和量产的,三款卡分别配备了48GB、24GB、16GB GDDR6。
据三星官方报道,他们的GDDR6采用10nm级别工艺制造,单颗容量16Gb(2GB),NVIDIA显卡上使用的频率为14Gbps,对应带宽56GB/s,相比于20nm级别工艺制造的8Gb 8Gbps GDDR5不仅容量翻了一番,带宽更是提升了75%。
事实上,三星的GDDR6颗粒可以轻松跑到18Gbps,是三家里最快的,此时对应带宽达72GB/s,相比GDDR5提升了足有125%。
同时得益于新工艺和电压从1.55V降到1.35V,三星GDDR6的功耗也降低了35%,生产效率也高了大约30%。
四、逆向三风扇技术
技嘉AORUS RTX 2080“大雕”用上的这个创新正逆转气流导向技术,显卡中间风扇倒转,刚好与左右风扇的气流形成合流,散热性能大幅度加强。目前以首发的技嘉RTX 2080 GAMING OC显卡已经用上来这项技术,评测显卡烤机最高也才72°,可见这个散热技术效果还是挺不错的。
综上所述,技嘉AORUS 2080系列显卡,从画质、性能、耗能、降温等各个方面都要赶超GTX10系列很多,当然,这一系列显卡也是专门为了游戏发烧友而打造的,如果对画面要求没有那么高的,可以选择RTX 2070或者GTX1080显卡,当然,如果不缺钱的话随意。
本文地址:https://blog.csdn.net/weixin_44165402/article/details/85926066