资讯

展开

第一代gpu被用于什么游戏,第一代和第二代fps网游之巅峰之作是指哪2个游戏

作者:本站作者

本文目录一览

1,第一代和第二代fps网游之巅峰之作是指哪2个游戏

网络版本:第一代,cs,第二代cf,AVA,风暴战区 单机版本:cs过了,使命召唤,过了战地3
你好!现在新出了个叫全球 使命的 TPS网游还不错我的回答你还满意吗~~

第一代和第二代fps网游之巅峰之作是指哪2个游戏

2,什么是GPU芯片主要用途是什么

GPU芯片就是处理器,也叫显示芯片,是用于个人电脑、工作站、游戏机和一些平板电脑上用来进行图像处理的微处理器,如果把这些移动设备比作是一个人的话,那GPU就是这些移动设备支撑心脏运行的大动脉,GPU可以提高高清视频硬件解码和3D渲染等能力。也就是说,GPU具有提供我们使用电脑的观感,提升玩游戏的愉悦感等作用。首先,GPU并行计算任务较重,功耗较大,只能焊接在显卡的电路板上使用。 GPU是显示主芯片的核心,和显存、电路板还有BIOS一起构成了显卡,GPU决定了显示卡的档次和性能,是显示卡的心脏,也是2D显示卡和3D显示卡的区别依据。目前,消费者对大型3D游戏和高清视频等娱乐享受要求越来越高,显卡在计算机中重要性越来越高,这也对GPU提出了更高的需求。8月最后一天,AMD和英伟达中国区相继接到总部通知,将对中国区客户断供高性能计算产业,这就将国产芯片产业推到了大众面前。我们的国产芯片在不断改进,目前已记不清到底是第几代产品了,但对于性能结果,仍有不少争议,既有鼓励包容,也有失望甚至贬损。总的来说,目前国产GPU确实有许多不足之处,但做芯片不是纸上谈兵,不可能一蹴而就。其次,GPU是负责图像渲染和输出基础上接管视频编解码、矩阵计算等浮点算力任务。也就是说,办公和轻度应用,GPU只需驱动不同分辨率显示器,中度办公负载和轻度娱乐则要求更高,需要提供视频硬件解码和一定的3D渲染和计算能力。但如果要求再高些,国产GPU就无法满足需求了。所以,国产GPU要走的路还很长,现在也有很多企业进入了GPU这个赛道,进入到企业越多,竞争和创新也会越多,但GPU的发展必然不会一帆风顺,我们要对国产芯片抱有信心。

什么是GPU芯片主要用途是什么

3,请教显卡等级问题

very good
GeForce 200系列,代号D10U,产生与2008年,是NVIDIA的第十代GeForce显示芯片,NVIDIA称GTX 200核心采用了第二代的统一架构。相对第一代,显示核心除了专注立体效能的提升外,更专注非传统的GPU应用。NVIDIA认为,随着GPU的效能愈来愈大,可应用的范围再不局限于立体计算,而GPU绝对有能力取代CPU,成为高效能运算的工具。为了凸显第二代统一架构的功能,NVIDIA将显卡的命名法则改变,不再是GeForce加上代表世代的数字。而是GeForce GTX、GeForce GT、GeForce GS和GeForce G。它们分别代表旗舰级、高端、中端和入门。 你列出的几款,性能从低到高依次是:gtx550-gtx460-gtx670-gtx480-gtx590。其中,出gtx550是中端显卡外,其它都属于高端显卡。而gtx590算是当前的顶级显卡了。

请教显卡等级问题

4,请问GPU和CPU在处理游戏方面各起到什么作用请说的详细一些谢谢

CPU即Central Processing Unit 中央处理器,相比于GPU擅长整数运算和逻辑运算拥有强大的分支预判能力,擅长处理数量少但是极其复杂的计算任务。因此在游戏当中,CPU作用就是用很快的速度画出一张一张的画面设计蓝图(也就是框架),设计图当中的信息主要包括一些关键的带坐标的元素位置参考点及这些点所代表的图形元素和所需的效果(告诉GPU这个点周围要画出什么);同时CPU要处理游戏中的绝大部分逻辑关系,并根据不断变化的即时逻辑关系即时地画出设计蓝图(比如如果子弹打中人了,中弹者就要受伤或死亡,画出设计图,发出指令命令GPU画出中弹者受伤或死亡的画面);游戏过程中CPU还会运用自己强大的分支预判能力对玩家的接下来的行为进行猜测,如果命中了(猜对了)就会把事先画好的设计图交给GPU美化渲染画出完整的画面,从而对对游戏进行加速。GPU即Graphic Processing Unit,图形处理单元。GPU相比于CPU非常擅长浮点运算和拥有可让CPU望尘莫及的并行计算能力。强大的浮点运算能力和并行计算能力使得GPU比CPU更擅长 难度简单但规模庞大的计算任务 所以在游戏当中擅长处理短时间内变化莫测的游戏画面,在高分辨率下能同时精确控制每个像素,处理各种图形特效渲染(包括光影、烟雾、3D等),这些工作通通离不开高强度的浮点运算和并行计算。说白了就是GPU利用自己的特长,根据CPU的指令进行高速高质量绘图(高帧速绘图)。CPU好比是出色的工程师能快速画出一张张高质量的设计图,GPU好比是出色的建筑团队,能根据工程师的设计图,快速准确无误地做出一个个的最终建筑实物。不难看出建筑团队的任务是远比建筑师繁重的,因此目前玩中、大型游戏更重要的是配有好的GPU(建筑团队),不然就跟不上CPU(工程师)的节奏了(瓶颈在于显卡)。望采纳,辛苦手打的。

5,AGEIA PHYSX的一个问题

物理加速技术的一种,本来AGEIA自己生产专门的物理极速卡,后来被Nvidia收购,用于GPU(显卡)加速。Nvidia Geforce 8系列以上,至少256M显存,16个流处理器及同级别的专业显卡具有物理加速功能。 物理加速,简单的理解就是游戏中的烟雾,爆炸的碎片,水珠等等能按照真实的物理轨迹运动。不过需要游戏支持,目前这样的游戏不多,而且支持被Nvidia收购前的AGEIA加速卡的游戏只有《镜之边缘》,新的游戏如《蝙蝠侠:阿卡姆疯人院》都是用Geforce显卡才能支持的。 不过,“Physx物理加速”并非“加速”,你可以把它当做一种特效,开启这种特效需要耗费大量资源。在《蝙蝠侠:阿卡姆疯人院》开启高效果的物理加速至少需要GTX260以上的显卡 Physx可以有CPU,也可以由GPU负担完成(想想就知道既然是Nv的技术,肯定是显卡的效果好)。 另一种物理加速是intel的Havok。但只能由CPU负担。 ATI则完全把宝压在了微软身上,在新一代的office中微软将实现物理加速以及操作系统的图形接口,要求非常低

6,GPU发展和现状是什么样的

GPU其实就是显卡,是英文Graphics Processing Unit的缩写。大型设备GPU有两个厂商,NVIDIA以及ATI,一个被称为N卡,一个被称为A卡。近几年随着手机等智能设备的快速发展,移动端低功耗GPU越来越受到重视,目前苹果、高通的GPU都比较强悍,华为也在GPU方面加速努力。 ATI显卡 ATI公司成立于1985年,创始人为何国源以及另外两个华人。1985年10月ATI使用ASIC技术开发出了第一款图形芯片和图形卡,1992年4月ATI发布了Mach32图形卡集成了图形加速功能,1998年4月ATI被IDC评选为图形芯片工业的市场领导者,但那时这种芯片还没有GPU的称号,很长的一段时间ATI都是把图形处理器称为VPU,直到AMD收购AT之后其图形芯片才正式采用GPU的名字。 NVIDIA显卡 NVIDIA是一家人工智能计算公司,创立于1993年,创始人及CEO为美籍华人Jensen Huang(黄仁勋)。1999年,NVIDIA首先提出GPU概念,从此 NVIDIA显卡的芯就用GPU来称呼,NVIDIA极大地推动了PC 游戏 市场的发展,并重新定义了现代计算机图形技术,彻底改变了并行计算。 苹果自研GPU 苹果之前一直都是跟Imagination合作,为了使自己的硬件和软件更加完美的融合,同时不受供应商卡脖子,从A11芯片开始,苹果正式抛弃Imagination而改用自研GPU。目前苹果的GPU性能也是第一梯队的,苹果移动设备的3D显示、AR、大型 游戏 还是比较出色的。 高通GPU 目前高通骁龙移动平台集成的Adreno GPU是应用较为广泛的,因为大部分国产手机都采用骁龙处理器,Adreno也是可以和同期苹果A系列芯片集成GPU一教高下的存在。Adreno的前身是ATI Imageon系列低功耗GPU,ATI被AMD收购后,AMD将移动设备相关的自从打包卖给了高通。 ARM 的Mali GPU 海思麒麟、三星Exynos、联发科Helio等芯片都采用了ARM的GPU解决方案。这些SOC通常将多个GPU核心封装在一个更大规模的GPU矩阵中,这也导致功耗及发热问题的出现。目前三星和华为应该都在进行自研GPU,走上苹果的道路。 移动GPU现状 目前移动端GPU性能还存在一定短板,随着5G的到来,未来会有更多的应用需要在移动端体现,AR、VR、大型 游戏 等等,都需要强大的GPU支持。未来谁能掌握最强的GPU技术,谁就能获得更多的优势和关注度,各厂商也都在加大自研投入避免受到供应商的影响。 高性能GPU 除了台式机、笔记本等常见领域的GPU,像人工智能及深度学习领域,数据科学家和研究人员可以用高性能GPU解析 PB 级的数据;自动驾驶领域 汽车 可以利用强大的GPU,几乎可以在任何驾驶场景中自主观察、思考、学习和导航。另外医疗、教育、自动驾驶、 娱乐 、影视等众多领域越来越智能化,并且都需要越来越强大的GPU作为技术支持。 总之,无论是移动端还是大型设备,人们对GPU的性能要求越来越高,GPU的发展也会越来越快,越来越智能。 GPU,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、 游戏 机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器,与CPU类似,只不过GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。随着人工智能的发展,如今的GPU已经不再局限于3D图形处理了,GPU通用计算技术发展已经引起业界不少的关注,事实也证明在浮点运算、并行计算等部分计算方面,GPU可以提供数十倍乃至于上百倍于CPU的性能。 GPU的特点是有大量的核(多达几千个核)和大量的高速内存,最初被设计用于 游戏 ,计算机图像处理等。GPU主要擅长做类似图像处理的并行计算,所谓的“粗粒度并行(coarse-grainparallelism)”。这个对于图像处理很适用,因为像素与像素之间相对独立,GPU提供大量的核,可以同时对很多像素进行并行处理。但这并不能带来延迟的提升(而仅仅是处理吞吐量的提升)。比如,当一个消息到达时,虽然GPU有很多的核,但只能有其中一个核被用来处理当前这个消息,而且GPU核通常被设计为支持与图像处理相关的运算,不如CPU通用。GPU主要适用于在数据层呈现很高的并行特性(data-parallelism)的应用,比如GPU比较适合用于类似蒙特卡罗模拟这样的并行运算。 CPU和GPU本身架构方式和运算目的不同导致了CPU和GPU之间的不同,正是因为GPU的特点特别适合于大规模并行运算,GPU在“深度学习”领域发挥着巨大的作用,因为GPU可以平行处理大量琐碎信息。深度学习所依赖的是神经系统网络——与人类大脑神经高度相似的网络——而这种网络出现的目的,就是要在高速的状态下分析海量的数据。例如,如果你想要教会这种网络如何识别出猫的模样,你就要给它提供无数多的猫的图片。而这种工作,正是GPU芯片所擅长的事情。而且相比于CPU,GPU的另一大优势,就是它对能源的需求远远低于CPU。GPU擅长的是海量数据的快速处理。 工业与学术界的数据科学家已将GPU用于机器学习以便在各种应用上实现开创性的改进,这些应用包括图像分类、视频分析、语音识别以及自然语言处理等等。尤其是深度学习,人们在这一领域中一直进行大力投资和研究。深度学习是利用复杂的多级「深度」神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。 虽然机器学习已经有数十年的 历史 ,但是两个较为新近的趋势促进了机器学习的广泛应用:海量训练数据的出现以及GPU计算所提供的强大而高效的并行计算。人们利用GPU来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。GPU还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。 将GPU加速器用于机器学习的早期用户包括诸多规模的网络和社交媒体公司,另外还有数据科学和机器学习领域中一流的研究机构。与单纯使用CPU的做法相比,GPU具有数以千计的计算核心、可实现10-100倍应用吞吐量,因此GPU已经成为数据科学家处理大数据的处理器。 GPU 原来就是为了加速 3D 渲染的,后来被拿过来做计算。 现在 GPU 可以支持通用的指令,可以用传统的 C 和 C++,还有Fortran 来编程。 现在单个高端 GPU 的性能已经达到了传统多核 CPU 集群的性能 有的应用通过 GPU 加速相比传统的多核 CPU 来说可以达到 100X 的加速。对某些特定应用来说 GPU 还是最适合。 GPU未来趋势 GPU的未来方向,可以从NVIDIA 2019年的中国GTC(GPU technology conference)大会窥见一斑。GTC会议是NVIDIA近年来每年举办的一场GPU技术大会,汇集全球顶级的GPU专家,提供GPU领域颇具热门话题的相关培训和演讲。在这个大会上展示的是全球GPU研究人员的最新的研究和应用方向,通过GTC会议可以窥见GPU的未来。2019年中国GTC大会设置了两大主题,分别是AI和图形,两个大主题之下各自又有一些小主题, GPU的未来趋势无外乎3个:大规模扩展计算能力的高性能计算(GPGPU)、人工智能计算(AIGPU)、更加逼真的图形展现(光线追踪 Ray Tracing GPU)。虽然GPU的最基本功能-显示技术在大会主题中没有“显式”的提及,但是众多应用方向均与之密切相关,譬如:智慧医疗和生命科学、 游戏 、虚拟现实/增强现实、工业设计与工程、自动驾驶与交通等,因此支持更加清晰和动感的高清显示是无需强调的未来趋势。此外,由于GPU越来越广泛地应用到手机、终端、边缘计算节点等嵌入式设备,所以高效能也是一个永恒的追求。 高性能计算 NVIDIA最新发布的Tesla V100s高性能计算GPU,集成5120个CUDA Core,640个Tensor Core,采用32 GB HBM2显存,显存带宽达1134GB/S,单精度浮点计算能力达16.4 TFLOPS。 GPGPU在图形GPU的基础上进行了优化设计,使之更适合高性能并行计算,加上CUDA多年来建立的完整生态系统,其在性能、易用性和通用性上比图形GPU更加强大。基于这种特性,GPGPU将应用领域扩展到了图形之外,在自动驾驶、智慧医疗、生命科学、深度学习、云计算、数据处理、金融等方面均 得到广泛应用,关于它的科研成果和新应用模式也层出不穷。 相比CUDA,OpenCL具有更好跨平台性和通用性,得到更多GPU硬件厂家的支持,但由于其对开发者的友好程度不高,直接应用反而不多。 人工智能计算 GPU的并行处理结构非常适合人工智能计算,但传统的基于流处理器的 GPU,其流处理器一般只能处理FP32/FP64等精度的运算,而AI计算的精度 要求往往不高,INT4/INT8/FP16往往可满足绝大部分AI计算应用。针对AI应用,NVIDIA设计了专用的Tensor Core用于AI计算,支持INT4/INT8/FP16等不同精度计算,RTX 2080集成了544个Tensor Core,INT4计算能力可达455 TOPS。 基于NVIDIA GPU的AI应用绝大多数情况下应用在服务器端、云端,基于GPU的AI计算往往具有更好的灵活性和通用性,在数据中心、云端等环境下具有更广泛的适用性。与之相对应的,在分布式应用领域AI计算更倾向于独立的面向特定应用领域的专用芯片,而不依赖于GPU,如手机、平板等移动端SOC都集成了专用的NPU IP。 光线追踪-更加逼真的图形展现 传统的图形GPU都使用光栅化技术显示3D物体,对物体进行3D建模,将其分割成若干三角形,三角形的细粒度很大程度上决定最后的成像质量,然后将三角形转换为2D屏幕上的像素点并分配初始颜色值,接下来进行像素处理,基于场景修改像素颜色,并将纹理应用于像素,从而生成像素的最终颜色[9]。 光线追踪与光栅化的实现原理不同,它最早由IBM的Arthur Appel于1969年在“Some Techniques for Shading Machine Renderings of Solids”[10]中提出,光线追踪通过从观察点对每一个像素发射一条光线并找到在世界场景中阻挡光线路径的最近物体来渲染场景,光线有两种,第一种是视者发射的光线,来寻找场景中的交点,另一种是从交点发到灯光的阴影射线,看自身是否是处于阴影当中,光线追踪的一个显著优点是能够处理不平整的表面和固体。 2018年NVIDIA发布的RTX 2080 GPU,采用Turing架构,在GPU中集成了 68个独立的 RT(ray tracing) Core ,用于光线追踪,光线处理能力达到了10 Giga/S,1 080P@60Hz需要处理的光线约为6Giga/S,实测基于光线追踪的应用其帧率大致在50FPS左右,基于RTX 2080的光线追踪达到了可用的程度,光线追踪对于反射和阴影有着更逼真的处理效果,尽管目前仍然是采用光线追踪和传统光栅图形处理相结合的方式来进行图形渲染,但其效果已经远超传统光栅图形处理,对于 游戏 、电影等追求逼真光影效果的应用,光线追踪能提供电影级画质的实时渲染,带来视觉效果上质的飞跃。 除了 游戏 、电影方面的应用,产品设计师和建筑师也可以享受到光线追踪带来的好处,借助光线追踪工具和高性能GPU,可以实时生成逼真的产品模型,提高设计迭代速度。 NVIDIA的下一代图形GPU,采用Ampere架构,计划于今年发布,相信在光线追踪方面带来新的提升。 GPU人工智能的重要组成部分 市场空间广阔   GPU目前主要作为显卡的计算核心,主要解决图形渲染问题。GPU具有较为完整的技术生态,其具有高运算性能硬件、驱动支撑、API接口、通用计算引擎/算法库,因此成为一种交易使用的工具。   目前的GPU可被分为PCGPU、服务器GPU与移动GPU,其中PCGPU既有独立也有集成GPU,服务器GPU是专为计算加速或深度学习应用的独立GPU,移动GPU一般都是集成GPU。随着人工智能的快速兴起,拥有强运算能力和计算速度的GPU迎来了新的发展机遇,预测到2023年中国GPU服务器市场规模将达到45亿美金,未来5年整体市场年复合增长率为28%。   根据新思界产业研究中心发布的 《2020-2025年GUP行业市场深度调研及投资前景预测分析报告》 显示,在全球中,GPU应用主要包含图形渲染、 游戏 、电子设备应用,其中图形渲染是GPU应用最广的领域,主要包括PC端的图形处理和移动端的图形处理。移动GPU是提升智能手机性能的核心部件,能够决定设备的界面流程程度、 游戏 流畅程度等参数,已广泛应用于智能手机、DTV和平板电脑等移动设备。近几年电子 游戏 行业快速发展,在这一背景下,GPU 游戏 专用设备需求将有所回升。   我国GPU发展较晚,目前产品与外资品牌有所差距,保守估计国内GPU芯片落后当前主流GPU芯片约6年时间。考虑到产品性能,目前国内市场主要以进口为主,短期之内GPU在市场化竞争的民用市场短期内较难突破。目前在全球中GPU主要品牌有NVIDIA和AMD、ARM、Imagination等公司。   我国对于信息安全领域高端产品自主化需求十分迫切,国务院于2015年5月发布《中国制造2025》,明确提出2020年中国集成电路内需市场自制率将达40%,2025年将更进一步提高至70%的目标,因此预计2025年国产GPU芯片市场空间约为50亿美元,我国GPU行业发展潜力较大。   我国中高端GPU芯片市场需求旺盛,主要在个人计算机、云计算、人工智能、安防监控等领域有着广泛的应用,但在高端产品方面,我国市场近乎空白。从厂商来看,浪潮、华为和曙光在出货量和销售额方面均位列市场前三。国内GPU行业发展起步较晚,尚处于追赶阶段。景嘉微、中船系采取自主研发的方法进行产品开发,能够对自主开发的GPU进行迭代和升级。中科曙光为代表技术引进系。   新思界 产业分析 人士表示,GPU作为人工智能设备重的关键产品,在智能化时代中,市场需求持续攀升,行业发展潜力较大。从目前来看,我国GPU行业主要集中在中低端产品,高端产品接近空白,未来行业需要不断改进,向高端化发展。

7,左上角显示的cpugpuram怎么关掉

先科普一下,CPU是手机的大脑,接收信号,智能运算,发出指令;GPU是手机图形显示器的大脑,因为对于图像显示来说,运算及其复杂,如果都让CPU来做,那么CPU就会超负荷,导致卡机死机频发;RAM是手机CPU和GPU运算的空间,好像是稿纸一样,手机的任何一个动作的运算都是及其复杂的,需要大量的稿纸来运算和记录。如果仅仅是安卓系统的CPU、GPU和RAM来比较,以现有阶段来讲,这三者中,目前CPU的性能是最强的,GPU性能紧随其后,最后才是RAM的性能。一台手机要发挥出最佳性能,各方面都应该匹配,所以,现在,安卓手机的瓶颈是RAM,RAM的容量太小,CPU和GPU都会等着这个指令运算完成,才能开始下一个运算,如果RAM够大的话,那么无论CPU和GPU需要什么运算,RAM都能提供足够的稿纸,那么整个手机的运行才能达到最佳性能。以前手机销售老爱宣传CPU的性能,什么双核、四核、八核的,因为CPU发展很快,接着就是宣传GPU,什么专用图形处理,什么一代、二代的,最近慢慢开始宣传RAM了,从1G、2G慢慢到3G、4G了。总之,手机的性能不仅仅是以上三个方面,还有操作系统的优化,电池的容量等。

8,用nvidia的gpu的手机有哪些

性能最好的当属NVIDIAGeForce,性能仅次于Mail-400(PSPVita、三星9100使用),兼容性最好的ImaginationPowerVRSGX540,(iPhone、iPad、三星9100G使用),毕竟很多安卓游戏是从ios上移植过来的,而苹果的设备使用ImaginationPowerVRSGX540,所以搭载此GPU兼容性良好,Adreno220是高通出品的一款GPU,通常与CPU集成,有点是兼容性较好,功耗小,缺点是性能不济,但使用比GPU的手机普遍较上使用两款GPU的手机便宜,是比较大众化的产品。
nvidia的gpu加速卡是除了gpu物理加速之外,还有两种加速方式:即cpu和ppu(物理加速卡)。1,nvidia 正式推出了一款针对 2014 年的超级计算机研发的 gpu 加速卡 tesla k40。nvidia 声称,相比上一代 tesla k20 ,k40 提升了 40% 的性能。如精影gtx970这样的显卡都有nvidia的gpu加速功能的。2,中低端显卡的物理加速能力都要强于专用的物理加速卡。这种解决方案nvidia称为sli physics,ati叫做crossfire physics。

9,GPU是什么

图形处理器
gpu英文全称graphic processing unit,中文翻译为“图形处理器”。gpu是相对于cpu的一个概念,由于在现代的计算机中(特别是家用系统,游戏的发烧友)图形的处理变得越来越重要,需要一个专门的图形的核心处理器。 gpu的作用gpu是显示卡的“心脏”,也就相当于cpu在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2d显示卡和3d显示卡的区别依据。2d显示芯片在处理3d图像和特效时主要依赖cpu的处理能力,称为“软加速”。3d显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。现在市场上的显卡大多采用nvidia和ati两家公司的图形处理芯片。 于是nvidia公司在1999年发布geforce 256图形处理芯片时首先提出gpu的概念。gpu使显卡减少了对cpu的依赖,并进行部分原本cpu的工作,尤其是在3d图形处理时。gpu所采用的核心技术有硬体t&l、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体t&l技术可以说是gpu的标志。简单说gpu就是能够从硬件上支持t&l(transform and lighting,多边形转换与光源处理)的显示芯片,因为t&l是3d渲染中的一个重要部分,其作用是计算多边形的3d位置和处理动态光线效果,也可以称为“几何处理”。一个好的t&l单元,可以提供细致的3d物体和高级的光线特效;只大多数pc中,t&l的大部分运算是交由cpu处理的(这就也就是所谓的软件t&l),由于cpu的任务繁多,除了t&l之外,还要做内存管理、输入响应等非3d图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待cpu数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使cpu的工作频率超过1ghz或更高,对它的帮助也不大,由于这是pc本身设计造成的问题,与cpu的速度无太大关系。 gpu与dsp的区别gpu在几个主要方面有别于dsp架构。其所有计算均使用浮点算法,而且目前还没有位或整数运算指令。此外,由于gpu专为图像处理设计,因此存储系统实际上是一个二维的分段存储空间,包括一个区段号(从中读取图像)和二维地址(图像中的x、y坐标)。此外,没有任何间接写指令。输出写地址由光栅处理器确定,而且不能由程序改变。这对于自然分布在存储器之中的算法而言是极大的挑战。最后一点,不同碎片的处理过程间不允许通信。实际上,碎片处理器是一个simd数据并行执行单元,在所有碎片中独立执行代码。尽管有上述约束,但是gpu还是可以有效地执行多种运算,从线性代数和信号处理到数值仿真。虽然概念简单,但新用户在使用gpu计算时还是会感到迷惑,因为gpu需要专有的图形知识。这种情况下,一些软件工具可以提供帮助。两种高级描影语言cg和hlsl能够让用户编写类似c的代码,随后编译成碎片程序汇编语言。brook是专为gpu计算设计,且不需要图形知识的高级语言。因此对第一次使用gpu进行开发的工作人员而言,它可以算是一个很好的起点。brook是c语言的延伸,整合了可以直接映射到gpu的简单数据并行编程构造。经 gpu存储和操作的数据被形象地比喻成“流”(stream),类似于标准c中的数组。核心(kernel)是在流上操作的函数。在一系列输入流上调用一个核心函数意味着在流元素上实施了隐含的循环,即对每一个流元素调用核心体。brook还提供了约简机制,例如对一个流中所有的元素进行和、最大值或乘积计算。brook还完全隐藏了图形api的所有细节,并把gpu中类似二维存储器系统这样许多用户不熟悉的部分进行了虚拟化处理。用brook编写的应用程序包括线性代数子程序、快速傅立叶转换、光线追踪和图像处理。利用ati的x800xt和nvidia的geforce 6800 ultra型gpu,在相同高速缓存、sse汇编优化pentium 4执行条件下,许多此类应用的速度提升高达7倍之多。对gpu计算感兴趣的用户努力将算法映射到图形基本元素。类似brook这样的高级编程语言的问世使编程新手也能够很容易就掌握gpu的性能优势。访问gpu计算功能的便利性也使得gpu的演变将继续下去,不仅仅作为绘制引擎,而是会成为个人电脑的主要计算引擎。
显卡的处理器称为图形处理器(GPU),它是显卡的“心脏”,与CPU类似,只不过GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。某些最快速的GPU集成的晶体管数甚至超过了普通CPU。时下的GPU多数拥有2D或3D图形加速功能。如果CPU想画一个二维图形,只需要发个指令给GPU,如“在坐标位置(x, y)处画个长和宽为a×b大小的长方形”,GPU就可以迅速计算出该图形的所有像素,并在显示器上指定位置画出相应的图形,画完后就通知CPU “我画完了”,然后等待CPU发出下一条图形指令。有了GPU,CPU就从图形处理的任务中解放出来,可以执行其他更多的系统任务,这样可以大大提高计算机的整体性能。GPU会产生大量热量,所以它的上方通常安装有散热器或风扇。[1] 详细内容编辑图形处理器又名显示处理器。图形处理器是显示卡的“心脏”,也就相当于CPU在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。时下市场上的显卡大多采用NVIDIA和AMD两家公司的图形处理芯片。NVIDIA公司在1999年发布GeForce256图形处理芯片时首先提出GPU的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU的标志。GPU能够从硬件上支持T&L(Transform and Lighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使CPU的工作频率超过1GHz或更高,对它的帮助也不大,由于这是PC本身设计造成的问题,与CPU的速度无太大关系。主要作用编辑GPU是显示卡的“大脑”,GPU决定了该显卡的档次和大部分性能,同时GPU也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像与特效时主要依赖CPU的处理能力,称为软加速。3D显示芯片是把三维图像和特效处理功能集中在显示芯片内,也就是所谓的“硬件加速”功能。显示芯片一般是显示卡上最大的芯片(也是引脚最多的)。时下市场上的显卡大多采用NVIDIA和 AMD-ATI 两家公司的图形处理芯片。今天,GPU已经不再局限于3D图形处理了,GPU通用计算技术发展已经引起业界不少的关注,事实也证明在浮点运算、并行计算等部分计算方面,GPU可以提供数十倍乃至于上百倍于CPU的性能,如此强悍的“新星”难免会让CPU厂商老大英特尔为未来而紧张, NVIDIA和英特尔也经常为CPU和GPU谁更重要而展开口水战。GPU通用计算方面的标准目前有 OPEN CL、CUDA、ATI STREAM。其中,OpenCL(全称Open Computing Language,开放运算语言)是第一个面向异构系统通用目的并行编程的开放式、免费标准,也是一个统一的编程环境,便于软件开发人员为高性能计算服务器、桌面计算系统、手持设备编写高效轻便的代码,而且广泛适用于多核心处理器(CPU)、图形处理器(GPU)、Cell类型架构以及数字信号处理器(DSP)等其他并行处理器,在游戏、娱乐、科研、医疗等各种领域都有广阔的发展前景,AMD-ATI、NVIDIA时下的产品都支持OPEN CL。1985年 8月20日 ATi公司成立,同年10月ATi使用ASIC技术开发出了第一款图形芯片和图形卡,1992年 4月 ATi发布了 Mach32 图形卡集成了图形加速功能,1998年 4月 ATi被IDC评选为图形芯片工业的市场领导者,但那时候这种芯片还没有GPU的称号,很长的一段时间ATI都是把图形处理器称为VPU,直到AMD收购ATI之后其图形芯片才正式采用GPU的名字。NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念。从此NV显卡的芯就用这个新名字GPU来称呼。GPU使显卡削减了对CPU的依赖,并实行部分原本CPU的工作,更加是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图与顶点混合、纹理压缩及凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术能够说是GPU的标志。工作原理编辑简单说GPU就是能够从硬件上支持T&L(Transform and Lighting,多边形转换和光源处理)的显示芯片,由于T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置与处理动态光线效果,也能称为“几何处理”。一个好的T&L单元,能提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓软件T&L),因为CPU的任务繁多,除了T&L之外,还要做内存管理和输入响应等非3D图形处理工作,所以在实际运算的时候性能会大打折扣,一般出现显卡等待CPU数据的情况,GPU运算速度远跟不上时下复杂三维游戏的要求。即使CPU的工作频率超出1GHz或更高,对它的帮助也不大,因为这是PC本身设计造成的问题,与CPU的速度无太大关系。与DSP区别编辑GPU在几个主要方面有别于DSP(Digital Signal Processing,简称DSP,数字信号处理)架构。其所有计算均使用浮点算法,而且此刻还没有位或整数运算指令。此外,由于GPU专为图像处理设计,因此存储系统实际上是一个二维的分段存储空间,包括一个区段号(从中读取图像)和二维地址(图像中的X、Y坐标)。此外,没有任何间接写指令。输出写地址由光栅处理器确定,而且不能由程序改变。这对于自然分布在存储器之中的算法而言是极大的挑战。最后一点,不同碎片的处理过程间不允许通信。实际上,碎片处理器是一个SIMD数据并行执行单元,在所有碎片中独立执行代码。尽管有上述约束,但是GPU还是可以有效地执行多种运算,从线性代数和信号处理到数值仿真。虽然概念简单,但新用户在使用GPU计算时还是会感到迷惑,因为GPU需要专有的图形知识。这种情况下,一些软件工具可以提供帮助。两种高级描影语言CG和HLSL能够让用户编写类似C的代码,随后编译成碎片程序汇编语言。Brook是专为GPU计算设计,且不需要图形知识的高级语言。因此对第一次使用GPU进行开发的工作人员而言,它可以算是一个很好的起点。Brook是C语言的延伸,整合了可以直接映射到GPU的简单数据并行编程构造。经 GPU存储和操作的数据被形象地比喻成“流”(stream),类似于标准C中的数组。核心(Kernel)是在流上操作的函数。在一系列输入流上调用一个核心函数意味着在流元素上实施了隐含的循环,即对每一个流元素调用核心体。Brook还提供了约简机制,例如对一个流中所有的元素进行和、最大值或乘积计算。Brook还完全隐藏了图形API的所有细节,并把GPU中类似二维存储器系统这样许多用户不熟悉的部分进行了虚拟化处理。用Brook编写的应用程序包括线性代数子程序、快速傅立叶转换、光线追踪和图像处理。利用ATI的X800XT和Nvidia的GeForce 6800 Ultra型GPU,在相同高速缓存、SSE汇编优化Pentium 4执行条件下,许多此类应用的速度提升高达7倍之多。对GPU计算感兴趣的用户努力将算法映射到图形基本元素。类似Brook这样的高级编程语言的问世使编程新手也能够很容易就掌握GPU的性能优势。访问GPU计算功能的便利性也使得GPU的演变将继续下去,不仅仅作为绘制引擎,而是会成为个人电脑的主要计算引擎。识别软件编辑说起处理器识别工具CPU-Z,其知名度和必备度无需赘言。硬件网站时下又给我们提供了一个类似的工具,用于显卡识别的“GPU-Z”。这是TechPowerUp发布的专业显卡识别工具。相关问题编辑第一个问题:GPU的竞争远比CPU的竞争来得激烈。通用PC的CPU就只有英特尔和AMD两家大厂。而在GPU方面领先的是N记和A记两家厂商,但能生产中低端产品的还有英特尔、S3等好几家厂商。它们的产品虽然不如前两家,但在很多应用方面也能满足用户的需要,所以N记和A记只有拼命往前跑才不会死掉。CPU厂商没有采用GPU的先进工艺是因为CPU厂商都有自己投资的生产线,不可能一下把原来的生产线都淘汰了上新的生产线,那样做可能连当初投入的资金都难以收回。而GPU厂商由于种种原因,一般都是自己设计由别人代工的,比如找台积电代工。代工厂商为了能接到业务,只有不停升级自己的生产设备,这样才能生存下来。所以造成以上原因。第二个问题就如你所说的一样,CPU除了处理游戏的AI,情节等方面的数据外,对于有些图像方面也是由它完成的。当微软每次发布新的DX时,并不是每款GPU都能支持DX新的特性,所以有些图像方面的任务还得由CPU来完成。还有有些特性比如重力特性以前是由CPU来完成,时下有些GPU也能支持了,这些任务就由GPU来完成了。第三个问题GPU相当于专用于图像处理的CPU,正因为它专,所以它强,在处理图像时它的工作效率远高于CPU,但是CPU是通用的数据处理器,在处理数值计算时是它的强项,它能完成的任务是GPU无法代替的,所以不能用GPU来代替CPU。另外时下AMD收购了A记显卡芯片的设计厂商,AMD看到今后CPU和GPU只有走一条融合的道路才能在竞争中占得先机。CPU和GPU如何配合默契才能最大地提高工作效率是AMD时下考虑的问题,也是英特尔的问题。第四个问题微软发布windows7 其中一个显著特性就是 联合GPU和CPU的强大实力,提升GPU在硬件使用的价值,在Windows7中,CPU与GPU组成了协同处理环境。CPU运算非常复杂的序列代码,而GPU则运行大规模并行应用程序。微软利用DirectX Compute将GPU作为操作系统的核心组成部分之一。DirectX Compute。它让开发人员能够利用 GPU的大规模并行计算能力,创造出引人入胜的消费级和专业级计算应用程序。简单的说,DirectX Compute就是微软开发的GPU通用计算接口,欲统一GPU通用计算标准。也就是说windows7 以后GPU的硬件地位将仅次于CPU,发挥出更大的效用。GPU供应商编辑GPU有非常多的厂商都生产,和CPU一样,生产的厂商比较多,但大家熟悉的却只有那么两三个,以至于大家以为GPU只有那么两三个生产厂商。intelintel的GPU在时下完全是集成显卡,用于intel的主板和intel的笔记本。可能你想不到,要是只按发售数量计算,intel随着他主板发售的集成GPU占据了整个GPU市场的60%以上。nVidia现在最大的独立显卡生产销售商,他的显卡包括时下大家熟悉的Geforce系列,比如GTX580 GTX480 GTX470 GTX460 GTX295等,还有专业的Quadro系列等。他也同样销售固化在主板上的集成显卡,这些显卡随着主板一起发售,但是由于AMD兼并ATI后自身主板芯片能力提高,NV主板如日中天的景象已经失去了半壁江山。AMD(ATI)世界上第二大的独立显卡生产销售商,他的前身就是ATI。他的显卡主要就是大家熟悉的HD系列,比如HD5870,HD5970,HD6970等。在专业领域有FireGL系列由于AMD兼并ATI后,其主板市场迅速扩大,已经夺取了NV在AMD处理器主板的半壁江山。就发售量和发售盈利方面,AMD显卡方面仍然略输于NV,不过两者不相伯仲,差距只是几个百分点。Matrox。当年和NV,ATI一起争夺独立显卡市场份额的一家公司,在曾经的一个时期Matrox的显卡和NV,ATI曾经在性能上比肩过。但由于后来其开发能力日渐衰退,在GF5时期,也就是ATI的9000系列时期,Matrox由于性能上整整落后了GF5900和Raden9800一个世代而逐渐被淘汰,淡出了民用独立显卡市场。但时下Matrox仍然在工程用专业显卡方面有自己的地位。这些显卡用于工程主图和多头输出仍然很强力。与NV和AMD的专业显卡不同,NV,ATI的专业显卡涉足的是3D领域,而Matrox得专业显卡涉足的是2D领域,也就是CAD。但由于CUDA的日渐普及,DX10以上显卡将在所有支持CUDA的程序上表现出惊人的性能,也就是说当CUDA在各种运用软件普及的那天,Matrox也必将退出2D专业卡的市场。sis和via硒统和威盛时下是对孪生兄弟,但他们曾经也是分开的两家公司,并且都生产自己主板的集成显卡。但这可怜的两兄弟已经逐步在淡出主板市场了,也就必定将淡出GPU市场。GPU在数据中心中的重要作用编辑GPU在商用应用程序上的部署究竟能带来多少性能提升,这是很多人关心的问题,也许只是个昂贵的噱头,也许会变成数据处理的一个重要组成部分。GPU大概从2003年开始,我们开始使用GPU来独立处理电脑3D游戏的数据,或者其他对图形要求比较高的程序。GPU逐渐进入了我们视线,包括我们的家用电脑,笔记本,GPU都开始发挥它的作用。但现在,在数据中心的服务器上,你都可以发现GPU的身影了。GPU种类GPU是否也可用通过这种远程协作的方式使用?如虚拟化GPU。随着虚拟化技术的发展,已经可以把GPU应用在虚拟机里使用,这样可以让GPU代替许多CPU的工作。GPU的核心数量非常多,这和CPU有本质的区别,一般GPU都内置了数百个内核,甚至上千个,GPU的工作原理就是并行计算,在并行处理特定数据的时候,GPU比CPU高效非常多。但在复杂指令计算方面,GPU远远不及CPU,所以GPU和CPU是一种互补的关系,而不是互相代替的关系。一些适合GPU计算的地方就利用GPU并行计算的优势去部署,而不是单单考虑提升CPU的性能。高性能的GPU处理器不是普通的计算处理过程。GPU是用利用高度序列化的处理模式和CPU配合使用,并不是使用高性能GPU就可以搭配低性能的CPU。由于它们的工作侧重点不同,是一种并行处理的方式,所以不能因为GPU的并行处理能力很强就忽略了CPU的重要性。GPU部署在数据中心比部署在现场好,科学家在现场只需要将探测的数据交回数据中心处理,之后再接收传回的GPU处理完的数据。这也就是数据中心为什么越来越多的部署GPU进行数据处理的原因。
文章TAG:第一代gpu被用于什么游戏  第一代和第二代fps网游之巅峰之作是指哪2个游戏  第一  第一代  一代  
相关教程
猜你喜欢