Grafički procesor: što je to i zašto se koristi? Obrazovni program o mobilnom hardveru: grafički procesori Kako grafički procesor radi u računalu

Grafička procesorska jedinica (GPU) nije manje važna komponenta SoC-a mobilnog uređaja od CPU-a. Tijekom proteklih pet godina, brzi razvoj mobilnih platformi Android i iOS potaknuo je programere mobilnih GPU-ova, a danas nitko nije iznenađen mobilne igrice S 3D grafika PlayStation 2 razina ili čak i viša. Drugi članak u seriji “Edukativni program o mobilnom hardveru” posvetio sam grafičkim procesorima.

Trenutno se većina grafičkih čipova proizvodi pomoću jezgri: PowerVR (Imagination Technologies), Mali (ARM), Adreno (Qualcomm, bivši ATI Imageon) i GeForce ULP (nVIDIA).

PowerVR je odjel Imagination Technologies, koji je u nedavnoj prošlosti razvijao grafiku za desktop sustave, ali je bio prisiljen napustiti ovo tržište pod pritiskom ATI-ja i nVIDIE. Danas PowerVR razvija možda najmoćnije GPU-ove za mobilne uređaje. PowerVR čipove koriste u proizvodnji procesora tvrtke kao što su Samsung, Apple, Texas Instruments, itd. Na primjer, različite GPU revizije iz PowerVR-a instalirane su u svim Apple generacije iPhone. Serije čipova 5 i 5XT ostaju relevantne. Peta serija uključuje jednojezgrene čipove: SGX520, SGX530, SGX531, SGX535, SGX540 i SGX545. Čipovi serije 5XT mogu imati od 1 do 16 jezgri: SGX543, SGX544, SGX554. Specifikacije serije 6 (Rogue) još uvijek se finaliziraju, ali je već poznat raspon performansi čipova serije – 100-1000GFLOPS.

Mali su grafički procesori koje je razvio i licencirao ARM sa sjedištem u Velikoj Britaniji. Mali čips je sastavni dio razni SoC-ovi koje proizvode Samsung, ST-Ericsson, Rockchip itd. Na primjer, Mali-400 MP dio je Samsung Exynos 421x SoC-a koji se koristi u pametnim telefonima kao što su Samsung Galaxy SII i SIII, u dvije generacije "pametnih tablet uređaja?" Samsung Napomena. Danas je aktualan Mali-400 MP u dvojezgrenoj i četverojezgrenoj verziji. Stižu čipovi Mali-T604 i Mali-T658 čije su performanse do 5 puta veće od Mali-400.

Adreno su grafički čipovi koje razvija istoimeni odjel američkog Qualcomma. Ime Adreno je anagram od Radeon. Prije Qualcomma, odjel je pripadao ATI-ju, a čipovi su se zvali Imageon. Posljednjih nekoliko godina Qualcomm u proizvodnji SoC-a koristi čipove serije 2xx: Adreno 200, Adreno 205, Adreno 220, Adreno 225. Posljednji na popisu je potpuno svježi čip - napravljen korištenjem 28nm tehnologije, najviše moćan iz serije Adreno 2xx. Njegove su performanse 6 puta veće od onih kod "starca" Adreno 200. U 2013. sve će više uređaja dobiti Adreno 305 i Adreno 320 GPU. 320 je već instaliran u Nexus 4 i kineska verzija Nokia Lumia 920T, u nekim aspektima čip je 2 puta moćniji od 225.

GeForce ULP (ultra-low power) – mobilna verzija video čip tvrtke nVIDIA, dio Tegra sustava na čipu svih generacija. Jedna od Tegrinih najvažnijih konkurentskih prednosti je specijalizirani sadržaj namijenjen samo uređajima koji se temelje na ovom SoC-u. nVIDIA tradicionalno ima bliske odnose s programerima igara, a njihov tim za razvoj sadržaja radi s njima na optimizaciji igara za GeForce grafička rješenja. Za pristup ovima nVIDIA igrečak je pokrenuo Tegra Zone Android aplikaciju, specijalizirani analog Android Market, gdje možete preuzeti aplikacije optimizirane za Tegru.

Performanse GPU-a obično se mjere na tri načina:

– broj trokuta u sekundi, obično u milijunima – Mega (MTriangles/s);

– broj piksela u sekundi, obično u milijunima – Mega (MPixel/s);

– broj operacija s pomičnim zarezom u sekundi, obično u milijardama – Giga (GFLOPS).

"Flopovi" zahtijevaju malo objašnjenje. FLOPS (Operacije s pomičnim zarezom u sekundi) broj je računskih operacija ili instrukcija koje se izvode na operandima s pomičnim zarezom po sekundi. Operand s pomičnim zarezom je necijeli broj (ispravnije bi bilo reći "pomični zarez", jer je simbol koji odvaja cijeli broj od razlomka na ruskom jeziku zarez). Pomoći će vam da shvatite koji je grafički procesor instaliran na vašem pametnom telefonu. ctrl+F i tablicu ispod. Imajte na umu da grafički procesori različitih pametnih telefona rade na različitim frekvencijama. Za izračun performansi u GFLOPS za specifični model trebate podijeliti broj naveden u stupcu "performanse u GFLOPS" s 200 i pomnožiti s frekvencijom određenog GPU-a (na primjer, u Galaxy S III GPU radi na 533MHz što znači 7,2 / 200 * 533 = 19,188):

Naziv pametnog telefona/tableta CPU GPU Performanse u GFLOPS
Samsung Galaxy S 4 Samsung Exynos 5410 PowerVR SGX544MP3 21.6 @ 200MHz
HTC Jedan Qualcomm Snapdragon 600 APQ8064T Adreno 320 20.5 @ 200MHz
Samsung Galaxy S III, Galaxy Note II, Galaxy Note 10.1 Samsung Exynos 4412 Mali-400 MP4 7.2 @ 200MHz
Samsung Chromebook XE303C12, Nexus 10 Samsung Exynos 5250 Mali-T604 MP4 36 na 200MHz
Samsung Galaxy S II, Galaxy Note, Tab 7.7, Galaxy Tab 7Plus Samsung Exynos 4210 Mali-400 MP4 7.2 @ 200MHz
Samsung Galaxy S, Wave, Wave II, Nexus S, Galaxy Tab, Meizu M9 Samsung Exynos 3110 PowerVR SGX540 3.2 na 200MHz
Jabuka iPhone 3GS, iPod touch 3gen Samsung S5PC100 PowerVR SGX535 1.6 na 200MHz
LG Optimus G, Nexus 4, Sony Xperia Z Qualcomm APQ8064 (Krait jezgre) Adreno 320 20.5 @ 200MHz
HTC Jedan XL, Nokia Lumia 920, Lumia 820, Motorola RAZR HD, Razr M, Sony Xperia V Qualcomm MSM8960 (Krait jezgre) Adreno 225 12.8 @ 200MHz
HTC jedan S, Windows Phone 8x, Sony Xperia TX/T Qualcomm MSM8260A Adreno 220 ~8,5* @ 200MHz
HTC Desire S, Incredible S, Desire HD, Sony Ericsson Xperia Arc, Nokia Lumia 800, Lumia 710 Qualcomm MSM8255 Adreno 205 ~4,3* @ 200MHz
Nokia Lumia 610 LG P500 Qualcomm MSM7227A Adreno 200 ~1,4* @ 128MHz
Motorola Prekretnica, Samsung i8910, Nokia N900 TI OMAP3430 PowerVR SGX530 1.6 na 200MHz
Samsung Galaxy Nexus Huawei Ascend P1, Ascend D1, Amazon Kindle Fire HD 7″ TI OMAP4460 PowerVR SGX540 3.2 na 200MHz
RIM BlackBerry Playbook, LG Optimus 3D P920, Motorola ATRIX 2, Milestone 3, RAZR, Amazon Kindle Fire prve i druge generacije TI OMAP4430 PowerVR SGX540 3.2 na 200MHz
Motorola Defy, Milestone 2, Cliq 2, Defy+, Droid X, Nokia N9, N950, LG Optimus Black, Samsung Galaxy S scLCD TI OMAP3630 PowerVR SGX530 1.6 na 200MHz
Acer Iconia Tab A210/A211/A700/A701/A510, ASUS Transformer Pad, Google Nexus 7, Eee Pad transformator Prime, Transformer Pad Infinity, Microsoft Površinski Sony Xperia tablet S, HTC Jedan X/X+, LG Optimus 4X HD, Lenovo IdeaPad Yoga nVidia Tegra 3 GeForce ULP 4.8 @ 200MHz
Acer Iconia Tab A500, Iconia Tab A501, Iconia Tab A100, ASUS Eee Pad Slider, Eee Pad Transformer, HTC Sensatoin/XE/XL/4G, Lenovo IdeaPad K1, ThinkPad tablet, LG Optimus Pad, Optimus 2X, Motorola Atrix 4G, Electrify, Photon 4G, Xoom, Samsung Galaxy Tab 10.1, Galaxy Tab 8.9, Sony Tablet P, Tablet S nVidia Tegra 2 GeForce ULP 3.2 @ 200MHz
Jabuka iPhone 5 Apple A6 PowerVR SGX543MP3 19.2 @ 200MHz
Jabuka iPad 2, iPhone 4S, iPod touch 5gen, iPad mini Apple A5 PowerVR SGX543MP2 12.8 @ 200MHz
Jabuka iPad, iPhone 4, iPod touch 4gen Apple A4 PowerVR SGX535 1.6 na 200MHz

* – podaci su približni.

Dat ću još jednu tablicu s apsolutnim vrijednostima produktivnosti većine popularnih pametnih telefona gornji cjenovni razred:

* – neslužbeni podaci.

Snaga mobilne grafike raste iz godine u godinu. Već ove godine možemo vidjeti igre razine PS3/X-Box360 u vrhunskim pametnim telefonima. Istovremeno sa snagom, značajno raste i potrošnja energije SoC-a i nepristojno se smanjuje autonomija mobilnih uređaja. Pa, pričekajmo proboj u proizvodnji napajanja!

Još jedan gutač energije u modernom mobilni uređaj– ovo je definitivno prikaz. Zasloni u Mobiteli postaju sve ljepši. Zasloni pametnih telefona izdanih u razmaku od samo godinu dana dramatično se razlikuju u kvaliteti slike. U sljedećem članku u nizu govorit ću o zaslonima: koje su vrste, što je PPI, o čemu ovisi potrošnja energije i tako dalje.

GPU (Graphics Processing Unit) je procesor dizajniran isključivo za obradu grafike i izračune s pomičnim zarezom. Prvenstveno postoji kako bi olakšao opterećenje glavnog procesora kada su u pitanju zahtjevne igre ili aplikacije s 3D grafikom. Kada igrate bilo koju igru, GPU je odgovoran za kreiranje grafike, boja i tekstura, dok se CPU može pobrinuti za umjetna inteligencija ili izračune mehanike igre.

Na što prvo gledamo kada biramo pametni telefon? Ako na trenutak zanemarimo trošak, onda prije svega, naravno, biramo veličinu zaslona. Zatim nas zanima kamera, količina RAM-a, broj jezgri i frekvencija procesora. I ovdje je sve jednostavno: što više, to bolje, a što manje, to gore. Međutim, u suvremeni uređaji Također se koristi grafički procesor, poznat i kao GPU. Što je to, kako radi i zašto je važno znati o tome, reći ćemo vam u nastavku.

Arhitektura GPU-a ne razlikuje se puno od arhitekture CPU-a, ali je više optimizirana za učinkovit rad s grafikom. Ako prisilite GPU da radi bilo kakve druge izračune, pokazat će svoju najgoru stranu.

Video kartice koje su spojene odvojeno i rade dalje visoka snaga, visoki napon, postoje samo u prijenosnim računalima i desktop računala. Ako govorimo o -uređajima, onda govorimo o integriranoj grafici i onome što nazivamo SoC (System-on-a-Chip). Na primjer, procesor ima integrirani grafički procesor Adreno 430 koji za svoj rad koristi kao sistemsku memoriju, dok je grafičkim karticama u stolnim računalima dodijeljena memorija dostupna samo njima. Istina, postoje i hibridni čipovi.

Dok višejezgreni procesor radi velike brzine, GPU ima mnogo procesorskih jezgri koje rade niske brzine i bave se samo proračunom vrhova i piksela. Obrada vrhova uglavnom se vrti oko koordinatnog sustava. GPU obrađuje geometrijske zadatke, stvarajući trodimenzionalni prostor na ekranu i dopuštajući objektima da se kreću unutar njega.

Obrada piksela je složeniji proces koji zahtijeva veliku procesorsku snagu. U ovom trenutku, GPU primjenjuje različite slojeve, primjenjuje efekte i čini sve kako bi stvorio složene teksture i realističnu grafiku. Nakon što su oba procesa obrađena, rezultat se prenosi na zaslon vašeg pametnog telefona ili tableta. Sve se to događa milijune puta u sekundi dok igrate igru.

Naravno, ova priča o radu GPU-a je vrlo površna, ali dovoljna je da steknete dobru opću predodžbu i da možete nastaviti razgovor s prijateljima ili prodavačem elektronike ili shvatiti zašto se vaš uređaj toliko zagrijava tijekom igra. Kasnije ćemo svakako raspravljati o prednostima određenih GPU-a pri radu s određenim igrama i zadacima.

Na temelju materijala s AndroidPit-a

Znate li kako odabrati poželjniji grafički procesor od dvije dostupne opcije za pokretanje aplikacije ili igre? Ako ne, predlažem vlasnicima prijenosnih računala da pročitaju ovaj članak.

Danas čak i prosječno prijenosno računalo u smislu cijene i performansi dolazi s dvije video kartice. Prvi, koji radi prema zadanim postavkama, ugrađen je, drugi je diskretan. Dodatni GPU uglavnom se nalazi na modelima prijenosnih računala za igranje, ali nije neuobičajeno pronaći ga i na postavkama koje nisu za igranje.

Od ugrađenih, izbor je mali i obično je to Intelov čip, ali diskretni mogu biti Nvidia ili AMD. Ovo su najčešći proizvodi kojima korisnici vjeruju. A proizvođači, prije svega, pokušavaju dovršiti uređaje na temelju naših preferencija.

Pogledajmo sada ukratko proces interakcije između dvije video kartice. Kada zahtjevi bilo koje pokrenute aplikacije premašuju mogućnosti integrirane kartice, vaš se sustav automatski prebacuje na diskretnu karticu. To se uglavnom događa kada počnete igrati igre.

Kao što je gore spomenuto, tržištem osobnih računala dominiraju dva glavna proizvođača grafičkih procesora. Vrijedno je napomenuti da Nvidia najčešće koristi relativno nova tehnologija"optimus" Njegova funkcionalnost leži u činjenici da kad god otkrije da program ili igra treba dodatne, snažnije resurse, automatski se koristi namjenski GPU.

Sada ću vam pokazati kako možete jednostavno prisiliti aplikaciju da koristi visokoučinkoviti ili integrirani GPU po izboru korisnika. Ovo će se tek danas pokazati s NVIDIA-om i Intelom.

GRAFIČKI PROCESOR

Otvori ploču NVIDIA upravljanje. Najjednostavniji i brz način- ovo je kliknuti desni klik mišem na odgovarajuću ikonu koja se nalazi na programskoj traci u donjem desnom kutu. Idite na izbornik "Radna površina" i potvrdite okvir pored "Dodaj stavku u kontekstni izbornik".

Sada, nakon ovih jednostavne akcije, možete kliknuti desnom tipkom miša na prečac bilo koje aplikacije i u stavci izbornika koja se pojavi odaberite jednu od dvije mogućnosti pokretanja.

KONTINUIRAN POČETAK

A ako odlučite uvijek koristiti samo diskretnu video karticu, trebate otići na odjeljak "Upravljanje 3D postavkama" na upravljačkoj ploči, odaberite karticu " Postavke softvera"I instalirajte potrebnu igru ​​ili program u koraku 1, au koraku 2 odaberite željenu video karticu, zatim kliknite na gumb "Primijeni".

To je sve! Posjetite i provjerite sve dostupne računalne savjete. Postanite član naše FB grupe gdje možete dobiti pomoć, sudjelovati u raspravama ili objaviti svoje stajalište.

Malo korisnika zna da video kartice mogu učiniti puno više od pukog prikaza slike na monitoru. Koristeći CUDA, Stream i druge slične tehnologije, možete značajno povećati performanse svog računala preuzimajući druge izračune osim svojih. Princip rada bit će opisan u nastavku.

Za prikaz kontinuiranih okvira na zaslonu u bilo kojoj modernoj igrici, računalo zahtijeva dobre performanse. Vrijedno je pretpostaviti da moderne video kartice odgovaraju performansama najnovije verzije procesori.

Vrijedno je napomenuti da kada je video adapter u stanju mirovanja i ne vrši obradu slike, njegove mogućnosti ostaju nezahtjevane. Da biste izbjegli takve zastoje i da biste mu mogli dodijeliti neke odgovornosti, što će smanjiti opterećenje procesora, potrebno je koristiti posebne opcije ubrzanja računala. Ispod će biti detaljne upute o tome kako ova tehnologija radi, što može povećati performanse računala.

Kako video kartica povećava brzinu računala?

Samo posebne aplikacije. Ovi se programi mogu kombinirati s video karticom i koristiti jednu od 4 tehnologije fizičkog ubrzanja.

CUDA. Ovaj razvoj kreirala Nvidia Corporation. Ova se tehnologija može koristiti za složene računalne manipulacije i za uređivanje videa i slika.

Stream. Ova tehnologija mehaničkog ubrzanja slična je prvoj, ali ju je razvio proizvođač video adaptera AMD.
Obje ove tehnologije podržavaju svi operativni sustavi osim Mac OS-a i koriste se samo s video karticama odgovarajućeg proizvođača. Kreatori softvera prisiljeni su dodatno raditi kako bi video kartice oba programera mogle povećati brzinu svojih aplikacija. Ispod su tehnologije koje mogu raditi s pločama oba proizvođača.

OpenCL. Apple je ovu tehnologiju objavio 2008. godine i podržavaju je svi operativni sustavi i bilo koji softver. Međutim, danas ne postoje aplikacije za ubrzavanje vašeg računala pomoću ove tehnologije. Osim toga, u smislu povećanja produktivnosti, OpenCL značajno zaostaje za prve dvije tehnologije.

DirectCompute. Ovu tehnologiju ugradio je Microsoft u DirectX 11, ali može raditi samo na operativnim sustavima Windows 7 i Vista, i to s malim paketom aplikacija.

Kakvo povećanje performansi pruža video kartica?

Povećanje izravno ovisi o grafičkom adapteru i performansama drugih elemenata računala. Povećanje performansi određeno je pomoćnim programima i izvršenim operacijama. Na današnjem prosječnom računalu, brzine konverzije video zapisa visoke kvalitete mogu se povećati do 20 puta. Ali uređivanje fotografija s filtrima i specijalnim efektima može ubrzati tristo puta.

Što utječe na visoku produktivnost CUDA i sličnih tehnologija?

Prilikom izvođenja složenih zadataka, CPU na matičnoj ploči u početku dijeli proces na nekoliko manjih, a zatim ih obrađuje uzastopno. Dobiveni međurezultat stavlja se u mali ali brza memorija procesor. Kada se memorijski odjeljci popune, datoteke se premještaju u predmemoriju, koja se također nalazi u procesoru. Ali potrebno je dosta vremena za razmjenu informacija između procesora i RAM-a, tako da brzina nije velika.

Video kartice ponekad mogu izvesti takve manipulacije mnogo brže. Na to može utjecati nekoliko okolnosti. Jedan od njih je paralelno računanje. Ako je potrebno izvršiti nekoliko takvih manipulacija, neke od njih može izvršiti grafički modul zajedno s procesorom.

Na primjer, kada radite s videozapisima ili slikama, uslužni program treba promijeniti ogroman broj piksela, au isto vrijeme koristiti metode koje se ponavljaju. Posebno za to, grafički adapter ima stotine malih procesora, koji se nazivaju strujni.

Osim toga, potreban je brz pristup memoriji. Po analogiji sa središnjim procesima, grafički adapteri također imaju svoju međumemoriju i RAM. Ali u ovom slučaju imaju mnogo memorijskih registara velike brzine, što značajno povećava brzinu izračuna.

Koliko procesora za strujanje imaju video kartice?

Na to utječe model procesora. Na primjer, GeForse GTX 590 ima dva Fermi modula, od kojih svaki ima 512 streaming CPU-a. Jedna od najmoćnijih grafičkih kartica iz AMD-a - Radeon HD 6990 - također je opremljena s par modula, od kojih svaki ima 1536 procesora. Ali uz sve to, HD 6990 je značajno inferioran GTX 590 u brzini.

Kako pokrenuti CUDA ili Stream?

Ne biste trebali ništa pokretati jer su tehnologije sastavni dio hardvera video kartica. Nakon što upravljački program grafičkog adaptera instalira aplikaciju koja podržava neku tehnologiju, tada će se brzina računala automatski povećati. Za punu izvedbu morate instalirati najnoviji upravljački program.
Vrijedno je napomenuti da korisnici AMD video kartice trebate preuzeti i instalirati AMD Media Codec Package.

Zašto sve komunalne službe ne rade s ovim tehnologijama?

Sve dok OpenCL ne bude široko prihvaćen, kreatori softver Svaka aplikacija mora biti prilagođena da može raditi s Nvidia i AMD video karticama. Ali neće svaki proizvođač imati dodatne troškove.

Osim toga, nemaju sve aplikacije mogućnost pružanja konstantnog toka laganih izračuna koji se mogu odvijati paralelno. Ovo može izvrsno funkcionirati u kombinaciji s programima za uređivanje videa i grafike. Za poštanske radnike odn uređivači teksta ove tehnologije neće puno pomoći.

Super PC

Na primjer, kinesko računalo Tianhe-1A ima 7168 Nvidia grafičkih modula, koji podržavaju izvrsne performanse. Istovremeno se u sekundi izvrši 2,5 trilijuna izračuna. Ovo računalo troši 4 megavata energije. Toliko struje troši grad od pet tisuća stanovnika.

Može li grafički adapter zamijeniti središnji?

Takva zamjena je nemoguća. Dizajn ovih procesora je potpuno drugačiji. CPU je univerzalna računalna jedinica koja ima sposobnost obrade i slanja informacija drugim elementima osobnog računala. S druge strane, video kartice su visoko ciljani uređaji, unatoč činjenici da izvode mali broj operacija, ali istovremeno velikom brzinom.

Što je u budućnosti: univerzalni čipovi

Kako bi povećali performanse CPU-a, Intel i AMD neprestano dodaju jezgre svojim procesorima. Osim toga, neprestano dodaju nove tehnologije koje mogu povećati učinkovitost računalnih operacija i mogućnost paralelne obrade informacija.

U usporedbi sa središnjim procesorima, video kartice već imaju više jednostavne jezgre, koji mogu vrlo brzo izvesti složene izračune.

Ali ispada da se početne razlike u principima rada video kartice i CPU-a postupno brišu. Stoga je razvoj univerzalnog čipa vrlo logičan. Danas korisnici računala mogu iskoristiti puni potencijal video kartice bez skupih grafičkih čipova.

Moderni procesori vodećih programera, na ovaj trenutak može pokazati sposobnost povezivanja grafičkog adaptera i CPU-a i rada kao jedne univerzalne računalne jedinice.

U bilo kojem od čipova CPU jezgre a video kartice su smještene na jednom čipu. To pruža mogućnost brze podjele računalne manipulacije između jezgri. Te tehnologije koje se koriste nazivaju se Intel Quick Sync i AMD App. U ovom trenutku već postoje pojedinačne prijave koji koriste sličnu tehnologiju.

Općenito, ovo je sve što trebate znati o razlikama središnji procesor i video kartice. Kao što se može vidjeti iz napisanog, grafički procesor je sposoban obavljati neke centralne operacije, posebno moderna računala sa snažnim video karticama.

Dobili smo mogućnost praćenja podataka o performansama grafičke procesorske jedinice (GPU). Korisnici mogu analizirati ova informacija razumjeti kako se koriste resursi grafičke kartice, koja se sve više koristi u računalstvu.

To znači da će svi grafički procesori instalirani na računalu biti prikazani na kartici Performanse. Osim toga, na kartici Procesi možete vidjeti koji procesi pristupaju GPU-u, a podaci o korištenju GPU memorije nalaze se na kartici Detalji.

Kako provjeriti je li GPU performans preglednik podržan

Iako Task Manager nema posebne zahtjeve za nadzor procesora, memorije, diska ili mrežni adapteri, situacija s GPU-ima izgleda malo drugačije.

U sustavu Windows 10 informacije o GPU-u dostupne su u Upravitelju zadataka samo kada se koristi Windows Display Driver Model (WDDM) arhitektura. WDDM je arhitektura grafičkog upravljačkog programa za video karticu koja omogućuje prikazivanje radne površine i aplikacija na zaslonu.

WDDM osigurava grafička jezgra, koji uključuje planer (VidSch) i upravitelj video memorije (VidMm). Upravo su ti moduli odgovorni za donošenje odluka pri korištenju GPU resursa.

Upravitelj zadataka prima informacije o korištenju GPU resursa izravno od planera i upravitelja video memorije grafičke jezgre. Štoviše, to vrijedi i za integrirane i za namjenske GPU-ove. Za ispravan rad Značajke zahtijevaju WDDM verziju 2.0 ili noviju.

Da biste provjerili podržavaju li vaši uređaji pregled GPU podataka u Upravitelju zadataka, slijedite ove korake:

  1. Koristite kombinaciju Windows tipke+ R za otvaranje naredbe Pokreni.
  2. Unesite naredbu dxdiag.exe da biste otvorili DirectX Diagnostic Tool i pritisnite Enter.
  3. Idite na karticu "Zaslon".
  4. U desnom odjeljku "Upravljački programi" pogledajte vrijednost modela upravljačkog programa.

Ako koristite WDDM 2.0 ili noviji, Task Manager će prikazati podatke o korištenju GPU-a na kartici Performance.

Kako pratiti rad GPU-a pomoću upravitelja zadataka

Za praćenje podataka o performansama GPU-a pomoću Upravitelja zadataka, jednostavno desnom tipkom miša kliknite programsku traku i odaberite Upravitelj zadataka. Ako je kompaktni prikaz aktivan, kliknite gumb Više detalja, a zatim idite na karticu Performanse.

Savjet: Za brzo pokretanje Upravitelja zadataka, možete koristiti tipkovnički prečac Ctrl + Shift + Esc

Kartica izvedbe

Ako vaše računalo podržava WDDM verziju 2.0 ili noviju kasnija verzija, zatim na lijevoj ploči kartice Izvođenje Prikazat će se vaš GPU. U slučaju da je na sustavu instalirano više GPU-ova, svaki GPU bit će prikazan pomoću broja koji odgovara njegovoj fizičkoj lokaciji, kao što je GPU 0, GPU 1, GPU 2 itd.

Windows 10 podržava više GPU uparivanja koristeći Nvidia SLI i AMD Crossfire načine. Kada se na sustavu otkrije jedna od ovih konfiguracija, kartica Performanse označit će svaku vezu pomoću broja (na primjer, Veza 0, Veza 1 itd.). Korisnik će moći vidjeti i provjeriti svaki GPU unutar paketa.

Na stranici s određenim GPU-om pronaći ćete skupne podatke o izvedbi koji su općenito podijeljeni u dva odjeljka.

Odjeljak sadrži trenutne informacije o motorima samog GPU-a, a ne o njegovim pojedinačnim jezgrama.

Upravitelj zadataka prema zadanim postavkama prikazuje četiri najtraženija GPU motora, koji prema zadanim postavkama uključuju 3D, Rip, Video dekodiranje i Video Processing, ali možete promijeniti te prikaze klikom na naziv i odabirom drugog motora.

Korisnik čak može promijeniti prikaz grafikona na jedan motor klikom desnom tipkom miša bilo gdje u odjeljku i odabirom opcije "Promijeni grafikon > Jedan motor".

Ispod grafova motora nalazi se blok podataka o potrošnji video memorije.

Upravitelj zadataka prikazuje dvije vrste video memorije: zajedničku i namjensku.

Namjenska memorija je memorija koja će se samo koristiti grafička kartica. Obično je to količina VRAM-a na zasebnim karticama ili količina memorije dostupna procesoru na kojem je računalo konfigurirano da bude izričito rezervirano.

U donjem desnom kutu prikazuje se parametar "Hardverski rezervirana memorija" - ova količina memorije rezervirana je za video upravljački program.

Količina dodijeljene memorije u ovoj particiji predstavlja količinu memorije koju aktivno koriste procesi, a količina zajedničke memorije u ovoj particiji predstavlja količinu memorije sustava koja se troši za potrebe grafike.

Osim toga, na lijevoj ploči pod nazivom GPUs, vidjet ćete trenutnu iskorištenost GPU resursa kao postotak. Važno je napomenuti da Upravitelj zadataka koristi postotak najprometnijeg motora za predstavljanje ukupne upotrebe.

Da biste vidjeli podatke o izvedbi tijekom vremena, pokrenite GPU-intenzivnu aplikaciju, kao što je video igra.

Kartica Procesi

Također možete pratiti performanse GPU-a na kartici Procesi. U ovom odjeljku pronaći ćete općeniti sažetak za određeni proces.

Stupac GPU prikazuje najaktivniju upotrebu motora za predstavljanje ukupne upotrebe GPU resursa određenog procesa.

Međutim, ako više motora prijavi 100-postotnu iskorištenost, može doći do zabune. Dodatni stupac "GPU Core" pruža detaljne informacije o motoru koji se učitava ovim procesom.

Zaglavlje stupca na kartici Procesi prikazuje ukupnu potrošnju resursa svih GPU-ova dostupnih u sustavu.

Ako ne vidite te stupce, desnom tipkom miša kliknite bilo koje zaglavlje stupca i označite odgovarajuće okvire.

Kartica pojedinosti

Prema zadanim postavkama, kartica ne prikazuje informacije o GPU-u, ali uvijek možete desnom tipkom miša kliknuti zaglavlje stupca, odabrati opciju "Odaberi stupce" i omogućiti sljedeće opcije:

  • GPU jezgra
  • Namjenska GPU memorija
  • Zajednička GPU memorija

Kartice memorije prikazuju ukupnu i dodijeljenu memoriju koju koristi određeni proces. Stupci GPU i GPU Core prikazuju iste informacije kao na kartici Procesi.

Kada koristite karticu Detalji, morate biti svjesni da dodavanje korištene memorije svakog procesa može biti veće od ukupne dostupne memorije jer će se ukupna memorija brojati više puta. Ove su informacije korisne za razumijevanje upotrebe memorije procesa, ali trebali biste koristiti karticu Performanse da biste vidjeli detaljnije informacije o upotrebi grafike.

Zaključak

Microsoft je predan pružanju korisnicima preciznijeg alata za grafičke performanse od aplikacije trećih strana. Imajte na umu da je rad na ovoj funkciji u tijeku i da su poboljšanja moguća u bliskoj budućnosti.



2024 wisemotors.ru. Kako radi. Željezo. Rudarstvo. Kriptovaluta.