2009. május 31., vasárnap

Hardverek tesztelése szoftverekkel - fogyasztási adatok

Általában tuning közben jön elő az a probléma, hogy valamivel ellenőriznünk kell, hogy ugyanolyan stabil maradt e a rendszerünk, mint előtte. Fontos megemlíteni, hogy csak az a használható tuning, aminél a hardver a felhasználási környezetben pontosan ugyanazt nyújtja, mint előtte. A kellően nem kitesztelt hardverek sok gondot okozhatnak felhasználójának, egyértelműbb fagyásokkal, vagy alattomosabb időnkénti hibákkal, amik akár a háttértárak tartalmát is tönkretehetik anélkül, hogy "láványos" hibákat okoznának: gondoljunk csak bele, hogy egy hibásan működő processzor hibásan ír valamit a memóriába, ami hibásan kerül ki a háttértárra is (rossz esetben egy leíró táblába - összeborítva a tárat). Természetesen ez a folyamat többi láncszeménél is előfordulhat.

Az esetek legnagyobb részében a gondot melegedés okozza, mivel a hőmérséklet növekedésével folyamatosan csökken a elérhető órajel. Ezeket gyárilag természetesen egy széles felhasználói spektrumra állapítják meg, így helyet hagynak a jobb hűtési megoldásokkal rendelkező felhasználó számára, hogy magasabb órajelen használja a melegebb helyre tervezett hardveret. Nem akarok belemenni nagyon a tuning problematikájába, mert bejön még a feszültség, ennek stabilitása, stb - órákon át lehetne ragozni.

Ezt a kis kitérőt csak azért ejtettem, hogy egyértelművé váljon, hogy miért lehet fontos a fogyasztási adatok vizsgálata - a jelenlegi félvezetők nagyon rossz hatékonysággal működnek, így sok esetben igaz azaz ökölszabály, hogy amelyik program nagyobb fogyasztást produkál, akkor az nagyobb hőtermeléssel is jár, ez pedig a fent említett okok miatt jobban alkalmassá válik arra, hogy ellenőrizzük szélsőséges helyzetekben is a stabilitást. Aki járatos a tuningban az természetesen tudja, hogy ez nem mindenütt igaz (más is válhat szűk keresztmetszetté). Lefuttattam pár tesztelésre használt programot, és pár játékot.

A tesztkonfig nem egy extrém masina - a fő fogyasztók egy Q6600 processzor szolid tuninggal (@3.2g, 1.26v) és egy órajel emelt ATI HD4890 (@920/4300). Ennek ellenére szembetűnő lehet, hogy így sem volt nehéz 400 watt feletti felvételt kicsikarni belőle. Ugyanez a konfig jelentősebb feszültségemelésekkel simán produkálna még plusz 100 wattot. Meglepő ugye? És akkor nem beszéltünk egy több GPU-val ellátott rendszerekről - a processzorok ma már csak másodhegedűsök ebben a "játékban".

Ezért nem mindegy, hogy a review-t készítő teszterek mit használnak - sajnos a mai napig bevett gyakorlat hogy pl. konfigurációk tesztelésére megelégszenek egy Cinebench vagy egy 3DMark lefuttatásával, és utána kijelentik, hogy töredékét nem használjuk ki a tápnak. Pedig előfordulhat olyan helyzet is, hogy ennek közel másfélszeresével terheljük a tápunkat, anélkül, hogy ez feltűnne. Azonban való igaz, átlagos játékoknál nem szökik fel ennyire - de már csak ezért sem alkalmasak legtöbbször tesztelésre.

A videokártyák stabilitására még most sem fektetnek elég hangsúlyt, és hogy kicsit cáfoljam magamat - ezen a konfiguráción a GPUTool bizonyult a legagresszívebb teszelési módszernek. Valószínűleg a Furmark alkalmasabb lenne minden szempontból, csak ott nem kapunk visszajelzést mindenegyes hibás pixelről - a szem pedig nem megfelelő arra, hogy kiszűrjünk minden egyes hibát, a GPUTool megteszi ezt nekünk. Jelenleg egy óránként előforduló hibás pixel nyilván nem fog senkinek feltűnni, fagyáshoz sem vezet jó eséllyel, de a jövőben fontos, hogy ne számoljon "félre" a GPU, mert GPGPU-s környezetben könnyen visszaüthet ha az alkalmazás megakad a visszaadott hibás adatokon.