Zpět na článek

Diskuze: ATI Radeon HD4800 - další detaily

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 11:51

Komentáře tohoto uživatele máš zablokované.

To nebude žádná novinka - pouze to co platí už nějakou dobu - že GPU je schopno dělat i něco jiného než počítat grafiku. Zvládaly to i starší jádra ATI. Zvládá to nVidia ... a nepoužívá se to nikde.

A opět to bude docela k ničemu protože ani tohle GPU nebude mít dost výkonu na to, aby počítalo grafiku, kterou tomu naloží, natož aby mohlo část výkonu obětovat na počítání fyziky.
- Inverted Cat

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 16:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Na spocitani kolize 10241024 objektu...ti staci stejnej pocetni vykon..jako kdyz karta ma vykreslit target 10241024 s 9x ctenim textury.. spis jeste mensi .. Tzn blaboly o tom , ze karta neco staci nebo nestaci jsou k nicemu.. ATI nema o nic horsi karty nez NVIDIE..ba naopak.. DX10.1 etc ..Posuzovat vykon podle her , muze jen clovek co tomu nerozumi... tzn vykon zalezi na propustnosti... tzn Texels/s(s DDR5 bude asi dost velka ) na frekvenci a poctu Shaderu . Trochu mne mrzi ze ATI podleha tlakum a pridava tam featury jako fetching ve Vertex shaderu. KDyz render to vertex buffer je daleko promakanejsi. Kazdej kdo grafiku programoval mudi potvrdit. Ze kdyz porovname Posledni modely ATI vs NVIDIE.. neni co resit. ATI je technologicky nekde jinde. A v porovnani s cenou uz vubec radeji nemluvit. Na ati kartach HW funguje komplexne Priklad:..128 bit render targety na NVIDII.. k smichu :) Pro mne je volba jednoznacna dokud bude mit ATI lepsi grafiky nez NVIDIA budu je kupovat.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 5. 2008 14:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Achjo... tvoje reakce (Samboush) tak trochu nesouvisejí s tím co sem napsal - to že tam přidáš pár pseudoodborných výrazů a nesouvislých úvah to moc nezlepší. Tak to zkusím znovu a polopaticky:

1) Je mi úplně jedno jestli Losna nebo Mažňák a kdo z nich je jak vyspělý (protože to na to co sem napsal nemá za současného stavu tehniky žádný vliv).

2) GK jsou dělány chtě nechtě především na hry - ostatní využití tohoto typu akcelerátorů je okrajové (důkaz např. i název: GAME physics processing...)

3) V současnosti není k dispozici žádné grafické řešení, které by zvládlo třeba Crysis tak (při plných detailech a nejvyšším dostupném rozlišení), aby další zvýšení výkonu - FPS nepřišlo k dobru. Navíc Crysis není ultimátní počítačová grafika (= dá se vymyslet a napsat lepší = složitější a náročnější a dá se takový vývoj očekávat). = žádná současná karta na současnou grafiku NESTAČÍ

4) Logickým výsledkem je, že GK po většinu času jedou a dlouho ještě pojedou na plný výkon - a nedělají nic jiného než počítají grafiku.

5) Počítání fyziky není triviální záležitost. Je sice možné použít GPU k provádění tohoto druhu výpočtů, ale je třeba zvážit za jakou cenu. Vzhledem k výše uvedenému jakékoliv vyčlenění části výpočetního výkonu GPU pro fyziku bude mít nemalý dopad na grafický výkon, který bude logicky nižší a to minimálně o nějakých 15-20%. (situace s detekcí a reakcí kolizí 1024^2 objektů ještě daleko více). Navíc GPU není schopno dělat všechny výpočty potřebné pro fyziku - resp některé dokáže dělat pouze za cenu ohromného plýtvání výkonem.

Celé je to jen filozofická otázka - obětovat 20% už tak nedostačujícího výkonu GPU na fyziku (kterou ruku na srdce se dá vyřešit i jinak)?
- Inverted Cat

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 16:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Posuzovat výkon podle her je podle tebe blbost? A můžu se zeptat na co jinýho se tak ty grafiky používají (pominu-li CAD kde sou zase profesionální karty)? Nebýt 3D her, tak nám všem na akcelerování 3D desktopu stačí integrovaná. To že ATI vyrábí složitější karty s nižším výkonem než konkurence, není podle mě zrovna známka technické vyspělosti. ;-)
- Smarty

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 5. 2008 18:02

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Inverted Cat: 1,2,3,4,5 ) GPU = CPU. GPU je proste procesor. kterej je zaclenen do nejaky celkovy architektury. Ma svoji instrukcni sadu , svuj mikro kod. Do pameti pristupuje pres nejakej radic..ATD. Primarne je urcen k paralelni praci s Vertexama(vrcholy) a pixelama. Prave diky svemu squele fungujicimu paralelismu se hodi na fyzikalni vypocty. Ale jak na jake. Na kolizi auticka s medvidkem zrovna moc ne, ale na kolizi tisicu stejnejch nebo podobnejch kulicek a kosticek ano.Aktualni Shaderovej model.. umoznuje napriklad osahavat sousedni Vertexy..co se primo hodi na simulaci tkanin, vody, nebo v kombinaci s PS kouru ohnu atd.. Vyhoda vyuziti GPU na tento druh vypoctu je prave jen a jen ten paralelismus. PRedstav(zjednodusene) si 320 shaderu kazdej pracuje s jednim pixelem na obrazovce pri rozliseni 10241024... to je hafo pixelu.. a ted si ty pixely.. nahrad onformaci o necem jinym treba o nejaky ty kosticce(i kdyby to zabralo 4x4 pixely na jednu kosticku). je to furt 65535 vypoctu.. ktere te stoji stejne jako jedno vykresleni. Nebo si predstav ze mas 10241024 vrcholu a muzes si snima delat co chces s 320 na jednou a a jeden pruchod mas pekne zasmodrchany prosteradlo. Coz "zadnej" procesor nezvladne. Tnz u GPU se na pocitani fyziky pouziva hlavne jeji brutalni vykon. Kdezto u CPU nezalezi na brutalnim vykonu(protoze tam zadnej neni) ale na strukture dat. . Zas bych z toho nedelal takovou vedu. Tak urcite Hry tahnou vykon tehle komponent nahoru. Ale dneska uz si bez poradny grafiky neskrtnes.Ani pri prehravani videa atd.. Je jen otazka casu kdy se pocetni vyhody GPU (ryhla pamet , paraelismus,dnes jiz komplexni instrukni sada) vyuzije na klasicky pocitani..viz SETI a podobne. Na nejaky monstrozni nazvy jako Game Physs Processing se muzes vybodnout, je to jen PR. Ve vysledku je to vse jen vypocet a je jedno jetli pocitam vyslednou barvu pixelu, kolizi vektoru z kouli, objem telesa, nebo neco z kvantovy fyziky :) proste je to furt pocitani. Treba se casem dockame i nejakyho compileru z C.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 17:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Smarty: Podle ceho usuzujes , ze karty ATI jsou mene vykonejsi nez Karty NVIDIE.. podle FPS v crysis? :) GPU je seriozni pocetni jednotka... a tak je treba k ni pristupovat. To ze se stale moc nevyuziva je problem vyvojaru. Jze pouzit prakticky na cokoli..od dekodovani ci enkodovani videa/zvuku indexaci ci vyhledavani databazi. Matematicke vypocty vseho druhu. To se podle mne brzo zmeni.. Jo na CAD se pouzivaj profesionalni grafiky.. myslis jako treba ATI FIRE GL? ..zkus najit "deset" odlisnosti od jejich ekvivalentu v main streamu ATI :) Otazka zni bujto porovnavame vykon ve hrach. Kde u kazdyho testovanyho titulu je vetsinou ..Best play on Intel blalba nebo NVIDIA :). Nebo porovnavame realnou kvalitu a rychlost grafiky. NVIDIA cpe prachy do vyvojaru her o sto set. Prave taky proto, ze napriklad NVIDIA vs kompatibilita s DX je vdycky horsi nez u ATI. Ale to je na dlouho. Kdo nechce nevidi.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 17:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Samboush ja ta zeriem, konecne to niekto povedal nahlas. Nemam sice take znalosti o vsetkych tych ficurinach, ale mozem z dlhorocnj skusenosti mozem povedat len jedno - z pohladu zobrazovania ako takeho, mala ATI vzdy lepsie karty.

Pamatam si na prvu nVidiu co som mal (nejaka 32MB karta) - vsetko bolo ok, pokial som nezapojil 22" iyamu s rozlisenim 1600x1200 - grafika bola uplne nanic, pri takom rozliseni sa este aj kurzor pohyboval trhane. Vysmaril som ju a dal som tam staru 16MB ATI-nu. Nemohol som uverit, obraz bol po prve podstatne lepsi a po druhe vsetko fungovalo ako malo. Atina bola asi o rok a pol starsia.

O par rokov neskor: v jednom pracovnom kompe bola GF5600; ked som videl ten obraz, hned som ju nahradil za R9600, ktora mala neporovnatelne ostrejsi obraz. Dokonca aj uplne stare Radeony serie 7xxx a 8xxx mali daleko lepsi obraz. Ked prisli nove LCD s DVI portom, tak vsetky GF5600 isli do suflika, lebo nezvladali 1600x1200 cez DVI. Ciste haraburdy. R9600 fungovala cez DVI ako vino, pricom je to rovnaka generacia kariet.

O tri roky neskor som cital na nete, ze GF 7600 ma super obraz cez DVI a tak som sa nechal na nu nahovorit. Chyba. Obraz sa mi uz od zaciatku nepozdaval a to nehovorim o s-video vystupe ktory mal uplne posunute farby a kontrast. Po case mi karta zacala liezt kvoli ovladacom na nervy, tak som ju vysmaril a dal som tam stary R9600 - oci mi opat skoro vypadli - ten obraz bol neporovnatelne lepsi ako pri GF7600, co je o dve generacie novsia karta, o TV vystupe ani nehovorim.

Zaver - moznoze nvidia dosahuje lepsi vykon v hrach, ale inak su to mizerne karty. A teraz mi mozete dat blabol.
- Phillip Morris

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 5. 2008 20:03

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @cyberpaul: je jedno jak se to bude jmenovat..Hlavne ze to bude univerzalni a vygeneruje to neco co pobezi na vsem prislusnejch vlastnosti.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 19:18

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Phillip Morris: Ok možno má krajší obraz (Na DVI síce ťažko lebo to ide digitálne takže ho skutočne horší mať nemôže,) ale nikdy si s ATInou nezahrám WoWko v linuxe pretože jednoducho od rady X1XXX vyššie včetne HD 2/3 nejde poriadne 3D akcelerácia vďaka ich "kvalitným" ovládačom a to ani nehovorím o tom že AGP verzia HD 2XXX nejde pod linuxom s firemnými ATI ovládačmi ani len nabootovať lebo zhadzuje systém (a je im to jednu už vyše pol roka od nahlásenia bugu) . Takže mi zostáva jediná možnosť a to nvidia ktorá nikdy nemala žiadne problémy v linuxe a ak mala tak sa opravili do týždňa...
- Bruno Kremel (Josko)

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 19:14

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Phillip Morris: Máš ho tam :-)

Tyhle nařčení už jsem na netu četl mockrát, ale nikdo nikdy nepředložil objektivní důkaz. Jediný srovnávací screenshoty stejné scény (jednou ATI, jednou nVidia) co jsem viděl, se nakonec ukázaly jako fake.
- cyberpaul

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 19:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Bruno Kremel (Josko): Aj ja som si myslel ze DVI vyriesi problem NV kariet, bohuzial prax je ina (aspon podla mna).
- Phillip Morris

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 19:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @cyberpaul: Objektivny dokaz nemam a ani som ho nevidel. Subjektivne som vsak velmi sklamany z kariet od NV. Na druhej strane, vzdy ked si pozriem obrazky novych GF od XFX, tak som trochu nalomeny:) Skoda, ze XFX nerobi aj Ati.
- Phillip Morris

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 13:12

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Vobec netusim co si mam predstavovat pod pojmom "Game physics processing capability", ale ak by islo napr.o nejake API, ktore dovoli vyvojarom lepsie pristupovat k pocitacniu fyziky na GPU tak preco nie ? Nie vsade musi ist o super narocne hry, moze ist o aplikaciu kde pojde najma o pocitanie fyziky. A okrem toho si viem predstavit CrossFire riesenie, kde sa jedna karta bude starat o grafiku a ta druha o fyziku. Myslim ze na vypocty fyziky je stale lepsie (rychlejsie) pouzit GPU ako CPU.
- Siggy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 12:39

Komentáře tohoto uživatele máš zablokované.

Moc mě tyhle karty nazaujaly. Dobrý výkon, slušná cena, OBROVSKÁ spotřeba. Chtít 550W zdroj je fakt trochu moc, zvláště když hraju třeba CS 1.6 a ne zrovna Crysis, tak se spotřeba počítá. Takže 9600 je králem nadále.
- Blejk

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 13:21

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Naopak, spotřebu odhaduju jako velmi nízkou. Když si vezmeš, že pro radeon 3870(která má podobnou spotřebu jako ta gf9600) se doporučuje taktéž 450W a pro crossfire 550W, tak při předpokladu, že výkon 3870x2=4870, jsme na tom s náročností na zdroj o 100W lépe než dnes.
- Chroustostroj

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 13:29

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Presne, pokud je to pravda, tak ATi na stejnym procesu udela grafiku, ktera skoro stejne zere a dava dvojnasobny vykon. I kdyz tomu je tezky uverit.
- Menethor

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 14:02

Komentáře tohoto uživatele máš zablokované.

Hoši, nevím jak vy, ale já už sem natěšenej jak sfiňa ! :)

Jako malý dítě na dárky k narozenínám.
- Tomáš Musil

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 15:17

Komentáře tohoto uživatele máš zablokované.

Tu by som nebral az tak dramaticky, HD2900 Pro chce tiez minimalne 550W zdroj, ja mam 410W a funguje bez problemov. Ale dufam ze ta 512b zbernica nakoniec bude, ked ju moze mat 2900 tak preco nie o 2 generacie vyssia?
- Extremmist

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 15:20

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace pretoze ma omnoho mensie jadro, nemaju kam naplacat cin ani droty. jasne?
512bit je blbost, zbytocny by predrazila pcb, navyse idu pouzit 2x take rychle ddr5, tak preco davat 2x taku zbernicu, ked priepustnost sa aj tak zdvojnasobi...
- OmeGa

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 17:29

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace 4 * 128 bit(32 bit/Barva) target je podle mne 512 bit.. takze proc ne.. jako dneska 4*64 bit(16 bit/Barva) target 256 bit , karty puzivaj dnes pokud vim 128 bit floating pri vypocet v shaderech.. tzn mit moznost cist 512 bit v jednom taktu se pocita.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
15. 5. 2008 19:19

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Jenze pameti a jadro maj jiny takty, takze to tak uplne nehraje roli, staci, aby byla u jadra nejaka mala cache...
Matyas
- Matyáš Novák

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 5. 2008 18:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Matyáš Novák: no prave ze to neni pravda...U grafiky te zadna chache moc nevytrhne.. protoze vetsinou pracujes..s nejakym vetsim objemem dat.. napr muzes cist ze 16 textur.. a zapisovat do 4 targetu..nedovedu si dost dobre predstavit..jak by ta cache fungovala.. aby mela smysl.. proste u grafiky.. cim rychlejsi a sirsi pristup do pameti tim lepe.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
18. 5. 2008 23:49

Komentáře tohoto uživatele máš zablokované.

radeon 4000 bude pecka uz to vidimm .:-)
- Peter

Reklama
Reklama
Reklama