Zpět na článek

Diskuze: Radeon HD4870X2 poráží Geforce GTX280

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:32

Komentáře tohoto uživatele máš zablokované.

Ja som to vravel uz predtim kazdy daval len za blabol hmm nuz vidite sami...
ATI je pecka je naj...
- Peterx

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:55

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Nekdy v listopadu planuji koupit novy kompik, ale uz ted zacinam slintat na 4870. Pokud bude takova bomba jak to zatim vypada a hlavne za ten pulrok urcite jeste sakra zlevni, tak budu moct sestavit neuveritelne vykonej stroj za dva, tri masariky. ;-)
- Menethor

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:33

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Zase tak ruzove bych to hned nevidel, ale kazdopadne by uz bylo potreba na spicce obmenu, "zelene diktatury" uz bylo dost :).
- PeldaM

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:36

Komentáře tohoto uživatele máš zablokované.

no snad jo :) je potreba to trochu obnenovat :P
- RulezZzOr

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:38

Komentáře tohoto uživatele máš zablokované.

Obermaier urcite teraz skusa vsetky mozne nastavenia v 3D marku aby sa mu podarilo dosiahnut opacny vysledok.
- Phillip Morris

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:47

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace A hlavně bude trvrdit, že 3DMark je nevypovídající test... Otázka ovšem je, jestli 3DMark zvýhodňuje ATI, nebo ji hry znevýhodňují... To může znít divně, protože si nepořizujeme karty kvůli tomu, aby jsme si na nich pouštěli benchmarky, ale spíš si myslím, že se Futuremark snaží svůj 3DMark optimalizovaz nezávisle na všechny strany stejně, tak aby vypovídal o možnostech, nikoli použití... Hry naproti tomu kvůli nedostatku času a peněz na zaplacení více pracovníků se zaměřují zejména na optimalizace pro "toho rozšířenějšího výrobce," případně pro toho, který má víc peněz. Studia totiž z programu The way its meant to be played celkem dost profitují...
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:20

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Ak by toto bola naozaj pravda, tak to s ATI vyzera velmi dobre. Treba si uvedomit niekolko zakladnych veci:

1. Velkost jadra G280 je 572mm2, velkost jadra RV770 je 252mm2. Ak je R700 dvojcipova karta, potrebujeme dva cipy a sucet ich velkosti je stale nizsi ako pri G280. Naviac, cip G280 je velmi zlozity, vdaka comu je vytaznost vyroby velmi nizka, pohybuje sa momentalne na urovni 40%. Vytaznost vyroby R770 je velmi dobra vdaka tomu, ze je relativne maly a oproti jadru G280 menej zlozity. Myslim si, ze zaver z tychto konstatovani si urobi inteligentny clovek sam.

2.Bohuzial, ATI ma zly marketing. Ak by aj toto tvrdenie bola pravda a R700 bola vykonnejsia iba v syntetickych testoch, nevie toto marketing ATI vyuzit. Ake meno a povest dostane karta pri uvedeni na trh, toto mu uz zostava. Ak by PR oddelenie ATI dokazalo takuto vyhodu pri uvedeni R700 na trh zuzitkovat, tak to bude pre ATI velmi dobre.

3.Teraz bude zalezat na tom,kedy ATI uvedie notebookove verzie novych gr.kariet. Tam sa totiz robi velky biznis a obrat. ATI ma dobre nasliapnute, jej cipy su male, zalezi na tom,ako rychlo ich dokaze uviest na trh, pretoze v notebookoch zatial kraluje NVIDIA.

4.ATI ide spravnou cestou. Ich myslienka, ze potrebuju maximalizovat vykon na mm2 a potom bude zalezat iba na tom,ako dokazu cipy dobre skalovat je podla mna spravna. Kto nevidi krasu a hlavne spravnu filozofiu v tejto myslienke je podla mna blazon:-)
- R. V. H.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 19:55

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @R. V. H.: Že je výtěžnost 40 % tvrdí jen nějaký Demerjian, kterého Nvidia nepozvala na Editor's Day.

Pokud bude 4870 X2 ve všech hrách(ne jen v těch obvyklých osmi, které se pro testování karet většinou používají, protože mají integrované timedemo či benchmark) škálovat tak „dobře“, jako 3870 X2, připadá mi úchylné rozplývat se nad genialitou návrhářů. Dvouprocesorové karty byly a přinejmenším ještě nějaký čas budou jen z nouze ctnost.
- ad4ms

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:29

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @R. V. H.: Ju, a neodpustim si este trosku rypnut do Intelu a Nvidie:
B]Uvidite, ze pride ten cas, kedy Nvidia alebo Intel bude povodnu myslienku vyvojarov z ATI ze potrebuju maximalizovat vykon na mm2 a potom to bude iba zalezitost skalovania cipov vyhlasovat za svoju, a nikto si na to, ze s tym prisla povodne ATI ani nespomenie.[/B]
- R. V. H.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 20:45

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @ad4ms: Prosim,este raz si precitaj bod 4 a celu vetu. Tu nejde o jednoduche pridavanie dalsich jadier a skalovanie. Skus to este raz cele precitat, pochopit a potom ti dojde genialita tohoto vyroku a celej fylozofie.
...........................
Ze je vytaznost 40% tvrdi server TGdaily, Demerian tuto spravu iba prevzal:-)
...........................
Ze je viaccipove riesenie iba z nudze cnost? Vies ze o paralelnom programovani toto iste tvrdili cca 10-15 rokov dozadu zastancovia funkcionalneho programovania? Ze je buducnost v paralelizacii nevidi len ATI a AMD,ale aj Intel, IBM, SUN a dokonca aj Microsoft.
...........................
- R. V. H.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 21:46

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @R. V. H.: No ano, architektura se bude zlepšovat, ještě chvíli se bude i zmenšovat a zvyšovat frekvence, ale potom... Konec, pak už se bude jen paralerizovat s drobnými vylepšeními.. Možná by to výrobci grafik skládali tak snadno, jako se skládají jádra processorová...
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 14:45

Komentáře tohoto uživatele máš zablokované.

Staci zapojit 2x HD4870 do crosfire a mame tu soro presne HD4870X2 +- par percent. Momentalne su uz dostupne vo vecsom mnozstne v skladoch HD4850, caka sa len na uvedenie, keby niekto skusil ich dat do crosfite, hned by sme vedeli viac. Inac je to dost mozne ze porazi GF280, ked HD3850 je vykonejsia ako 8800GT, k tomu pripocitat crosfire a + 30 pervent na taktoch jadra a pameti....., nieje to nemozne...., nvidia tak by troska dostala na frak, predsa len vyroba Atiny bude lacnejsia ako vyroba velkeho cipu GF280. Nech to bude ako bude, ja si nekupim ani jednu, aj tak vpodstate ten vykon mi je nanic, kludne vyzijem s GF9600 alebo HD3850/512, viac momentalne netreba standardnemu hracovi a ani sa to skoro nezmeni, vecsina hier bude aj tak len prerabka z konzole.
- kapaaudio

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
7. 6. 2008 08:45

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace akoze standartny hrac si zahra na 9600 alebo na 3850 v pohode napriklad Crysis ? no to ani zdaleka ... nechapem ako niekto moze rozdelovat hracov ... no vacsina hier a prerabka z konzole ... to mozno ale najvacsie trhaky vyjdu vacsinou zas na PC ... a cim tak nVidia dostala na frak ? mozno cenovou konkurenciou AMD/ATi ... pozri si dobu kedy ATi zacala co i len kusok konkurovat nVidii ... teda prichod HD3870 ... pre nVidiu je to prestiz ze ma stale najvykonnejsie graficke riesenie ...
- Minčooo

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:00

Komentáře tohoto uživatele máš zablokované.

Lidi pametate ked grafarny staly 11,000 15,000 dokonca aj 20,000 a teraz HIGH END ZA STVORKU ALEBO PETKU ? NO TO MA PODRZ !
- Peterx

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:03

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Taky jde trochu o ekonomiku statu česko koruna je ted hodně silna kupní síla se zvyšuje koupíš si ted za 1kč víc výkonu než před 5 lety.
- David

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:11

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Peterx: Nejni to tak hrozne, pořad sme na tom lepe než před 10 lety, když si spočítáš průměrný plat a např. cenu benzínu, tak si ho ted pořad můžeš koupit skoro dvakrat víc než v letech 90-95.
- David

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 21:48

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @David: No skrz ty věčné stávky a odbory tu u nás celkem valí inflace... V USA, teď ale měli krizi větší, takže koruna proti dolaru dosti posílila(jenže opravdu výrazně jen proti dolaru).
- Aros

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:09

Komentáře tohoto uživatele máš zablokované.

taky sem fanda ATI,ale bojimse že nvidia se svim jádrem GT200b ati předežene a hlaně s tim jejich čipem na fyziku,tak ke konci roku má vyjít ATI radeon 5000 takže si nvidia zas ani neškrtne
- split

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:41

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Dovolim si nesuhlasit.
1. Z dlhodobeho hladiska pre Nvidiu nie je ATI najvacsi super. Je nim INTEL a jeho Larabee projekt. Nvidia musi urobit vsetko pre to,aby sa Larabee na trhu neuchytil a aby sa z neho nestal standard. Aj vdaka tomu ponuka svoje rozhranie pre fyziku zdarma-vratane ATI. Ak toto rozhranie prijmu vyrobcovia hier za svoje, tak to bude dalsie poleno pod kolena Larabee. A Nvidii sa podari presvedcit vyvojarov hier lahsie vtedy,ak to bude podporovat aj ATI, cize dnes cca spolu asi 95% trhu v oblasti samostatnych grafik. Pre Nvidiu by bolo pohromou,keby sa Larabee uchytil hoci len v nejakej konzole. Ze tam bude ATI nevadi, s nou sa Nvidia naucila zit, pre Nvidiu nie je ATI hrozba. Naopak, Intel je ta najvacsia hrozba, pretoze vdaka svojej velkosti, vyvojarskej zakladni, ekonomickej sile a pakami na vsetky casti trhu moze stanovit novy standard, v ktorom bude dominantny INTEL a Nvidia s ATI budu hrat iba druhe husle.
- R. V. H.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:13

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Osobně si myslim,že nějaký čip na fyziku je úplně zbytečný, takovou praci ti v pohodě zastane nějaký intel core quad a ještě si bude pořad jedno jadro valet šunky, jde jenom o to naprogramovat spravně hru aby ten cpu uměla využít.
- David

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:22

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Však práve že si bude minimálne jedno jadro váľať šunky.
Nevidím dôvod prečo by som kúpou GPU nezabil dve muchy jednou ranou keď mi ponúka PPU, takže nemusí meniť svoj dvojjadrový CPU.
- Gzur

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:24

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gzur: ja tim chtěl jen poukazat na to, že tim nvidia nic nevyhrala, když si do grafik narvala další procesor, který zní děla jen větší a větší přímotop a podle mého nazoru i zbytečně.
- David

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:40

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @David: Ale to máte ako s IGP GPU v čipsetoch, kde je toľko dekodérov a akcelerátorov všetkej možnej grafiky / H.264, VC-1, MPEG2-HD, AVS, Blu-ray playback, že prečo to nevyužiť. Samozrejme spotreba je dôležitá, ale to je v danom prípade vec Nvídie. Ja si aj tak myslím, že čo sa týka FPS v hrách /nikdy ma nezaujímali testy cpu a gpu/ bude mať nvidia navrch a to je predsa podstatné pre hráča a nie či sa tá, ktorá strana ukája nad benchmarkmi.
Čo im proste zostáva bojujú na veľa frontoch, kde tvrdia, že "Nepotrebujete nič viac, než celkom základné CPU,".
Tak uvidíme, ale že by mi to nejak žily trhalo nemôžem povedať.

- Gzur

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 21:52

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gzur: Nevím, jestli přesně chápu funkci CUDA, ale myslím, že to bude počítat to stejné jádro co grafiku. Takže to bude na úkor grafického výkonu, pravděpodobně ne až tak výrazně, ale když si vezmu vytížení procesoru, při většině her co hraju(okolo 40%...) ne že by se tak rychlost processoru úplně nepoznala. I při 50% to rychlejší zvádne rychleji než pomalejší, to je jasné, ale kdyby se to dobře poskládalo, jak tu někdo tvrdil, tj. dejme tomu souběžné počítání fyziky processorem a grafické karty obrazu, tak by to bylo ideální... Dovedu si představit, že optimalizace je nejhorší úsek vývoje hry, takže raději pomlčím...
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:15

Komentáře tohoto uživatele máš zablokované.

Cela tato zprava je bohapusta hloupost, a je ze stejneho soudku jako moje newska o GTX 280 ... akorat ze tady se sesly deti v hromadne "sebeukajecce" nad vykonem neceho, co vubec ani jeste neexistuje ... super dvoji metr. Ale jsem rad, ze jsme vam touto zpravou mohli udelat hezci vikend ...
- Obermaier Zdeněk

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:43

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace nemyslim si, domnivam se, ze hd4850/4870 bude druhy x1950pro a vznbikne situace podobna, jako sveho casu x1950pro vs 7900gs, kde 7900gs byla drazsi a ejste slabsi-zvlast s dalsimi a dalsimi ovladaci.

- Flank3r

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 16:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Obermaiere, neviem či sa týmito poznámkamy snažíš vyvolať flame a zvýšiť tak návštevnosť fóra alebo či si tým len ukájaš svoje úbohé, namyslené ego ... ale nech je to už akokoľvek je to veľmi trapné, hlavne od redaktore kedysi seriózneho PCT.

K téme: ten výkon X2 může byť pekný a nevidím důvod prečo by nemohla ohroziť GTX280. Ale vždy mi bude sympatickejšie riešenie s jedným čipom, preto ak by som si mal vybrať medzi týmito kartamy, kúpil by som NV.
- Frano1111

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:18

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Co si pomatuju, tak ty si tu newsku bral jako 100 % věc a když je tim padem ze stejného soudku, tak je nvidia výkonem docela pozadu.
- David

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:17

Komentáře tohoto uživatele máš zablokované.

Obermaier Zdeněk je zeleny MR.Frog :-)
- Peterx

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:46

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Naopak, ta prezentacia od ATI to podporuje. V nej jadro RV770 malo byt o nieco malo vykonnejsie ako nv8800gtx. Takze dve jadra RV770 mali byt vykonnejsie ako terajsie dvojcipove riesenie od nvidie. Malo sa ale vie o vykone g280. Hovori sa, ze by malo byt vykonnejsie ako terajsie dvojcipove riesenie od nvidie. Podla mna to bude na hrane. Zalezi od vykonu g280.
- R. V. H.

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 15:42

Komentáře tohoto uživatele máš zablokované.

Souhlasím, je to nějaké divné, a není to tak dávno, kdy sama ATi vydala promo podle kterého je to nesmysl, + výsledky 3D markům kde byla GTX 280 také lepší, jen se spekulovalo jak to bude s cenou za výkon. A ted tohle? To se mi nezdá. Jinak, prosím kde bylo že 4850 poráží 8800GT?
- Vít

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 23:32

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace v tych istych slajdoch na ktore sa odvolavas dokonca nie ze poraza 8800gt ale je priamy konkurent 9800gtx(4850 myslim)
- sorry nie

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:44

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace clovece, to byla hd4870 a ne hd4870X2 v tom srovnani a hd4870 je mainstream pravdepodobne vynikajiciho vykonu!
- Flank3r

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 16:29

Komentáře tohoto uživatele máš zablokované.

podla mna ak by to bola pravda,comu zatial verim tak na 30%, tak do konca roka tu mame GTX280X2 .. Nvidia by sa asi pred tym nezastavila, i ked si neviem predstavit chladenie a zdroj na taku kartu.a kolotoc sa kruti dalej ... :)
este by som chcel poziadat ceskych kolegov o vysvetlenie - přímotop je názov pouzivany pre vykurovacie telesa v domacnosti? slovensky ekvivalent radiatora?
- Jozef

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 20:56

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace My slovo radiátor používáme taky, ale v tomto případě se více hodí slovo přímotop, které označuje elektrický spotřebič používaný výhradně k vytápění (vykurovanie). Tvar radiátoru tento může, ale nemusí mít. Mezi přímotopy se řadí i různé infrazářiče apod. Radiátor je v podstatě pouze chladič nějakého média. Přímotop je el. spotřebič.
- Petr Machálek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:35

Komentáře tohoto uživatele máš zablokované.

Myslim, ze to bude stejny souboj, jako je tedka, tj HD3870 < 9800GTX < 3870X2 < 9800GX2.
Ted to akorat bude HD3870X2 ~ HD4870 < 280GTX < HD4870X2 < 280GX2
- Necroman

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 18:05

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace 280GX2 ehm, jedna 280 zozere vyse 200W. Dve by mohli mat tak 400W, to chces ako uchladit 2-slot chladicom? :) To bude zazrak ak take cosi vznikne. Jedine na 55nm.
Ono podla mna to ma teraz ATI pekne vymyslene, jej cipy su mensie, maju daleko lepsiu vytaznost a hlavne ich nema vela, co znizuje naklady. Nvidia urobila sialenstvo ked dala na 65nm postup 1,4M tranzistorov. Poprve neurobi dual kartu a za druhe vytaznost bude mat velmi malu.
- Minoos

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 17:46

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace az na ceny, nelze srovnavat high-endovou kartu s mainstremovou. Resp 6000kč vs 10000kč (hd4870 vs 260gtx), kdyz to uvedu +- konkretneji...
- Flank3r

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 19:09

Komentáře tohoto uživatele máš zablokované.

se divim autorovi clanku, ze pousti tento zavadejici blabol mezi naivni ctenare... ATI ma prevahu v 3Dmarku (viz test v nedavne novince HD4850 vs.GF9800GTX) plichta.. a vsichni vime jak je to v realu... takze HD4870X2 bude odhadem tak o 30% slabsi nez nova GTX280
- Michal Ch.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 22:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace No ja ti neviem. Skus si prepocitat hruby vykon 4870 a 280. Dve 4870 maju daleko vecsi hruby vykon, lenze na vecsine hier ktore sa pouzivaju na hodnotenie vykonu je dobre zname "THE WAY IT'S NVIDIA'. Takze potom sa nemozeme divit ze ATI dopadaju tak ako dopadaju. Osobne v testovani kariet uz viacej verim 3Dmarku ako hernym studiam ktore sa nehaju ovplyvnovat Nvidiou a hry upravuju na jej karty a nie podla standardov. 280 je velmi vykonna karta , ale nieje to zazracna skrinka s neobmedzenymi moznostami, 4870x2 ju prevalcuje hrubym vykonom. Ked sa este pouzije DX10.1 tak 280 nebude stacit.
- Minoos

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
8. 6. 2008 08:31

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Chalan si robis srandu, nie ? Myslis ze herne studia upravuju kod svojich hier aby lepsie bezali na NVIDIAch ? Vsak by si sami nasrali do huby. Keby takto rozmyslali, tak by mohli rovno zabudnut, ze ich hry si budu kupovat ludia co vlastnia ATi. Dolezity je kazdy zakaznik. "The Way It's Meant to be Played" je v podstate o tom, ze NVIDIA prichadza s viac-menej odladenymi ovladacmi uz v case vydania hry.
- Siggy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 20:27

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Osobně netuším, čemu se divíte, asi jste článek nečetl celý, ale jasně uvádím: "což však nemusí moc znamenat pro reálný výkon karty a je tedy nutné držet fantazii na uzdě". To spíš já nechápu, kde berete informace o reálném výkonu karet a prohlašujete definitivní soudy. Pokud jste již někde viděl reálné výkonnové testy... já tedy ne. Dále si také myslím, že ikdyž tato zpráva může být absolutní kachna nebo také nemusí, tak by zde prostě a jednoduše neměla chybět. Pravdu se všichni nakonec stejně dozvíme.
- Ctibor Škuta

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 21:54

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace To je aspoň objektivní pohled... To měl tu zprávu zatajit? A co jako, stejně by se to řešilo v diskuzích, protože mnoho čtenářů si listuje i zahraničními servery. ..
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 22:23

Komentáře tohoto uživatele máš zablokované.

Děláte si snad srandu? To fakt chcete říct že DVOUČIPOVÁ grafika je výkonější nežli JEDNOČIPOVÁ? Tomu prostě nejde uvěřit....

Jasně, je to sarkazmus. A zasloužený. Uvědomte si proboha co čtete! Navíc ATi 48XX má patřit do jiného segmentu nežli vysněný budoucí výkonový král od nVidie. Můžete si tovzít i z druhé stránky... ATi potřebuje dvoučipovou kartu k poražení konkurence :)
- Darre

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
8. 6. 2008 08:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Trepes strasne sprostosti... skus si porovnat velkosti jednotlivych cipov atd. Mozme sa hned zacat bavit o tom, ake by to bolo, keby ATi spravila tak velky cip ako NVIDIA. To, ci ATi porazi NVIDIU sa ani neodvazim tipovat, ale je mi uplne jedno akym sposobom vyrobca dosiahne co najvyssi vykon (pokial bude drzat na uzde spotrebu a karta bude mat vysoky realny vykon, nie len vela bodov v 3D Marku...)
- Siggy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
6. 6. 2008 23:09

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace jadro GTX260/280 je spojenim dvoch trochu prerobenych G92(pocet tranzistorov priblizne sedi), alebo sa mylim?
- Michal Ondrejáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
8. 6. 2008 19:05

Komentáře tohoto uživatele máš zablokované.

Ano, dame li dve g280 vedle sebe, porazi dve ati 4870. Ale kdyz je ati x2 vykonnejsi nez g28 a zaroven levnejsi, tak o co jde? :) tesim se na ni.

- ladislav

Reklama
Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
19. 6. 2008 17:01

Komentáře tohoto uživatele máš zablokované.

Já se na ní třeba také osobně moc těším. A to nejen díky ceně.
- Sniper on the roof 42

Reklama
Reklama