Zpět na článek

Diskuze: Fotografie GeForce 8800

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 17:24

Komentáře tohoto uživatele máš zablokované.

To bude fakt mazec, jsem zvědavej na odpověď ATi a její x2xxx, zajímavé soboje a čím dál větší výběr:) nevím jesli je to dobře...ale dneska vybrat si grafiku ve střední třídě není tak lehké, ale ani ne tak těžké. Jsem prostě zvědavej na tuhle new serii;) a co vy?
- Luk@

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 17:28

Komentáře tohoto uživatele máš zablokované.

Moc mně potěšilo těch 12 paměťových modulů, aspoň bude mít NVIDIA nějakou výhodu nad budoucí kartou ATI.
Rád bych ji měl v PC, ale cenu odhaduju tak na 16k-18k :(. Novinky bývají drahý, a s touhle mají dost důvodů pro tak vysokou cenu: bude mít DirectX 10, nejlepší karta na trhu do příchodu X2800XTX...

PS: Opravte si link na 6. obrázek, při zvětšení se otevírá 7.
//edit LF: opraveno.
- Ceneon

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 17:33

Komentáře tohoto uživatele máš zablokované.

Mě osobně hodně děsí představa 28cm dlouhého monstra. To je opravdu hooodně a místa bude v case pomálu, hlavně chudáci disky, nemluvě o hodně stísněném prostoru pro chladič chipsetu. Navíc to může působit i jako taková přepážka v case a vzduch z předního fanu nemusí ideálně proudit až k CPU. Jistě to nebude tak horké, ale každá i malá komplikace je nepříjemností a potenciální slabinou v boji s ATI (nevim jak májí být dlouhé nové karty od ATI, snad tu nebude nový "trend" dlouhých karet).

Spotřeba je kapitola sama pro sebe. 2 přídavné napajecí konektory jistě o něčem svědčí a ani to nechci domýšlet...
- Ivan Soukup

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 21:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace taky dost možná se jedná jen o prototyp pcb. ve finální verzi pravděpodobně nebude delší naž současný highend(podobně jako 7950GX2). Btw nevím co příjde divného autorovi na spotřebě. De facto má co se týče tranzistorů, pamětí i frekvence jádra navrch(tzn více tranzistorů, žravější paměti a podobnou frekvenci jádra).
Každopádně už se těším na nějaké testy.
- ptipi

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 18:35

Komentáře tohoto uživatele máš zablokované.

Vsechno stejne neni jeste oficalne overene, zatim jen pohe spekulace.. Informace vypadaji dobre, jen me desi predstava 28cm VGA :-(
- Tomáš Kotrla

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 18:46

Komentáře tohoto uživatele máš zablokované.

Nevidím v G80 nějakou revoluci,ale tradiční evoluční vývoj. Nic,co by mne zvedlo ze židle. Proč se někteří tak rozplývají?

- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 18:50

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace celkem revoluce to je. evoluce to byla spíš u x1000 a GeForce 7, kde byli použity stejné technologie, paměti atd. ale zde bude prvni vodni chlazeni od vyrobce, poprve unifikovane shadery, DX10, pixel shader 4, GDDR4 a 384bit sběrnice pamětí. toto je už více než evoluce (přecejen z minulých karet moc nezbylo)
- Tomáš Baroš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 19:08

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace GeForce 7 byla evoluce, protože vychází z GeForce 6, Radeony X1000 jsou ale dostatečně inovativní.
Ohledně toho vodního chlazení, nemyslím si, že by se celý set dodával s kartou (to by nebyla zrovna levná záležitost).
Ad unifikované shadery - G80 není plně unifikovaná, tak jako bude R600. To teprve bude revoluce ;) (Čímž ovšem nechci říct, že by G80 nebyla revolucí - oproti GF7 určitě je)
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 19:02

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace GDDR4 určitě není nic revolučního,to je normální vývoj. Vodní chlazení.....raději počkáme,co to opravdu bude.DX10.....to rozhodně revoluce nebude. Normální a očekávaný přechod,který není až tak zásadní.Ps4....velmi dobré,ale určitě ne revoluční. Dodneška v některých hrách nejde poznat rozdíl mezi PS2 a PS3. Sběrnice.....počkám co opravdu přinese. Rozhodně ale G80 revoluce není.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 05:57

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Ano,oproti GF7 přináší G80 velký pokrok,ale to se tu bavíme o GF7,která je spíše urychlenou GF6....a ta už nějaký ten pátek pamatuje.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 22:14

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: GDDR4 neni nic revolucniho, v tom mas pravdu, ale DX10 je mnohem vic nez revolucni, staci si precist specifikaci a pochopis to. DX10 konecne umoznuje to, co drive nebylo mozne - umozni grafickemu cipu vytvaret geometrii, tedy GPU nebude uz jen zobrazovac, ale bude to "mozek" grafiky, ktery bude moct z jednoduche sceny udelat scenu bohatou na detaily. A myslim ze to v kombinaci s poli indexovatelnych surface a s odtranenim caps bitu apod. vymozenosti dela z DX10 opravdu revolucni krok v oblasti grafiky. Jinak SM4 zas zadna extra revoluce nejsou, "jen" par novych instrukci, ale rozhodne se da ocekavat jejich vyssi vyuziti vzhledem k tomu, ze jsou pozadovany u karet DX10.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 19:43

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: revoluce bude, az se prejde na nakej efektivnejsi zpusob renderovani
vykreslovani trjuhelniku s porovnanim hloubky kazdyho bodu je jedna z nejmin efektivnich technik renderovani, ale zase se nam vyvynuly pekny vektorovy procesory, ktery maj obrovskej vypocetni vykon za rozumny ceny, takze to ma taky neco dosebe

- Dr Meduza

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 05:55

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tom: DX10 revoluční rozhodně není. Ano přináší zajímavé vylepšení,ale to,jak to popisuješ ty,tak to vypadá,že to bude "umělá inteligence". Tak to rozhodně nebude a využití toho "mozku" jak to nazýváš,není ve světě 3D žádná novinka.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 22:07

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Dr Meduza: Ano, hloubkovy test nemusi byt zrovna efektivni, ale je to zatim to nejjednodussi HW provedeni. Ostatni metody urcovani viditelnosti jsou prakticku nepouzitelne, protoze testovani probiha analyticky a to uz tak snadno implementovat nejde. Jedina budouci nadeje na zmenu je raytracing, jenze u nej je problem v tom, ze karta by musela mit informaci o cele scene a pak by se zacalo kreslit. A to je samozrejme dost obtizne zajistit, nebot scena je relativne neomezeny prostor zatimco pamet grafice karty je absolutne omezeny prostor. Navic se tu naskyta otazka zda by vubec melo cenu mit v PC nejakou grafickou kartu, ktera provadi raytracing kdyz se zacina mluvit o super-CPU se stovkami jader, ktere by to zvladaly take.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 20:01

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Dr Meduza: [I]vykreslovani trjuhelniku s porovnanim hloubky kazdyho bodu je jedna z nejmin efektivnich technik renderovani[/I]

A proč se teda používá?
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 10:49

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: To by me teda zajimalo co si predstavujes pod slovem revoluce?! Kdyz se u nas zacne jezdit vlevo bude to revoluce v doprave nebo evoluce? Ja bych rekl ze revoluce, protoze se nejedna o logicky krok vznikly intuitivne z predchoziho deni. Stejne tak DX10 nevznikl intuitivne vyvojem z predchozich verze (kdyby tomu tak bylo tak by nevypadal tak jak vypada). Koncept graficke pipeliny v DX10 je zcela odlisny nez v predchozich grafikach, samozrejme ze v konecnem dusledku to bude vypadat tak ze do karty pujdou vertexy a ven pixely, jenze to je stejne jako s temi auty - tam se taky zmeni "jen" strana po ktere se jezdi a presto se jedna o revolucni krok (neboli vyznamny). Az vyjde Crysis nebo podobna hra a budes moct porovnat rozdil DX10 a DX9 tak pochopis proc je to revoluce v grafice, rozdil bude jasne videt ikdyz budes mit verzi v DX9 na uplne maximalni detaily! Docela by me zajimalo jakto ze ten "mozek" neni zadna novinka? Pokud vim tak GS jeste v kartach neexistujou - alespon ne tech co se daji bezne koupit. Takze mi vysvetli jak ti dnesni karta z jednoho trojuhelniku vystavi pomoci sikovneho shaderu treba strom? A z tisice trojuhelniku tisic stromu (==les)? To porad neni revoluce? :) Navic DX10 prinasi jeste jakousi SW revoluci pro programatori - uz zadna fixni pipelina, uz jen shadery, a to je taky revoluce jako hrom!
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 22:08

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Proc se pouzivaj X86 sada instrukci (spousta se jich dneska nepouziva ale sou tam kuli kompatibilite) , kdyz sou dneska efektivnejsi moznosti ?
Todle je jejednodusi metoda na implementaci a je dobre proverena + stejnej problem jako s procesorem, zakaznik chce aby mu jelo vsechno, takze to musi bejt zpetne kompatibilni
- Dr Meduza

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 11:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tom: Ano,revoluce je krokem,který vybojuče s předem vymezeného evolučního vývoje a příchází tak s něčím,co zásadním způsobem mění pravidla. Revolučním počinem byl například příchod přídavného 3D akcelerátoru firmy 3DFX,který byl do té doby něčím nepředstavitelným. Ve světě her byla revolučním počinem hra DOOM,která jako první představila možnosti "vyspělé" 3D grafiky /nebyla sice úplně první,ale pojetí 3D prostoru bylo na svou dobu nevídané/. DX10 přináší zásadní změnu ohledně výpočtů,ale revoluční novinka to rozhodně není. Rozdíl mezi DX9 a DX10 rozhodně bude,ale to přece není něco revolučního,ale přirozený vývoj zlepšení vizuální stránky,který se očekává u každé nové generace grafických karet. Cožpak se za revoluci považuje přechod od jednoho jádra k dual core cpu? V žádném případě a stejně tak DX10 nepřináší nic tak převratného,aby se to dalo označit za "převratný či revoluční" krok na poli grafických karet. Specifikace DX10 vypadají na papíře opravdu slibně,ale to vypadalo jádro Prescott také a ve finále ho Intel označil jako "nesplněný sen". Ovšem těch superlativních článků o "fantastické" architektuře NetBurst,která prolomí hranici 8GHz bylo napsáno mraky a všichni víme,jak tato architektura dopadla. Nepodceňuji sílu DX10,ale revoluce se rozhodně konat nebude.Rozhodně ne.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 13:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: Prvni 3DFX akcelerator nebyla zadna revoluce, koncept grafickeho akceleratoru tu jiz byl mnoho let u SGI apod. To akorat 3DFX byla prvni firma, ktera se rozhodla sirit akcelerovanou grafiku mezi "proste" lidi. Nicmene na urovni zpracovani grafiky se nejednalo o nic revolucniho, jednalo se o klasicky koncept primitiva->framebuffer. Jedine co na tom bylo revolucniho bylo tedy to, ze se to dostalo do obchodu a koupit si to mohl kazdy i do "obycejneho" PC, ale z technologickeho hlediska se tu o zadnou revoluci nejednalo. Revoluce prichazi teprve ted s prichodem DX10, ktery bezmala po 20ti letech meni system prace s grafikou.

DX10 vubec nema za ukol zlepsit vizualni kvalitu sceny jak pises! Naopak ma se postarat o to ,aby scena byla vytvarena mnohem pruzneji, coz predchozi postupy neumoznovaly a coz v konecnem dusledku bude znamenat, ze scena muze byt vizualne vyspelejsi.

Neni pravda ze specifikace DX10 vypadaji na papire velmi slibne! Ony jsou velmi dobre! Kazdy z hernich vyvojaru velkych studii ti dnes rekne jedine - chci kartu s DX10. Ono DX10 totiz nebylo navrzeno jen tak, ale naopak podle odezvy vyvojaru na to co by mela moderni graficka karta umet.

Pokud pises ze DX10 neprinasi nic prevratneho tak pak je jasne ze si absolutne nezasveceny clovek co se tyka grafiky a optimalizace vykonu. Porovnavas to s dual-core CPU, ale to opravdu neni revoluce. Dual-core CPU se da prirovnat k shaderovym jednotkam v GPU. Vyrobce je proste pridava aby byl cip vykonnejsi a karta tak prochazi evolucnim vyvojem, tedy ne revoluci. Ale pokud by najednou Intel zrusil kompatibilitu z x86 instrukcni sadou tak se jedna o revolucni krok, stejne jako ted se u DX10 jdna o revoluci v tom, ze uz se nepokracuje ve starodavnem poloduplexnim schematu primitiva->framebuffer ale architektura se stava plne duplexni s moznosti vytvaret/rusit za behu objekty.

DX10 dela z grafickeho hardwaru mocny nastroj pro veci o kterych jsme mohli drive jenom snit, na takovem akceleratoru pujdou velmi jednoduse implementovat vselijake GPUGP vypocty ktere na drivejsich kartach byly provadeny pomoci ruznych triku a se spoustou omezeni.

A co se tyka Netburst tak to neni spatna architektura, bohuzel neni tak vykonna jak se cekalo. Ale z technologickeho hlediska je na tom dobre, pricemz nemluvim o frekvenci na kterou spousta lidi narazi, ale spise o celkovem konceptu natazeni pipeliny a fazovani zpracovani intrukci.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 13:33

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tom: Když myslíš...... :-) Já ti tvou pravdu neberu.Jsi u vytržení s DX10 a já ti to přeji. Já v ní žádný zázrak nevidím.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 14:11

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: Mozna to bude proto ze se nezivis programovanim her uz skoro 5 let jako ja a nemas tedy moznost se stykat s lidmi, kteri o tom dost vi. Pokud by tomu tak bylo tak bys v tom urcite ten "zazrak" nasel. Vsak pockej tak 2 roky na prvni opravdu poradny DX10 akcelerator (tyhle prvni verze jeste nebudou to prave, to uz je ted jiste), mozna se budes divit kde vsude se s nim setkas a jak moc pujdou akcie NVIDIA a ATI nahoru, protoze svet pochopi, ze tyhle karty maji nevidane schopnosti na ktere ani CPU nedosahne.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
1. 10. 2006 12:20

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tom: Víš Tome,už to nechci moc komentovat,protože to asi nemá smysl. Já si za svým stojím a myslím,že nemáš pravdu. Ano,pro vývojáře her je DX10 velkým požehnáním,ale nic revolučního bohužel nepřináší. To co DX10 přinese je minimu m toho co umějí programy používané ILM a tak to opravdu není žádný zázrak.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
1. 10. 2006 17:23

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Gaskoňec: Spravne si to napsal, spousty programu umi mnohem vice s grafikou nez nejaka DX10 karta, ale jsou to porad jen programy! Takove 3DMAX umi tolik veci, ale nikdy to nebude takove jako v HW. Vyuziti DX10 karty se da najit napr. v databazich (ostatne tam se da vyuzit i HW s DX9), kde graficke karty postupne nahradi CPU (a to neni nejaka scifi vize, ale fakt, ktery uz je dnes potvrzovan stale vic a vic). Protoze karta s DX10 bude schopna vytvaret novou geometrii bude mozne ji pouzit na simulace ruznych deju a spoustu jinych narocnych aplikaci, takze tvrdit ze to neni revoluce je opravdu smesne. Uz nekolik let vyvojari grafiky volaji po HW kteri bude umet vice nez jen tupe zpracovavat data a ted kdyz je tu, muzeme bezesporu mluvit o revoluci. Pokud v tom revouci v grafice nevidis tak uz opravdu nevim co bys chtel - ctverata kolecka nebo kulate trojuhelniky? Mimochodem mam obcas moznost dostat se do styku s kartou kreslici obraz na bazi orientovanych bodu (point-based rendering), i to by se mohlo nazyvat revoluce v grafice, a opravdu by to revoluci bylo, nicmene jedna se o znacne narocny zpusob vytvareni sceny a pouziti tak zustava pouze u vysoce specializovanych medicinskych aplikaci apod. kde se data ziskavaji z nejakeho skenovaciho zarizeni na bazi mrizky, nikde jinde to opravdu nema smysl.

Precti si pozorne nejnovejsi technickou dokumentaci k DX10 a porovnej to s predchozim DX nebo OpenGL a pak ti snad bude jasne, ze jsou dostatecne velke rozdily na to, aby se dalo mluvit o revolucni zmene v oblasti vytvareni grafiky (a nejen ji).
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 18:49

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Napříkald nad novými unifikovanými shadery nabo nad DirectX 10 ... a někteří také nad spotřebou a délkou. :)
- Ox!

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 21:22

Komentáře tohoto uživatele máš zablokované.

Myslim, že tohle bude konec nVidie. Vzpomínáte na Voodoo a jejich poslední obludu? Ještě že se nedostala do prodeje... A tohle bude to samé. nVidii mám rád, ale kdo si koupí kartu, která se mu nevejde do PC? Navíc jejich chlazení, ať budou dělat co budou chtít, nikdy nebude moc extra a určitě to bude dost hukot. A integrované vodní chlazení? Pche, jak dopadl Toxic u ATI... to prostě nemá smysl. Když vodníka, tak komplet pro celé PC s externím radiátorem. Bojim se, že bych při manipulaci takovouhle kartu poškodil.
- Ohmy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 02:47

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Jsou tu i lidi ktery maj trosku vetsi case...a pro nektery neni problem si dyztak vetsi poridit...ja bych si moh koupit klidne 2x vetsi:-) :-P
- v4sek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 21:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace A všimli jste si, že je v tom PCB (krom té fotky "zezadu" pod ventilátorem díra? To by možná vysvětlovalo tu přílišnou délku... Ale proč v tom obrázku zezadu díra není?
- Ohmy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 22:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace zda sa tam byt diera ale ked si pozries 6. obrazok pozornejsie tak uvidis ze je to ten kovovy drziak na chladic... len odraza podobnu farbu ako je povrch na ktorom je karta polozena
- MiNAatoR

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 23:10

Komentáře tohoto uživatele máš zablokované.

Umi graficka karta vykreslit kruh? = kruh - ne skladacku z trojuhelniku
- Václav Piskáček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
29. 9. 2006 23:43

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Graficka karta umi vykreslit kruh, ale pouze ve 2D, ve 3D se samozrejme kresli kruh pomoci site trojuhelniku nebo car.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 09:33

Komentáře tohoto uživatele máš zablokované.

povedenej članek.ale ta delka je fakt děsivá.to abych si koupil nějakou novou bednu nebo budu muset mit oddělanou levou bočnici.
ale pokud by ta sběrnice byla 384 bitová tak to by mělo mit teoreticky daleko větší narust výkonu.no kežby se ATi vytasila s 512 bitovou :D.ovšem ty 2 přídavný konektroy na napájeni?kua to bude žrout.
- rainmaker

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 12:10

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace jo ale když porovnam X1900XTX a X1950XTX tak ten rozdil moc velkej není.na to že X1950 ma DDR4 na 2 Ghz.ta sběrnice muže udělat své.no musime si počkat na testy.....
- rainmaker

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 13:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Tady nejde o sběrnici ani o takt, ale o výslednou propustnost. Je úplně jedno jestli máš 256bit sběrnici a paměti 700MHz, nebo 128bit a paměti 1400MHz...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 19:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: rainmakera nereste... ten si mele svoje i kdyz o tom nic nevi. a to nemluvim jen o vedomostech z vt...
- Zdeněk Slavíček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 11:44

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Sazim se, ze na boardech s G80 nebudou GDDR4...nVidia pristoupila na zvyseni sirky sbernice na 384-bit pravdepodobe prave z tohoto duvodu. Navic ani udavane frekvence 1500-1700MHz neodpovidaji specifikacim GDDR4...ty jsou od 2200 po 2800.
- Štefek Petr

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 09:37

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Proč daleko větší nárůst výkonu? Pokud nVidia použije GDDR3/4 na 1,6GHz a ATi GDDR4 2,4GHz s 256bitovou sběrnicí, propustnost bude stejná...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 14:10

Komentáře tohoto uživatele máš zablokované.

Podla mna je velka skoda, ze nVidia na zvysenie priepustnosti pameti pouzila vyssiu pametovu zbernicu, miesto toho, aby zachovala pametovu zbernicu na 256bit a pouzila GDDR4, tak ako to urobilo ATI. Pretoze GDDR4 su urcite v mnohych veciach lepsie ako GDDR3 a hlavne su uspornejsie na spotrebu, co moze byt pri novych grafickych kartach, ktore maju impozantnu spotrebu rozhodujuce. A bolo by zaujimave, keby boli karty od ATI energeticky uspornejsie ako karty od nVidie, co podla mna nie je az tak nerealne.
- BC

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 18:53

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace [I]Podla mna je velka skoda, ze nVidia na zvysenie priepustnosti pameti pouzila vyssiu pametovu zbernicu, miesto toho, aby zachovala pametovu zbernicu na 256bit a pouzila GDDR4, tak ako to urobilo ATI.[/I]
nVidia si možná nechává "zadní vrátka" - v případě, že by R600 byla o moc rychlejší než G80 prostě vymění paměti za GDDR4 a vyšší propustnost pomůže alespoň v některých situacích srovnat skóre.

[I]A bolo by zaujimave, keby boli karty od ATI energeticky uspornejsie ako karty od nVidie, co podla mna nie je az tak nerealne.[/I]
Co by na tom bylo tak zajímavého? S výjimkou Radeonů X1000 mívala ATi nižší spotřebu než nVidia - nejvíce evidentní to bylo u R300 (R9700) v porovnání s NV30 (GF-FX5800)
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 9. 2006 23:01

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Koro: To jo. Protože 384bit sběrnice taky není zadarmo (co se týče tranzistorů). Ale mohlo by to plus mínus odpovídat 512bit ring-busu (R520/R580/RV570) takže se to srovná...
- Fiala Lukáš

Reklama
Reklama