Zpět na článek

Diskuze: G80 v listopadu?

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 08:45

Komentáře tohoto uživatele máš zablokované.

koukam s nvidii to de z kopce :)
- Honza

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 13:02

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @asdfgh: koukam co je tu naklikano, a jak se to zvrklo, pred deseti minutama jsem byl jeste modrej, asi nejakej Hulan ci nVidiak
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:01

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @asdfgh: Jenomze ty sami problemy se ocekavaji i u ATI a k tomu ze je to pravda docela sedi to jak se zacinaji cimdal castejc objevovat zdroje 1KW a vys a to do toho nepocitam ten zdroj kterej je primarne urcenej ciste pro GK. Odhad spotreby nove generace je nekde mezi 150-300W na kartu a to jak pro ATI tak NVIDIu.
- Neomen

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 09:57

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @asdfgh: Nizke takty zmanenaji ze to jde s firmou z kopce? Takze prevaha AMD nad P4 byla co? Nejaka chyba v Matrixu? O, sorry, zapomnel jsem, ze jsem na atituningu. Hrozne se omlouvam.
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:56

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Neomen: ty samy ne, ATI vede v architekture - zase a take ma obvykle prvenstvi ve velikosti vyrobni technologie
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:54

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @drnoha: To je neco uplne jineho, AMD melo efektivnejsi architekturu, zatimco u R600 a G80 je to presne obracene, unifikovane shadery maji vetsi efektivitu rozdeleni prace, nehlede na to ze i kdybys napsal hru tak aby vyuzivala dokonale efektivne klasickou architekturu nvidie, bylo by to porad 48 shaderu nvidie vs 64 u ATI, priste se na to nekoukej tak jednoduse a vic cti - stara architektura A nizke takty, amd melo LEPSI architekturu a nizke takty tedy zcela jina situace
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 11:09

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @asdfgh: Za to automaticke odhlasovani zde na pctuningu by mel jit nekdo do vezeni. Ale k veci.
Nerekl bych ze architektura G80 je spatna. O P4 se taky rikalo... ale at neodbocuju, o GeForce FX se taky rikalo ze prinese revolucni architekturu, ktera nakope do zadnice vsechno ostatni. A jak to dopadlo. R600 bude urcite rychlejsi v DX10, o tom ani trochu nepochybuju, ale to bude tomuto cipu platne tak mozna v nejakem novem 3D Marku a ne ve hrach, ktere ani dneska nevyuzivaji na 100% DX9. nVidia by mohla mit ve stare architekture naopak vyhodu brutalniho hrubeho vykonu. A ten zuzitkuje mnohem vice her nez kolik jich zuzitukuje hromadu Shaderu. V blizke budoucnosti, ne za 5 let, to muze byt uplne jinak.
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 11:39

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @drnoha: Neporovnával bych to jako 48 u nVidie vs. 64 u ATi. Dnešní čipy (GeForce7) mají pixel shadery zdvojené (neumím to vysvětlovat jako no-X), takže GeForce 7900GTX má sice 24 "pixel pipelines", ale ve skutečnosti je podobně výkonná jako Radeon X1900XTX s 48 pixel shadery. Domnívám se že nVidia použije zdvojené pixel shadery i u G80, takže je to vlastně 64+16 versus 64. Na stejném taktu by tedy G80 mohla být výkonnější, ale bude to hodně záviset na hře.
G80 má oproti dnešním čipům (G71, R580) dvakrát tolik vertex shaderů, ale tam kde jich bude hodně potřeba by R600 mohla být výkonnější protože může všechny jednotky na pár taktů nastavit na vertex/geometry shading (u G80 v tomto momentě pracuje 'jen' 16 jednotek), pak přepnout na pixel shading a je srovnáno 64 ku 64. Průběh rednerování je ale často složitější než jak to popisuju. A musíme také brát v úvahu že R600 bude pravděpodobně mít vyšší takt jádra.

Samozřejmě jde jen o spekulace...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 14:51

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Je to jeste trosku jinak. R1900XTX a tomu podobne cipi nemaji 48pixel pipelines ale jenom 16 ale kazda z nich obsahuje 3 pixel shadery zatim co NVIDIA ma skutecne 24pixelpipeline ale nema v zadnem pripade 48 pixelshaderu ale skutecne jenom 24 a na kazdym z nich e "navesena" jedna ALU jednotka ktera urychluje nektere druhy operaci. Co se tyce efektivnosti USA archytektury tak tady vsichni vidite jen to ze budou vsechny casti cipu optimalne vytizeny ALE kdo vam zaruci ze to tak skutecne bude? Rozdelovat jaka cast cipu bude na co pouzita temner jiste nebude samotnej HW ale ovladace coz znamena nakonfigurovat to pro kazdou hru/engin zvlast a samozrejme je zde dalsi otazka jak dlouho bude trvat nez se prepne mezi jednotlivim tipem shaderu. Je to samozrejme mnohem slozitejsi ale USA NEMA jenom sami vyhody ale ma taky hodne nevyhod ktery muzou R600 docela srazit kvuli nedoladenosti a nejspis bude diky tomu zalezet hodne na optimalizaci ovladacu zatimco NVIDIA si dava na cas a kdo vi treba uz nejakej ten rok takovou architekturu viviji ale jeste s nou nejsou spokojeni natolik aby ju vydali jako nastupce nebo nejdriv vydaji nejakej hybrid mezi ksickou archiekturou a USA cimz by mohli eliminovat urcity potize.
- Neomen

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 12:22

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Jo vsak ja to s tema zdvojenyma shaderama vim, vase odpoved mela byt spise o prispevek vyse od asdfgh (vidim ze se nekdo velice odtezoval s vyplnenim registrace).
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 18:05

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Neomen: Promiň, ale je vidět že tomu moc nerozumíš :)
1) G70 a G71 mají 24 pixel shaderů se dvěma ALU jak píšeš, ale má 16 ROPs (připojené přes crossbar). 16 ROPs má i R580.
2) Mluvit u R580 o pipelines je nesmysl.
3) U unifikované architektury nebude rozdělení fixně nastaveno pro každou hru, bude se nastavovat za chodu [b]pro každý takt[/b].
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 13:00

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @drnoha: Ano, ma dve ALU na jednu shader jednotku jestli se nepletu, kdyztak at me nekdo opravi, protoze ty jsou vyuzivany PS instrukcemi nejcasteji.
Nahodou, ma registrace byla narocna, protoze jsem asi sedmy clovek co se registroval po tom co to PCT zavedl kvuli urvanemu panu vhlavenadelano Hulanovi a nejde jen o bezhlave hrabnuti do klavesnice a bylo potreba vice udaju, dnes uz je s tim obtezovani mensi.
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 20:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Nechci se Vam do toho plest ale pokud by se rozdelovaly jednotky pro kazdy takt tak to by toho karta asi moc neudelala, alespon si to nedokazu moc dobre predstavit. Staci si uvedomit jak vysoce paralizovane GPU je a jak je hluboka pipelina a cloveku musi byt jasne, ze s kazdym taktem se to menit nemuze. To ze by rozdeleni jednotek zarizovaly ovladace neni zas az tak nerealne, je to rozhodne realnejsi nez aby to delal primo sam GPU nebo nejaky dispatcher, takovy samokonfigurovatelny GPU by byl opravdu velmi slozity. Vemte to tak ze Xenos o sobe tvrdi ze ma USA (nikde sem si to neoveroval ve specifikacich, ale dejme tomu ze to tak je),rozhodne ale nema architekturu VS+GS+PS, v niz je GS rozhodne nejslozitejsi shaderovou jednotkou. Navic vsechny DX10 musi podporovat indexovatelne pole zdroju (textury, RT, surface,atd.), ktere musi byt dosazitelne ze vsech jednotek. Takovy pozadavek znacne komplikuje jednotky ikdyby nebyly unifikovane.

Vemte napriklad to ze vykreslite model o 1M trojuhelniku, kazdy trojuhelnim vyprodukuje casto vic nez 64 fragmetu a tedy po zpracovani prvniho trojuhelniku je zde situace kdy GPU zpracuje tri vrcholy prvniho trojuhelnika 3 jednotkami a vyprodukuje 100 fragmentu, vsech 64 jednotek je tedy prepnuto na zpracovani fragmentu a VS+GS najednou stoji. Pokud by bylo mene jednotek prepnuto na zpracovani fragmentu pak zas bude brzda v PS a VS+GS pujdou na prazdno, takze je videt ze optimalne rozlozeni je v beznych podminkach temer nerealne. Navic je potreba si uvedomit, ze prepnuti typu shaderu je casove (relativne) narocna operace. Muj osobni nazor je tedy ten , ze optimalni pro prepinani jsou ovladace, ktere maji nejlepsi informaci o tom jake jsou aktualni pozadavky na kresleni, pripadne by to mohl resit i nejaky predrazeny dispatcher, ktery by ale musel spolupracovat s GPU asynchronne aby zustala zachovana rychlost zpracovani na GPU.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 22:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tom: Možná ne pro každý takt, ale určitě několikrát během renderování jednoho snímku. Při 60FPS a 600MHz frekvenci čipu je to pořád deset milionů Hz na jeden frame, během nichž se to bude muset několikrát přepnout a to už není tak nereálné. Pokud by to tak nebylo, ztratila by se tím výhoda unifikovaného shaderu, tedy že se žádnou část renderování snímku žádná část čipu nefláká.
Rozdělení by mohly zařizovat ovladače, ale i možnost s dispatch processorem je možná - R5xx už má dispatch processor, i když tady bude potřeba nějaký složitější.

[I]Vemte napriklad to ze vykreslite model o 1M trojuhelniku, kazdy trojuhelnim vyprodukuje casto vic nez 64 fragmetu a tedy po zpracovani prvniho trojuhelniku je zde situace kdy GPU zpracuje tri vrcholy prvniho trojuhelnika 3 jednotkami a vyprodukuje 100 fragmentu, vsech 64 jednotek je tedy prepnuto na zpracovani fragmentu a [b]VS+GS najednou stoji[/b]. Pokud by bylo mene jednotek prepnuto na zpracovani fragmentu [b]pak zas bude brzda v PS[/b] a [b]VS+GS pujdou na prazdno[/b], takze je videt ze optimalne rozlozeni je v beznych podminkach temer nerealne.[/I]
Jestli jsem to dobře pochopil, tak to je nesmysl. V unifikovaném čipu nic nestojí, nic nejede naprázdno a nikde není brzda. Když je potřeba jeden druh shadingu, tak se dělá, když je potřeba jiný, jednotky se přepnou, když je potřeba trochu toho a trochu tamtoho, unifikované shadery se tomu uzpůsobí. Nezapomínej že renderování snímku trvá běžně kolem 10 milionů taktů (záleží samozřejmě na konkrétní grafice a případu), a i kdyby se jednotky přepínaly po každém MHz, pořád by to stačilo...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 23:07

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: No slo mi hlavne o tu zmenu v kazdem taktu, to je opravdu nerelane. Ten dispatcher by byl jistejsi. V USA sice opravdu nic nikdy nestoji, proti tomu nic nenamitam, ale je opravdu potreba zvazit cenu toho prepinani. Ono totiz kdyz by se to prepinalo HW tak je problem, ze tam bude muset byt nastavena nejaka casova konstanta (tezko muze HW vedet kdy prepnout, protoze do softwaru nevidi). Pokud by se to ale prepinalo v ovladacich pak je jista predikce mozna, protoze ovladace pracuji v tzv. blokovem rezimu (tzn. ze hromadi pozadavky od API a ty pak zpracovaji jako davku opcodu pro GPU) a zaroven mohou pomoci asynchronich dotazu zjistovat aktualni vytizeni jednotek (napr. pocet prave rasterizovanych fragmentu).

Mimochodem mozna Vam to neni znamo, ale USA architektura neni zas az tak uplne od toho aby se pri renderingu grafika neflakala (zni to divne ze? :) ) Skoro bych rekl ze ten hlavni duvod je GPGPU - tedy moznost provadet libovolne vypocty na grafickych kartach, protoze to je jeden z hlavnich duvodu proc USA vlastne vznikla. V GPGPU se totiz naplno projevi vyhoda USA oproti G80 a byvala ATI z toho bude profitovat, protoze GPGPU ma velkou budoucnost. Koneckoncu fyzikalni vypocty pres GPU jsou castym tematem diskusi a malokoho napadne ze se jedna o GPGPU odvetvi.
- Tom

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:00

Komentáře tohoto uživatele máš zablokované.

"Za předpokladu, že G80 bude mít více než 400 milionů tranzistorů to znamená obrovskou spotřebu a velký problém jménem ztrátové teplo"

Nema mit nahodou R600 pres 500 milionu tranzistoru? Co si myslite ze bude delat on? Mrznout?
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:59

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace ne, jen je pravdepodobne ze spotreba nebude primo umerna poctu tranzistoru ale nizsi, zato vypocetni vykon bude diky unifikovane architekture vyssi a tedy i pomer vykon/spotreba.
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace R600 bude nejspíš taky dost žrát a topit. Kolik bude mít tranzistorů se nedá dobře odhadnout, protože i když bude mít víc shaderů, DX10 je prý na implementaci jednodušší než DX9.0c co do počtu tranzistorů. Taky to bude záležet na tom jak se povede 80nm výroba, ale přeci jen je to novější technologie a mohlo by to spotřebu trochu zatlačit dolu...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:30

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace :-) pochybuju, že by v samotné výrobě čipu nějak výrazně hrálo roli, jestli je karta navržená pro DX10 nebo DX9c .. navíc musí být zpětně kompatibilní, jinak by se neprodala, takže o nějakém šetření tranzistory, pokud nebude mít efektivní (minimální) návrh, nemůže být řeč .. a vzhledem k náročnosti samotného čipu se asi moc na minimalizaci nekouká :-) S tou obrovskou spotřebou u G80 - 400M tranzistorů není o moc víc, než má současná X1900 a ač je v současnosti nejžravější grafikou, stále je to ještě v únosných mezích... Hlavně v době vydání DX10 grafik se jejich síla neukáže, maximálně se budeme moct kochat Aero rozhraním na Windows Vista Beta 3 :-)
- xBl4d3x

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 11:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @xBl4d3x: zpetna kompatibilita neni dana navrhem, prave naopak, ono to nejde udelat zpetne nekompatibilni jelikoz jsou vyuzivany ty same instrukce/funkce na transformaci pixelu, pouze se rozsiril pocet transformaci ktere se daji na tomto pixelu provest, a dale pribydou nove instrukce, ktere ale ty stare nenahradi protoze ty jsou zakladem pro vytvoreni/zpracovani pixelu, je to jako kdybyste na auto pridal pate kolo a bal se o to jestli pojdede i po silnicich kde jezdi ctyrkola auta.
- asdfgh

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 10:31

Komentáře tohoto uživatele máš zablokované.

Není zbytečné se dohadovat o počtu tranzistorů? Každý výrobce je počítá jinak a rozdíly jsou na úrovni mnoha desítek procent, takže tato čísla nám stejně moc neřeknou. nVidia na jedné konferenci zmínila číslo přesahující 500M, ale co započetla a co ne, to samozřejmě nikdo neví. Většinou to funguje tak, že má-li čip menší počet tranzistorů než konkurenční řešení, tak výrobce pro jistotu ještě nějaké "zatají", aby bylo číslo co nejmenší a mohl se chlubit vysokým výkonem na nízký počet tranzistrů - naopak pokud jich má více než konkurence, tak započte vše, co se dá a chlubí se vysoce komplexním čipem - takže opět jde jen o marketing.

Ohledně G80 bych moc skeptický nebyl, nVidia se poučila z NV30 a od tédoby jde na jistotu, takže i kdyby v SM4.0 čip za moc nestál tak v době vydání, kdy SM4.0 hry nebudou, se to neprojeví a úspěch bude určovat výkon v SM2.0 a 3.0, který bude mít G80 bezesporu dobrý. Takže G80 úspěšný bude. Dál ta frekvence - i NV40/70 byly taktované konzervativně a nedá se říct, že by šlo o propadáky. Sice si nemyslím, že by nVidia šla pod 500MHz (výtěžnost by to nezlepšilo, ta už pod 500MHz při 90nm prakticky nevzrůstá), leda snad kvůli množství odpadního tepla, ale nemyslím, že by G80 byla výrazně větší než R580, který na 90nm zvládá v pohodě 650Mhz i víc.
- no-X

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 11:35

Komentáře tohoto uživatele máš zablokované.

no jestly bude ten brutalni vykon 32Pipek stacit? kdyz dnesni 24pipkova 7900GTX nestaci na X1950XTX ktera ma pipek 16 :)
- Honza

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 13:09

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Jeste bych doplnil. Predpovidat uspech nejakeho budouciho produktu na zaklade aktualniho produktu je holy nesmysl, viz P4 vs Core 2. Druhak, prohlidl jsem si testy na Anandtechu a na Guru 3D a ehrm, myslel jsem ze X1950XTX bude vice rychlejsi, vzdyt ty rozdily na 7900GTX jsou tak 0-5 fps, to je fakt zdrcujici.
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 16:10

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Chjo... naopak, podle minulých a aktuálních produktů se vždy dá odhadnout určitý směr, který se výrobce bude ubírat. A pokud Intel architekturou netburst šlápnul vedle a mnoho let nevydal vůbec nic, co by bylo založené na nějaké nové architektuře, tak je jasné, že po tuto dobu pracoval na něčem novém, čím by si zlepšil reputaci (stejně jako NV a situace kolem NV30/NV40)

A co se X1950XTX týká, tak podle průměrů z 12 her na ComputerBase (1600*1200/AA+AF) je o 15% rychlejší než GTX a ve vyšších rozlišeních (podle testů behardware) je na tom v průměru o 21% líp. Nevím co bys za tu cenu chtěl víc...
- no-X

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 16:27

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @no-X: Ale R1950XTX neni stavena proti GF7900GTX ale proti GF7950GX2! Proti GF7900GTX je postavena R1900XTX!
- Neomen

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 12:52

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Hele frajere, jednak X1950XTX je o jednu pulgeneraci pred 7900GTX, takze by byla pro ATI ostuda, kdyby nebyla rychlejsi, druhak ma GDDR4 pameti a nikdo nemuze odhadovat, jak by s temito pametmi byla rychla GeForce. Klidne by se mohlo stat, ze by Radeon brutalne prekonala, klidne by nemusela, to ja nevim. Kazdopadne srovnavas produkty, ktere proti sobe nejsou urceny, X1950XTX byla reakce na 7950GX2.
- drnoha

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 13:51

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Těžko by G71 s GDDR4 Radeon překonala, když už 7900GTX má rychlejší paměti než X1900XTX a přesto jí to k poražení X1900XTX nestačí.

Honza: Jak píše Lukáš, "pipelines" nelze brát za směrodané. Je to stejné jako porovnávat automobily podle počtu dveří nebo podle objemu nádrže. Jediný způsob, jak v dnešní době lze porovnávat čipy je celkový popis architektury + parametry jednotlivých ALUs. A i tak je to mnohdy nestačí pro vysvětlení konkrétních výkonnostních rozdílů.
- no-X

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 8. 2006 11:43

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Pokud budeme brát pipeline jako ROP, těch mají oba čipy 16. Pokud budeme brát pipeline jako pixel shader (tak se to většinou bere), R580 má 48 plnohodnotných, G71 má 24 zdvojených.

Dnes už neexistuje nic jako "pipeline" a je nesmysl podle toho porovnávat čipy jiné architektury...
- Fiala Lukáš

Reklama
Reklama