@Uživatel bez registrace
To se nevylucuje, proc by mel ale ty jadra vyuzivat, kdyz je v dany moment nepotrebuje. To, ze se hra chova nejak v jednom momente, nemusi zdaleka znamenat, ze se takto bude chovat vzdy, na to asi narazel LookAS a to plati pro vsechny hry nejen SC.
@JoeBlack
@Dr Meduza: Nasviceni je identicke, material taky, reflexe je jina - opet jen ladeni parametru. Chyba v tom screenu je soft shadow na vlasove kouli, ktery tam chybi, coz je proste jen bug v soucasne verzi (uz opraven).
Kdyz to jde vyladit, aby to vypadalo stejne, neni to potom presne, o co nam vsem jde? Mit interaktivni render vypadajici stejne jako softwarovy ultrapomaly? :D
Na videu mas slozitejsi sceny interaktivne a to na mainstreamove karte, kterou ma kazdy paran doma v obyvaku. Predstav si to na Tesle.
@JoeBlack
@Dr Meduza: Rychlost muzu v klidu srovnavat, pokud je pouzito stejne rozliseni texture, vystupu, slozitost geometrie a pouzity supersampling. To jestli je barva takova nebo makova nema na rychlost vliv (na vysledek samozrejme ano).
@vaseo
Jeste k DX11 viz posledni odstavec. Da se predpokladat, ze DX11 situaci zmeni, protoze 'nativne' podporuje vicevlaknove zpracovani DX volani, coz bylo do ted spise problematicke. I v takovem pripade je vykon GPU sice stale stejny, ale muze se zefektivnit spoluprace CPU/GPU, zvlaste pak multiGPU reseni. Zase ale bude zalezet, jak se k tomu postavi vyvojari, multicore jsou tu uz pekne dlouho a stale je drtiva vetsina aplikaci jednovlaknova, coz je smutne.
@xkryspin
presne to me napadlo. myslim, ze RT neni ale primarnim cilem nove architektury (nvidia je v mainstreamu proti RT), ale spise vedlejsim produktem - proste RT na takto programovatelnem hardwaru bude daleko snazsi implementovat a bude take mnohem rychlejsi. Strasne rad bych videl, jak si Fermi poradi s nedavno vydanym OptiX realtime raytracem na GPU, na Quadro5800 za 3000$ me to zatim moc nepresvedcilo.
@Kollegah
misto GHz dej Mhz, misto jader treba megabajty na disku a vrat se o 20 let zpet, tehdy bylo taky par lidi s podobnymi vykriky. takze bys radsi doted jel na 386 a vsechny ty internety zrusil, co?
Test je to urcite zajimavy a odvazny ten, kdo se do nej pustil. Nicmene vysledky z podobneho 'rychlotestu' jsou vice nez sporne.
Tam, kde neni vyuzito na 100% ani jedno jadro, je jasne, ze test je zcela k nicemu, protoze je limitem GPU, tudiz testovaci nastaveni nevhodne. Bohuzel ani snizeni detailu/rozliseni nemusi vzdy znamenat dostatecne vypovidajici presun zateze na CPU, protoze s vypnutim nekterych efektu klesa i potreba D3D/OGL state changes a tim i zatez CPU.
Tam, kde je zatizeno 1 jadro na max a zbytek vubec nebo minimalne, nemusi take zdaleka znamenat, ze tomu tak bude vzdy. Az prijde na lamani chleba (AI, fyzika), muzou se dalsi jadra setsakramentsky hodit. Takovy test je ale predmetem rozsahlych experimentu vyvojaru kazde dane hry a opravdu nelze hrat 2 minuty jeden a tentyz usek a cokoli z nej usuzovat.
@vaseo
Jeste k DX11 viz posledni odstavec. Da se predpokladat, ze DX11 situaci zmeni, protoze 'nativne' podporuje vicevlaknove zpracovani DX volani, coz bylo do ted spise problematicke. I v takovem pripade je vykon GPU sice stale stejny, ale muze se zefektivnit spoluprace CPU/GPU, zvlaste pak multiGPU reseni. Zase ale bude zalezet, jak se k tomu postavi vyvojari, multicore jsou tu uz pekne dlouho a stale je drtiva vetsina aplikaci jednovlaknova, coz je smutne.
NVidia zkousi bojovat na 2 frontach zaroven, jsem moc zvedavej jak to bude zvladat. Proti AMD se asi docela citi, pokud nekdo vidite trosku do marketingu nvidie/amd, neni se co divit. NVidia je schopna si 'predplatit' prodej svych hernich karet vzdy a technologicky amd nema moc sanci byt o moc vic vpredu, i kdyz momentalni stav zacina byt na hrane. Problem je, ze Intel ma techto 'marketing' prostredku nesrovnatelne vic, NVidia je proti nemu rodinna firmicka. nvidia si veri, uvidime jak si povede. zatracovat nvidii v hernim prumyslu je dost predcasne a snad i naivni.
[quote=Z. Obermaier]Právě že naopak, vše je vysvětleno korektně a polopaticky ... o podobné hloupé komenty nestojíme, příště bude ihned smazán, zde jen vyarování[/quote]
Tuhle reakci nemyslite uplne vazne, ze? Skoro se nechce verit, ze autor povedeneho clanku se muze snizit na takovou uroven, to je skoro na uvahu o leceni.
@JoeBlack
FurryBall neni produktem nVidie, ale ceskeho studia, jehoz jsou i uvedene porovnani a screeny. Porovnani je v poradku, osvetlovaci model a vsechny pouzite textury jsou identicke se SW renderem. Rozdil je ve vlasovem systemu, ktery ma FurryBall vlastni, proto vypadaji obrazky trochu jinak, jde jen o sladeni parametru, ktere jsou ve FurryBallu mimochodem daleko propracovanejsi (blizi se produktu Shave - vlasovemu pluginu). FurryBall JE pripravovan pro produkci kvalitu.
Jeste ke CUDA - s cudou nema nic spolecneho, na co CUDA, staci klasicka pipeline GPU, pro kterou jsou GPU navrzena.
""Crysis 2 podporuje pouze DX9 a prvnímu dílu po vizuální stránce sahá maximálně po kotníčky."" Absolutne nevis, o cem pises. Prakticky vsechny "dx11" hry vyuzivaji jen DX11 API pro dx9 techniky, jediny, co je dx11 je teselace (kolik her ji ma?) + maximalne nejaky vylepseny (diffusion) DOF. Neprofesionalni C1 vs C2 srovnani ani nebudu komentovat.