@Uživatel bez registrace
@ch3vr0n: a co myslis, ze se stane, kdyz snizis rozliseni? kdyz to snizis na 8MPix, tak to vyuzije petinu cipu, u 5MPix osminu, coz nemeni nic na hustote pixelu cipu :) tzn u 8MPix mas zas prtavej cip, protoze se pouzije malej ctverecek uprostred.
@Uživatel bez registrace
@ch3vr0n: Dvakrat vetsi cip, ale ctyrikrat vetsi rozliseni, takze to v jeho prospech stale moc dobre nemluvi (20x vetsi hustota pixelu proti 20MPix fullframe fotaku). Velikost odhaduji, presna velikost neni uvedena, pocitam jako 2.5x velikost cipu v N8 (zmineno v materialech nokie), ktera ma 1/1.9", tzn ve skutecnosti o neco vetsi nez dvojnasobna hustota pixelu proti zminenemu panasonicu, omlouvam se tedy a porovnani s levnym kompaktem beru zpet, nicmene oproti vyssi stredni tride zadna slava (starej 7MPix kompakt s 1/2.5" je na tom stale lepe, co se pixelu na mm2 tyce)
@Uživatel bez registrace
@ch3vr0n: ono velkej cip v mobilech casto znamena mensi, nez v levnejch kompaktech. 40MPix snad nemivaj ani full frame zrcadlovky a o tom, ze by se velikost cipu v tomhle mobilu blizila velikosti 36x24 mm mam docela pochybnosti.. uz se tesim na ty reklamy na 40MPix super fotak a vysledny silene presumely (pripadne odsumely ~ rozmazany) fotky
@Leppard
to ja vim, v zadnem pripade neutocim na nvidii, ani autora tohoto clanku, ale spis na jednu existenci, ktera povazovala hodne shaderu na nizke frekvenci v podani ATI za neco odporneho... ted to "bozska" (z pohledu dane existence) nvidia ma taky...
@thorgal
No precetl jsme si to zde v clanku (prvni odstavec), coz jsem predpokladal za overenou informaci, ale zda se, ze chybne, takze svuj prvni komentar beru zpet.. Dle TPU se tedy zda, ze jde jen o vizualni zmeny..
to se moc panove nepredali po docela "fiasku" s P55, ktere jich melo z procesoru 16.. Jen doufam, ze v chipsetu jich bude aspon vic, aby ono USB3 a SATA6 zase nefungovalo na ubirani linek z PCIE16x nebo kompletnim zabiti CF/SLI
jsem docela zvedav, jak to bude vypadat, kdyz nvidia vyda dalsi karty az koncem pristiho roku, kdyz se ted radeony 6000 na soucasne fermi docela dotahnou a nebylo by prekvapenim, kdyby koncem pristiho roku prisly i radeony 7000. Ty nasobky vykonu budou "prekvapive" asi jen v nejakejch specialnich aplikacich a her se to asi vubec nedotkne..
[quote=csjacob1.5]:roll: lol kde [b]vydíte [/b]40X [b]výkonější [/b]je tam napsáno 4x a už jen z grafu je [b]vydět [/b]že to bude 3až4 x [b]výkonější [/b]jinak [b]mně [/b]ta vaše dizkuze opravdu [b]pobavyla[/b]. :lol:[/quote] to nevis, ze je tady ve zvyku menit clanek i nejakou dobu po vydani? Opravdu bylo v clanku, ze maxwell bude 40x vykonnejsi nez fermi (nebylo vsak udano v jakem ohledu). pan autor vsak po mnozstvi pripominek clanek upravil.
@SpiddeR
@LoPiO: I tak me nak zarazi, ze by do teto desky slo vrazit 32 GB, kdyz procesor podporuje max 16 GB.. to to vazne funguje? byt jako ram disk? sel by treba screenshot z cpu -z? :)
@IDope
coz o to, filmy zpravidla mivaj tento pomer stran (2,35:1; pomineme-li nepovedene konverze z HDTV, kde je 16:9). Problem je, ze pouze filmy do kin, nic televizniho (serialy), ani na praci s webem (vetsina stranek vypada tak na sirku 1280px) a ani dokumenty (kdy se spise hodi vyska) to neni..
@anonymousCZ
@Honzax: Za "viz." se srdecne omlouvam, takova hrubka. Nicmene abych citoval vas zdroj: Pri rozpadu Thoria je vyzarovano alfa i gama zareni (navrhuji nekdy kouknout i na EN verzi wikipedie).
nejak nechapu nahazeni ctyr pcie x16 hned pod sebe, kdyz tam clovek takhle da maximalne dve karty (kdo by delal sli/cf z vice jednoslotovych karet?) a navic krom graf. karet pcie x16 nic moc jinyho nevyuziva..
"Široký pozorovací úhel displeje až 185 stupňů" to se na nej da divat zezadu? nebo jde o mozny uhel vyklopeni displeje? "Při taktu vyšším než tři gigahertzy a hmotnosti od 1,3 kg nabízí ThinkPad X201.." notebook bezici na frekvenci vyssi nez 3ghz? neslo by to preformulovat, aby to neznelo jako z letaku hypermarketu?
nejak mi to prijde postaveny na hlavu. GTX470 (GF100) je vykonove mezi R5870 a R5850. GTX465 (GF 100) bude asi o neco horsi, tedy dejme tomu vykon R5850. GTX460 (GF104) bude jeste o neco niz, tedy treba mezi R5850 a R5830. Ona GTX490 ma mit 2 jadra GF104, tedy dualni GTX460, tedy neco jakoby podtaktovanej dualni R5850 (v nejlepsim pripade). Z tohoto moc nechapu, kdo by si to kupoval - bude to drazsi nez GTX480 (jeden by to ocekaval, kdyby ne tak to nedava vubec smysl), slabsi nez R5970, teplejsi nez GTX480, bude to zrat jeste vic nez GTX480 a vykonove to bude nad GTX480 asi dost minimalne. proc by si nekdo neco takovyho kupoval? chapal bych jedine nejakyho extremne posedlyho odpurce ati..
Nejak me prekvapuje, ze vsude jsou videa, jak to vypada skvele, ale nikde se stale nejak nevynorilo video, ve kterym by bylo porovnani physx pres gpu a pres procesor. Ohledne ty migrace - toho bych se moc nebal, precijen je tu reseni pres nalezeni upravenejch ovladacu nvidie (a po tomto o ne bude akorat tak vetsi zajem) a fungovani na vykonny ati a naky levnejsi nvidii na fyziku..
a co zminka o tom, ze tu mame zas po naky dobe nvidiacky ovladace, ktery snesou kombo ati-hlavni + nvidia-physx? viz. physxinfo.com . ale to se moc nehodi do kramu po prohlaseni, ze majitele ati utecou k nvidii, kvuli mafii, ze? :-P
nerad buzeruju za gramatiku, ale tohle vazne bije do oci. prosim vas, kouknete se na prvni vetu a zkuste ji dostat do spisovneho a smysluplneho stavu..
[quote=zdenek11]"bug" už opravili, takže to bude fungovat maximálně v téhle betě [i]Yes, this is a bug in the latest build of PhysX that was packaged with the driver. We'll be fixing this issue ASAP - the WHQL driver launching in early June won't have this issue. -NVIDIA[/i][/quote] "issue"... to vazne neni mozny, to ze to funguje nazvou takhle. nicmene toto je dukaz, ze vubec nejde o naky zachovani kvality, ale ciste o pridani nakyho kodu do ovladacu, aby to s ati proste nefungovalo.. nvidia dela pro uzivatele cim dal tim vic.
"zajišťuje kvalitní synchronizaci mezi LCD panelem a grafickou kartou, což eliminuje lagy způsobené špatnou komunikací právě mezi monitorem a GPU" nevim jestli zrovna kvalitni, ale vubec nejakou a zadne lagy to neeliminuje, timto akorat popletete lidi, co si mysli, ze lagy jim zpusobuje nejaky hardware, ktery muzou vymenit. Toto reseni pouze omezi tearing (stejne jako vSync), stutterning (zalezitost multi gpu) a snimkove latence (nejde o latence vuci nejakemu serveru). A tyto problemy to hlavne resi v oblasti 20-30 FPS, coz by melo zpusobit, ze v techto frameratech se bude hra zdat plynula. Otazkou pouze zustava, jestli by nebylo lepsi koupit levnejsi monitor bez teto vychytavky, diky tomu poridit lepsi grafickou kartu a problemu se vyhnout a nebyt v budoucnu vazan vyhradne na GPU od nVidie..
@Aleš Kaňák
Tak vzhledem k tomu, ze rozdil mezi 1600 MHz a 3000 MHz je minimalni, k cemu nam budou DDR4? Nizsi spotreba? U desktopu irelevantni, kdyz k tomu clovek pripoji 95W procesor a 200 W grafiku (lidi, co maji 50W CPU a 70 W grafiku neresi DDR4). Mozna 4000MHz DDR4, abysme misto 41 sekund cekali na SuperPI sekund 37?