@fanik
@ptipi: předchozí odpověď byla mnohem delší... pořádný kus se někde ztratil. nechci to vypočitávat znovu, ale ve zkratce najdi si recenze na r800 a r1950 a porovnej výkony ve hrách v původní recenzi a pak v dodatku třeba o tři až šest měsíců později, u podstatných her té doby tam bylo zlepšení i o 80% a 40-50% bylo běžných - stačí hledat, osobně si to velice dobře pamatuji
@fanik
@ptipi: opravdu??? tak se podívej na rozdíl ve spotřebě mezi 90 a třeba 65nm a počet tranzistorů roste už několik let konstantně. Co se týká ovladačů, nevím jak dalece sahá archív článků tady na pct, ale věřím že jistě najdeš nějakou recenzi a posléze retest s novými ovladači - necucám si to z prstu. Dále nechápu co jsi očekával ty od počtu tranzistorů...? rofl. jakože o kolik procent vzrostl počet tranzistorů, o tolik procent vzroste výkon??? kde jsi to viděl? u nvidie? u nějakého předchozího čipu ati? nebo snad u nějakého cpu??? a co má asi tak na starosti directX 11? kovová spona chladiče? pokud jde o použité paměti, tak to je velmi zjednodušeně gddr1 - nejvyšší spotřeba, gddr5 - nejnižší spotřeba. Holým faktem je, že nvidie využívá nesmyslných šířek sběrnic, protože musí - jejich technologie v současně době neumí s jinými pamětmi pracovat, přestože se o to pokoušeli. mimochodem můžeš si porovnat nárůst počtu tranzistorů u nv posledních tří čtyř generací a nárůst výkonu, budeš nemile překvapen. nechápu pro změnu tvé argumenty. Nejsem fanouškem ati ani nvidie (když budeš hledat, tak najdeš mé voltmody pro obě značky). poslední x let jsem používal obě značky a rozhodoval poměr výkon/cena/spotřeba. po 3870 jsem přešel na GTS 250 (dnes se jmenuje tak, dřív jinak) a žádné následující karty mě nepřesvědčily ke změně, až tato ovšem ne díky recenzi na pct, měl jsem možnost ji otestovat také a prostě nevěřím, že g300 bude revolučnější. je možné že g300 bude mít vyšší výkon, ale spotřeba bude mít také výrazně větší - osobně mám jasno... nehledě na to, že powercolor už je na cestě ke mě
@fanik
@ptipi: ptipi - jak dlouho se zajímáš o hardware a extra o grafické karty? Potenciál te karty je obrovský a mě hlavně teda při tom počtu tranďáků dostala spotřeba, ale k věci už od dob dnes už jen legendárních r4xx nebo r5xx, byly tyto karty výkonné už po uvedení, ale během půl roku odladěné ovladače častokrát výkon navyšovali nejméně o dalších +50% i mnohem více, tak to u ati prostě bylo a chodilo... pak šla pod amd uprostřed vývoje r600, což podle toho taky dopadlo. Netrpělivě se čekalo na r670, což už se docela povedlo, pak přišla rv770 ale to byla jen víceméně dopilovaná r670 na 55kových waferech... r5870 je to na co se čekalo od doby spojení ati amd a nemusím být guru, abych věděl že zrovna tuhle kartu chci, protože mě vrátí do dob r19xx =) ...te´d mám nvidii, ale milerád ji dám přítelkyni na hraní simsů =) ...momentálně budeme u nv rádi, když konečně pochopí, že gddr3 už je taky historie =)
@blizz.boz
blizz.boz - eee? jednoznačně nejvýkonnější jednočipové řešení, tak co to probůh meleš a ta spotřeba je prostě na ten výkon naprosto famózní - super karta
@fanik
@ptipi: ptipi - jak dlouho se zajímáš o hardware a extra o grafické karty? Potenciál te karty je obrovský a mě hlavně teda při tom počtu tranďáků dostala spotřeba, ale k věci už od dob dnes už jen legendárních r4xx nebo r5xx, byly tyto karty výkonné už po uvedení, ale během půl roku odladěné ovladače častokrát výkon navyšovali nejméně o dalších +50% i mnohem více, tak to u ati prostě bylo a chodilo... pak šla pod amd uprostřed vývoje r600, což podle toho taky dopadlo. Netrpělivě se čekalo na r670, což už se docela povedlo, pak přišla rv770 ale to byla jen víceméně dopilovaná r670 na 55kových waferech... r5870 je to na co se čekalo od doby spojení ati amd a nemusím být guru, abych věděl že zrovna tuhle kartu chci, protože mě vrátí do dob r19xx =) ...te´d mám nvidii, ale milerád ji dám přítelkyni na hraní simsů =) ...momentálně budeme u nv rádi, když konečně pochopí, že gddr3 už je taky historie =)
@fanik
@ptipi: opravdu??? tak se podívej na rozdíl ve spotřebě mezi 90 a třeba 65nm a počet tranzistorů roste už několik let konstantně. Co se týká ovladačů, nevím jak dalece sahá archív článků tady na pct, ale věřím že jistě najdeš nějakou recenzi a posléze retest s novými ovladači - necucám si to z prstu. Dále nechápu co jsi očekával ty od počtu tranzistorů...? rofl. jakože o kolik procent vzrostl počet tranzistorů, o tolik procent vzroste výkon??? kde jsi to viděl? u nvidie? u nějakého předchozího čipu ati? nebo snad u nějakého cpu??? a co má asi tak na starosti directX 11? kovová spona chladiče? pokud jde o použité paměti, tak to je velmi zjednodušeně gddr1 - nejvyšší spotřeba, gddr5 - nejnižší spotřeba. Holým faktem je, že nvidie využívá nesmyslných šířek sběrnic, protože musí - jejich technologie v současně době neumí s jinými pamětmi pracovat, přestože se o to pokoušeli. mimochodem můžeš si porovnat nárůst počtu tranzistorů u nv posledních tří čtyř generací a nárůst výkonu, budeš nemile překvapen. nechápu pro změnu tvé argumenty. Nejsem fanouškem ati ani nvidie (když budeš hledat, tak najdeš mé voltmody pro obě značky). poslední x let jsem používal obě značky a rozhodoval poměr výkon/cena/spotřeba. po 3870 jsem přešel na GTS 250 (dnes se jmenuje tak, dřív jinak) a žádné následující karty mě nepřesvědčily ke změně, až tato ovšem ne díky recenzi na pct, měl jsem možnost ji otestovat také a prostě nevěřím, že g300 bude revolučnější. je možné že g300 bude mít vyšší výkon, ale spotřeba bude mít také výrazně větší - osobně mám jasno... nehledě na to, že powercolor už je na cestě ke mě
@fanik
@ptipi: předchozí odpověď byla mnohem delší... pořádný kus se někde ztratil. nechci to vypočitávat znovu, ale ve zkratce najdi si recenze na r800 a r1950 a porovnej výkony ve hrách v původní recenzi a pak v dodatku třeba o tři až šest měsíců později, u podstatných her té doby tam bylo zlepšení i o 80% a 40-50% bylo běžných - stačí hledat, osobně si to velice dobře pamatuji
nevím jak autor přišel na to, že ve hře není žádná fyzika, ale je to holý nesmysl. Není sice bůhvíjaká ale je. co se týká výbuchů tak je spíš reálnější než jinde. Granát lidské tělo neodhodí na 20m jko v jiných hrách a to je reálné, ale když v multiplayeru trefím raketou predator skupinky nepřátel a případně i přátel, tak se rozletí na všechny světové strany. Dále pak třeba v mapě favela běžně padají ze střech odpadky a krabice, když tím někdo proběhne a stojíte-li dole, tak víte že tam někdo je atd.. fyzika tam je, není extra složitá, ale rozhodně reálnější než ve hrách, které se podporou nějaké fyziky chlubí - často přehnané fyzické efekty, aby si jich vůbec někdo všimnul mě opravdu neberou
[quote=Braňo1977]OMG Rybka[/quote][quote=overclocking]21.12.2012 - den, ked miliony ludi urobilo zo seba idiota. Rybku nevnimaje.[/quote] přesně tak, den kdy spousta lidí o jiné spoustě lidí mluví jako o idiotech a přitom nejsou schopni pochopit autorovu nadsázku. just ROFL
nejspíš ten kdo mel 2900XT na začátku roku 2007 a zřejmě ten stejný co měl 3870 taky se slušným předstihem, ale nikdo takový přece mimo obra nemůže existovat... aspoň tak nějak si ten argument pamatuji, více bude k mání na techpowerup
a další zaručené informace o tom jak je nv skvělá a ati (promiňte amd) hrozná. Poslední atina v zemi OZ byla tuším x1950, pak ale začaly proudit do země OZ nvéčka téměř zadarmo - v rámci ruka ruku myje - napiš to "pěkně a dobře" a my tě odměníme novými kartami a pseudo tajnými informacemi :D 5 let jsem tu nebyl a nic se nezměnilo... to mu se říká "nezávislý" redaktor :D
takže každý v mém okolí (v práci to jsou stovky lidí) včetně mě až na jednu nebo dvě vyjímky má vlastně v kapse ajfoun přestrojený za foun s androidem :D
podle mě úplně zbytečný case, určitě pro silnější topivější sestavy... Z3 je daleko lepší pokud jde o airflow a ventilaci a je asi tak o stovku dražší. není co řešit