Zpět na článek

Diskuze: GeForce GTX280 - nový král 3D přichází

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:02

Komentáře tohoto uživatele máš zablokované.

Hodně dobrá recenze. Karta je to dobrá akorat na ní vrhá stín 9800GX2...jak je v recenzi zmíněno
- Lukáš Lalík

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:07

Komentáře tohoto uživatele máš zablokované.

No, podle toho ce se nedávno psalo, že to má být "trhač asfaltu" , to nevypadá zrovna moc růžově. Navíc cena je docela veliká. Už se těším na konkurenci 4870X2.
- Black_Arrow_CZE

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 17:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Kazdej vedel , ze trhani asfaltu se konat nebude. :) Takovej vykrik do tmy jako vzdy. Autor recenze , kdyz nemohl vyzdvihnout vykon karty, vyzdvihl novou modlu CUDA. Ale ani v toto pripade by to zase nemel nikdo moc bastit. Jen pro ukazku : CPU ale není mrtvé - K běžnému používání počítače ale pouze GPU nestačí. Stále budeme potřebovat klasický procesor, který bude obsluhovat běžné jedno-vláknové aplikace. Bylo by mozna dobre kdyby autor.. ukazal nejakou jednovlaknovou aplikaci v dnesnich windows - ja nenasel jedinou(teda krom jednovlaknoveho procesu - coz byla jen soucast nejake jine aplikace a hlidala ikonku na liste) aLe back to CUDA. Ma smysl v pouziti jedine tehdy pokud prohram pouziva nejakou stejnou operaci nad vetsim objemem dat. Krom toho ze CUDA compiler je ciste otazka CPU. Ale dal. Data lezi nekde v RAM nabo na HDD. Je treba ty data dostat do VRAM na Gaficke karte. Tzn krok 1: Priprava dat (CPU) , poslani pres PCIE do VRAM (CPU), nastaveni parametru vypoctu (CPU) , provedeni jednoho kroku vypoctu (GPU),vyjmuti dat z VRAM , (CPU),vyhodnoceni dat (CPU), zakomponovani dat do vystupu (CPU). Tzn opravdovy dopad na vypocty bude mit accelerace pomoci GPU jen opravdu v hodne specifickejch ulohach. Presne je to videt i na vecech v grafu GPU physics performance.. narust vykonu je jen v efektove fyzice :) , ale herni fyzika zustane zas jen a jen na CPU. Teda pokud hra nebude slozena jen s tisicu stejnejch kulicek nebo kosticek. Jeste jedna poznamka... kdyz ma nekdo kod v C++ tak to soupne do CUDY a ono to pozna co se hodi na GPU a co ne. No doporucuji at si autor CUDU nainstaluje a ozkousi si jak to funguje doopravdy. :)
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace naprosto souhlas. Manual na CUDU sem studoval, zkosuel sem i ten spesl driver (Quadro135M NVS) a teda, 1) zadnej uspech 2) pro prelouskani par stranek manualu, musim rict, ze jak se v clanku pise, ze "jednovlaknovej pprogram to samo zparallelizuje", tak to proste pravda neni. je treba si taky rozmyslet, kolik skutecnych HW vlaken chci, alokovat blok SP, pripravit pro ne data pres CUDA API, a teda, kdo na aspon koukl, da mi za pravdu, ze jen vzit beznej C/C++ kod a zadat na konzoli: nvcc XXX.CPP neni ani zdaleka dost. Btw, kdyby to bylo tak easy, uz by davno vsechno, co jen jde a melo by to smysl, bylo davno na CUDU portovany :) Ale, zas nechci odrazovat pripadne zajemce. Jen, bych ocenil, kdyby v pasazi o CUDe byl aspon osobni dojem, nebo mene superchvaly.
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:19

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @daniel zika: ja sem si stim hral asi tejden... a nerikam , ze to je spatny , ba naopak. Ale nebudu pouzivat nic co nepojede na vsem. Je mi jedno jak se NVIDIA vs INTEL vs AMD dohodnoou..Ale jedinej vysledek kterej jsem ochoten akceptovat(no myslim si ze vetsina soudnejch lidi) Je ze neco namastim a ono to pojede na jedny platforme se vsim..tzn kdyz bude kompatible akorat CPU pojede to na CPU kdyz budu mit NVIDII.. pojede to CPU + NVIDIE a kdyz ATI tak to pojede CPU + ATI. Nechci si hrat na nejakyho proroka ale podle mne to skonci jednotnou specifikaci. Bude to umet microsofti kompiler. Bude pridano rozhrani do directu. A bude vymalovano. A v realu to bu tak , ze konzole a ATI pojede na jadru HAVOK + HAVOK FX a NVIDIA, pojede na svojem
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:29

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: nemyslim, ze M$ kompiler tohle nekdo nauci. uz jen jaky NV dela obstrukce s SLI Intelu. Ale, treba to nakonec prodaj. Kazdopadne, v soucasnym stavu by snaha o max. flexibilitu, tedy programovani logiky pro rozpoznavani co mam za HW a podle toho, treba z DLLky tahat optimalizovany fce, byla asi pomalou sebevrazdou. toho kodu by bylo moc, vydani by celkem trvalo a bylo by vyznamne drazsi a do toho se nikomu moc chtit nebude. navic, tim ze by to bylo takle platformne nezavisly, nenutilo by to nikoho kupovat novy zelezo => neni zarucunej dalsi prijem pro vyvoj.
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:49

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @daniel zika: Tak sem to nemyslel.. Jako pak. ja myslel.. jako jeden kod. A zapnout kompiluj pro CPU only. compiluj pro CPU + GPU NVIDIE , CPU + GPU ATI.. TZN vysledek treba DLL program.. a pak dll vypocty.. pri instalaci. Check.. co mam za hw. a podle toho nahrat prislusnou dll . Jako to je ted. Taky u her jse to co bezi pro DX10 / Dx9 a taky je WIn32/Win64 .. takze spis takhle nejak sem to myslel.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 22:52

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: jinak, jeste jedna poznamka. mohl bych poprosti o nejakou malou ukazku nejakyho Vaseho C/++ kodu v CUDe ? koukal sem na to, ale nebylo moc casu, vic me tlacilo PL/SQL a CUDA upadla do pozadi zajmu. nicmene, blyska se na lepsi casy a rad bych si taky pohral :)
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:57

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Jenže tohle (takto obecný překladač) je řádově složitější úloha, než jeden a ten samý kód napsat pro těch sedmnáct specifických úloh optimálně a "na zelené louce".
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 01:45

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @daniel zika: jo pokud je ten email pod nickem Ok.. tak poslu vysledek mojeho hranisi.. Jeste steluju.. v pripade , ze ten kontakt je jinej poslete ho na email u nicku..
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 19:23

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: Ale ve výsledku to ve firmě máme přesně tak, jak říkáš: při spuštění aplikace zjistí, který HW má použít, natáhne dané DLL, které obsahuje vyšší nízkoúrovňové funkce (linární algebra, statistika atd.) a vlastní algoritmus už je potom napsaný obecně.

Když se kouknu, kolik peněz se vrazilo do itanií, kde se také spoléhalo na to, že práci s optimalizací odbyde překladač a do dneška to vlastně uplně dobře nefunguje, jsem zkrátka k existenci něčeho takového skeptický... :(
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 19:21

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: tak ja teda nevim.. jak velka je instrukcni sada u treba GPU.. ale prece u toho compileru nejde jako o to prekompilovat ten kus co pobezi na karte.. to umej kompilery i dneska.. de o to. ze je rozdil mezi praci s RAM a s VRAM..hlavne de o ten interface. tzn kompilace ty samotny operace co bezi na GPU je jednoduche..jde o tu integraci do kodu na CPU.,,, tzn vice mene je to jen o oinicializaci pameti. tzn ja vytvorim nejakej pametovej usek a nasypu tam data.. ten pametovej usek se musi dostat do VRAM.. pa se provede da cast pomoci GPU a pak zase back to CPU..tzn vlastne by stacilo ,..treba kdyz to zjednodusim tak byte by byl VRbyte , double by byl VRdouble a VR by znamenalo VideoRam.. a operace nad VRbyte by se vyhodnotila jako pro GPU.. a bylo by,.. jde o to jak si jeste poradit 64 bit registry na CPU vs 128 bit s vice na GPU. Jeste k tomu paralelizmu , na CPU i GPU je to o necem jinym. Na GPU ti to a samy dela vyc pocetnich jednotek. Kdezto na cpu ti kazdy vlakno muze delat neco jinyho.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 08:21

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: jojo, je to jeden z nekolika (ochrana pred spamstvem a podobnym svinstvem).
me napadlo zkusit si udelat nejakou zajimavou CUDA proceduru a zkusit ji volat jako ext. z DB. jestli by z toho vvypadl nejaky perf. boost. uz jsem zkousel vypocty SSE/FPU a vysledky jsou taky pekny :)
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 22:48

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: no, je pravda, ze system, kterej si nikdo neporidi domu, tedy se na tom nemuze naucit prgat je sam sobe trochu hrobarem :) jinak, o Itaniu vim kde ted je, celkem nove, ale asi v ramci firemniho tajemstvi bych to rikat nemel, tak, sorry. ale, to je jeden system, s 16CPU, jinak pravda, nevim kde jinde bezi. Ale, zpet ke CUDe. Dovedu si to predstavit jak by to behalo, proste ocheckuju jestli mam GF8+ a pokud jo, natahnu nv.dll, jinak cpu.dll (treba). Jen to proste celej release aplikace prodrazi.
Jinak, by me dost zajimalo, jestli to porovnani vykonu CPU/GPU, kde sou cisla jako 147x apod. byly optimalizovany pro oba systemy, tedy CUDA pro GPU, SSEx pro CPU :) s tim ej taky sranda si pohrat a dela to divy. CPU neni tak pomaly, jak se muze zdat, jen to chce vedet, kde je ten potencial a jak ho pouzit.
ale to je zas, psat kod, kterej zavola CPUID a podle toho zas natahne .dll s SSE optimalizovanym kodem ,nebo ne ... takze, vlastne by muselo byt spousta 'redundandniho' kodu. pro kazdou nejakou vypocetni platformu. A to podle me prilis zvysuje naklady, tedy uz z toho nebude masova, ale naopak 'zakazkova' zalezitosta to sou uz 3 verze .dll-ky: x86, SSE a CUDA. to je 3x vic (a to jeste beru lienarni meritko:)) kodu => casu => penez. takze, proto se dneska napise radsi neco, co eha nejak na vsem moznym zeleze, ze to nevyuzije vsechen potencial nikoho netrapi, protoze za rok se koupi novy silnejsi zelezo .a. jden dal, forever loop
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 19:33

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Ano, souhlasím, není to o generování kódu. To je jen dílčí subproblém. Ale i když je CUDA syntakticky podobná C, koncepčně jde o uplně jiný pohled na svět. (Paralelní) programování pro GPU je něco uplně jiného než paralelní programování pro CPU. Úplně jiný styl myšlení. Z tohoto pohledu je můj názor skeptický. A také proto, že mě to živí a nerad bych byl nahrazen překladačem :)
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 22:50

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @daniel zika: ale, tak me napada, a omlouvam se za OT, ale i sam intel by na pristupu k parallelnimu programovani mohl dost zmenit, jeho projekt TeraScale je toho zarnym prikladem. predstava, ze rucne prgam 80threadu a resim jejich synchronizaci, me trosku ubiji. ale, je zas pravda, co si clovek neudela sam, to nema :D
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:05

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: jo proste jde o to . ze slovo jako Fyzika a PhysX a Havoc by nemelo v cele tehle zalezitosti hrat vubec zadnou roli. GPU muzu krom veci na grafiku pouzit na jake koli vypocty. Stejne jako programatori moc neresej AMD vs INTEL vs VIA. Stejne tak by nikdo nemel resit to jestli bude pri vypioctech pomahat ATI nebo NVIDIE nebo od nekoho jineho. Krom toho proc by mel nekdo pouzivat HAVOK FX nebo PhysX. Kdyz by si mohl napsat svuj kod pro fyziku.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 19:46

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: tak o praci se bat nemusis/te... :) jde spis o to aby za co nejmin prace bylo co nejvic muziky... tzn kdybych mel jistotu , ze kdyz neco nejak napisu a pak to pokompiluju. Vylezou mi 3 varianty a budou fungovat. Jsem linej jako prase a kazdej radek kodu navic je pro mne opravdovym utrpenim. Bavi mne vymejslet nebavi mne psat. Tak proc kdyz by to slo psat alespon v tomhle pripade universalne tak proc to neudelat.. Ja chapu ze vsechno je buziness a kazdej se snazi na tom svojem vydelat.. Ale proc to takhle zasmodrchavat. CUDU si vymyslela NVIDIE pro svoje karty ..HAVOK a HAVOK FX ma intel pro svoje + teda asi to bude pouzivat i AMD. Ale neni zadne realne technicke oezeni proc by HAVOK nemohl bezet i na NVIDII a v CUDE delat pro ati. A kdyz se dostanem do tyhle urovne uvahy. Tak proc to nezastresit.. jednim rozhranim a vsechno by bezelo nad tim... Dyk ty karty fungujou podobne. A vysledek zas tak rozdilnej neni.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:22

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Ale jo, také se řeší, akorát to neřeší aplikační programátoři -- lidé, co klikají nějaká GUI v javě, píšou aplikační servery v Javě a programují docházkové systémy v C#. Ale jakmile začneš dělat neco ve stylu "solver diferenciálních rovnic pro stiff systémy", tak tě zatraceně zajímají velikosti cache, latence pro dekódování instrukce, počet taktů na vykonání instrukce, atd. Ale je to špička ledovce, takových lidí je na světě malinko.

A svět CPU má za sebou nějakých dvacet let ohnívání. Kde jsou dneska Alphy, vektorové NEC, PowerPC? Kde je slavné Itanium? Na okraji zájmu. Mají "fanouškovskou" základnu, někdy se ukáže, že ta architektura omezené využití má, ale mainstreamový programátor s tím nepřijde do styku.

Za pár let třeba nějaké API existovat bude, ale je to proti zájmu nV i ATI, co kdyby přistoupili na konkurenční API a konkurence to v dalším vydání totálně změnila?
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:12

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: No já ti rozumím, bylo by to pěkné, mě také nebaví řešit ten kód třikrát (CPU, Cell, NV), ale z mého pohledu jsou ty platformy tak rozdílné, že si nedokážu představit, že by to bylo použitelné v normální praxi (rozumný výkon za cenu, co firmu nepoloží).

Jo ve vědě, tam by se o takovém překladači dalo sedm let psát a několik milard na grantech získat, to znám.
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:31

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: no prave , ale u tech her. se ta rychlost a efektivita taky dost resi. A tam prave prichazi ty modifikace pro "kazdej" kus hardware a to je otrava. Intel s AMD si taky portujou instrukcni sady toho druhyho. Jako kdyz si nekdo na zakazku nech apostavit server s 1000 cema NVIDIA karet..tak somu se stajnak usije na telo celej OS a i ty aplikace co tam pobezi...Ale proc delat takove psi kusy pod jednou platformou jako je PC + Win.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:20

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: tak asi to je utopie. trosku..ale preci.. U klasickejch cpu bude jader cim dal vice. A pravdepodobne se uz tollik nepoleze frekvence , ale poleze pocet..Mozna by stalo prehodnotit.. programovaci jazyky jako celek a pohnout se o krok dal.
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:26

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @samboush: Ale jo, souhlasím, v okamžiku, kdy dojde k přehodnocení celého programovacího paradigmatu se nám otevřou další dveře. Ale kdy?

Tahle oblast je určitě perspektivní. Zajímá-li tě to, kup grafičku za 3k a uč se. A nevěř nikomu, že na pořádnou CUDU musíš mít ultru nebo rovnou Teslu.

- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 20:37

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: jo pro cloveka co to ma jako konicek je to fajn.. Posteluje si to otestuje. Ale kdyz se clovek ma na zivobyti tak kazdej takovej krok s narustem variant reseni ..znamena vetsi naklady a nebo to vosuli. Ale ho zase poskodi oproti konkurenci. No a ze dostane na integraci noveho reseni prachy od vyrobce.. Par vyvolenejch mozna .
- samboush

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:14

Komentáře tohoto uživatele máš zablokované.

9800GX2 podava vcelku zaujimave vysledky najme v porovnani s obycajnou 9800. Chcelo by to uviest parametre kariet lebo v niekde ma dokonca viac nez 100% narast vykonu oproti single karte (COD4). Aj v mnohych dalsich hrach je 90% narast vcelku bravurny az sa mi nechce verit ze Nvidia tak vyladila ovladace.
- risomas

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:16

Komentáře tohoto uživatele máš zablokované.

Zase jednou nVidia velkohubě prohlašovala, jak bude nejlepší a jakou přinese revoluci.
A zase jednou nejlepší je a zase jednou se žádná revoluce nekoná.
Mírný pokrok v mezích zákona, řekl by Hašek a zase jednou by měl pravdu :)
- [CZ]Hunter

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:22

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Brutalni vykon (tm) - nektere vynalezy by si mohli PR opravdu patentovat :-))

Kazdopadne vic nez samotny vykon bude podle me stejne zajimava CUDA a co s ni casem vyvojari vytahnou. Stejne je vykon dnesnich 3D karet absurdne predimenzovany, kolik lidi ma doma 24" LCD s 1920x1200? Naprosta vetsina hracu spokojene kouka na sve 19"
- Václav Vlček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 21:44

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace ja mam 2 22". dneska jsou tyto monitory tak levne ze je ma spousta lidi. Koukni se na ruzne ankety 22" monitory jsou snad nejrozsirenejsi.

- Leviatan

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
27. 6. 2008 17:37

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Siggy: 8800GTS v Crysis plynule jen do středních detailů. Pak už se min FPS prokousává pod 20FPS.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:52

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @[CZ]Hunter: Souhlasím se Siggy, možná máš smůlu na kus. Moje BFG taky neřve a topí přiměřeně sohledem na G80..
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:18

Komentáře tohoto uživatele máš zablokované.

Dekuji PC tuningu za zalsi peknou recenzi. Moc se tesim za 10 dni az vyjde i clanek s HD4850 a pozdeji i ostatni z HD48*0 serie ,a pak uvidime srovnani vykonu, ale i pomeru cena/vykon... Ale na to si bohuzel jeste musime chvili pockat. Mějte se ,cau
- Ondrej Horak

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:27

Komentáře tohoto uživatele máš zablokované.

trosku pro nvidia clanek ala co nejvice pozitiv najit na tom "trhaci asfaltu". Nejvice mi schazi nezarazeni do nevyhod to ze nema dx 10.1 - jak se pise u konkurence kdo si kupuje takovou kartu ceka od ni solidni vykony minimalne rok az dva a to uz bude asi dx10.1 chybet....
- jiri l

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 19:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace To víte, ATI myslí především na budoucnost (ve formě DX10.1) To by mělo na životnosti karty přidat.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
21. 6. 2008 00:26

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace No... ne. Bohužel - obecné stanovisko vývojářů je v tuto chvíli: "Na DX10.1 kašlem, počkáme se na DX11, které už není daleko..."
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
30. 6. 2008 12:20

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Aros: Není daleko? Tak jakpak tedy vysvětlíte to dlouhé čekání na přechod z DX9 na DX10?
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 15:08

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace No to je právě otázka... Jak tady píše OBR, nVidia umí přesvědčit. A myslím, že pro ni nebude problém vývojáře přesvědčit ať DX10.1 nepoužívají...
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:30

Komentáře tohoto uživatele máš zablokované.

hmm "Skutečný test nejvýkonnější grafické karty bude možná pro mnohé překvapením, v žádném případě ale ne zklamáním" - toto me pobavilo :) prej hlavnene zklamanim .)a je to tu opet nvidia se proste hodni a za kazdou cenu i kdyby ji to melo stat cokoliv musi met proste nejvykonejsi grafiku .) a absolutne ji nezajima ze pomer/dena vykon bude o nicem a ze napr 2 novyradeony nabidnou uplne stejnej vykon ale podstatne levneji )

Pozitivni je CUDA - i kdyz jak jste pane Obermaier rekl tak GPU je v instrukcichktere zvlada nekolikrat rychlejsi nez CPU problem je zetech instrukci je opravdu malo - tutid to ma jen uzke zamereni

pro me je GTX280 zklamanim - jeto ironie ale nvidia zase nemuze prekonat sama sebe .)

osobne se mi radsi zamlouvaji nove radeony jelikoz posledni testy vypadaji opravdu verohodne a 4850 za cenu 4000kc svykonem jako 8800gts je pekne - 2 do cross a mame vykon skoro jako GTX280 za podstatne mensi cenu

skoda ze se nvidia furt hodni za absolutnim prvenstvnim a sama si podrazi nohy - ale holt dovolit si to zatim muze jelikoz ted byla 2-3roky vykonovej lidr

Me osobne se ale spis zamlouva cesta AMD/ATI - kteri vyrabi maly technlogicky pokrocilejsi cipi tato ceste nekam vede oproti vyrobe velkejch monolitickej cipu .)

NO FLAME PLS .) thx HOWG .)
- Adam Madr

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 21:50

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace no , ATI levné-- nejspíš ano, 2 v crossu stejný výkon jako 280-- no mozna, ale koukl bych se na prodeje tam se bitva rozhoduje a jednoznačně vede nvidia, dalsi kolo souboje nadchazi uvidime jestli lidi budou chtit vice grafik nebo jen jednu
- Leviatan

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
18. 6. 2008 09:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace no tam jde o to, aby lidi pochopili, ze nvidia proste nekdy neudelala takovou supr-cupr kartu a skutecne budou kupovat to, co je vyhodnejsi
- Hawkk

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 15:12

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @scream: No pravda, ale hned potom nVidia se svým mainstreamem.

Mít nejvýkonější kartu na trhu je otázka prestiže a dobrého jména, proto se tak snaží, nezávisle na tom, kolik lidí si pak takovou kartu koupí... Nepochybuji ale, že jich nakonec bude celkem dost(cena je podobná jako u 88GTX při uvedení a těch se taky prodalo dost...)
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 19:54

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Aros: Neznamená, že když má někdo nejvýkonější high-end kartu, tak musí mít tím pádem i nejvýkonější mainstream, na což mnoho lidí (nemusíte to být právě vy) zapomíná.
Neuvědomělý člověk si řekne: Ten kdo má nejlepší high-end kartu, tak budou mít určitě výkoný i mainstream, tak proč ho nekoupit. A pak už se o výkony konkurence nezajímá. Zajímá ho také hlavně to, co mu příjde dříve pod ruku a díky marketingu Nvidie je větší pravděpodobnost, že narazíte jako první na ni.
ATI se nějak výrazně neprojevuje(nechlubí) a v tom byste mohli vidět její slabou úspěšnost prodeje.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
18. 6. 2008 09:37

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Aros: njn nvidia potom s mainstreamem, aby to "potom" nebylo trochu pozde, ale zatvrzeli nvidiari si urcite pockaji, o tom nepochybuji
- Hawkk

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
21. 6. 2008 00:28

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Sniper on the roof 42: ATI se nechlubí, protože Hi-end nemá(bude mít až zase s příchodem dvoučipové 4870)... A o to ale právě jde - o ten efekt. Tak to funguje, nemá cenu to rozebírat - na tom je marketing založen - dojem.
- Aros

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:32

Komentáře tohoto uživatele máš zablokované.

tiez sa tesim na 4850 bude to bomba v pomere ceny k vykonu na moj 1600x1200 display tak akurat len aby bola dostupna, toto si kupi len masochista, 650$ by som za kartu nikdy nedal
- JZ

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace ..to ale neznamená nič iné, len že nie si cieľová skupina. To, že je niekto ochotný dať za grafickú kartu vyššiu čiastku miestneho obeživa ako Ty, Ti predsa nedává nárok nazývať ho masochistom. Alebo Tebe by bolo ľahostajné, keby ten človek hovoril o Tebe ako o sociálnom držgrošovi? Pochybujem.. Mimochodom, ja tiež nie som cieľová skupiná pre tieto karty.
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:41

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Jenže ona cílová skupina si nakoupila 9800 GX2 a teď nemá moc důvodů kupovat si GT280.
Samozřejmě, někdo to udělá, ale zajímalo by mě, jaká prodeje nVidia očekává.
Chudí na to nemají a bohatí to nepotřebují.
- [CZ]Hunter

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:40

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace no ak ma niekto display s 30" palcami tak asi nebude prenho problem kupit kartu za 15 k ale ja to niesom, a niesom ani "socialny drzgros" keby ze ju chcem tak si ju kupim ale naco ked to nepotrebujem

- JZ

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 19:59

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @[CZ]Hunter: Ale jeden bohatý co ji potřebuje by se přeci našel- Radek Ulhán z nejnavštěvovanějšího serveru v ČR. :o) 8)
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:48

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @JZ: Ja netvrdím, že ju potrebuješ. Ani to, že si ju nemôžeš dovoliť. Ja hovorím len toľko, aby sme nedsudzovali tých, čo si ju kúpia.
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:45

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @[CZ]Hunter: Plně souhlasím. Dost možná u téhle karty neplatí "peníze až v první řadě". Jde o to obsadit první místo ve "výkonovém zbrojení". High-end se nikdy nechoval jako dojná kráva, ale dnes (a posledních pár let) právě tenhle marketingový flexing táhne prodeje značky v mainstreamu.
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:37

Komentáře tohoto uživatele máš zablokované.

ako karta fajn vazne naj na trhu ale dost ma nici ta cena na svk 16k keby stala tak 12 tak je to akurat ale toto je dost prehnane
- sorry nie

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:39

Komentáře tohoto uživatele máš zablokované.

Mňa najviac zaujali kapitoly:
4. Využití výkonu GPU pro náročné výpočty
8. Enkódování videa pomocí GPU

Už sa teším keď tým základným procesorom bude "iba" dvojjadrový VIA Nano :o)

P.S. Inak neodpustím si: Ten kolega zo Slovenska to písal po mongolsky či anglicky, že ste to tam nemohli dať hneď a pre mňa za mňa potom ste si to mohli aj preložiť !?!?!
- Gzur

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:05

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace No to by aj mna zaujimalo, btw ktora generacia kariet bude podporovat double precision ? Ma to suvis s tym DX10.1?
- bxm

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:54

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace IMHO protože by to zbytečně zvyšovalo komplexitu čipu a tedy i jeho cenu.

Double precision není žádná spása světa. Při analýze většinou zjistíš, že float stačí pro 99% aplikací CUDY a tomu procentu je většinou i ten double málo.

- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace no, taky by me t zajimalo. to je vicemene slabina CUDy, resp. vubec vypoctu na GPU. V kazdym pripade, i s nejakym workaroundem, by emulace double-prec. mohla porat byt rychlejsi nez skutecny double na CPU, ale... to by chtelo vyzkouset
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 11:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Y.: Pravda. daleko flexibilnejsi je treba knihovna GMP (GnuMultiPrecision library). nicmene, to je prave SW workaround, takze to asi moc snadno na CUDU portovat nepujde.
- daniel zika

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:40

Komentáře tohoto uživatele máš zablokované.

OMG toto že má být brutal výkoná karta? Výsměch - opět další KECY nV. Crysis na max bez AA a pouhých 29FPS... K čemu mi je "500FPS" v jiných hrách, které teď jedou se staršími grafikami stejně maximálně hratelně kolem 55FPS? O této kartě jsem uvažoval jen kvůli Crysis, páč jen kvůli ní by měla cenu a výsledek - otřes. To má nV navíc ještě spešl podporu této hry. Další kámen urazu je i cena, tato karta je šlápnutí vedle.
- rozinek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 22:12

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace uvidime ako pobezi far cry 2, nova mafia GTA apod... crysis je viac nez neoptimalizovana hra a nie je az tak dobra aby som ju hral dookola.
- scream

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 16:54

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Omyl můj milý. Crysis právě je optimalizovaný pro nV grafiky a výsledek je více než hrozný. S tím FC2 to byl na předváděčkách taky FAKE. Crysis je hrs, která je daleko zábavnější, než dnešní stereotypní chujoviny jako GOW. Crysis nabízí několik způsobů jak dané kolo udělat(rambo, tiše...), má nejkrásnější grafku, hrátky s fyzikou...
- rozinek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:40

Komentáře tohoto uživatele máš zablokované.

GTX stála při uvedení 16 000,-, tak si myslím, že tohle je dost slušná cena
- David Mikel

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Když se bere absolutní hodnota, tak samozřejmě. Ve světle cen konkurenčních produktů ovšem nikoliv.
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:47

Komentáře tohoto uživatele máš zablokované.

Čekal sem vííc. Podle toho co se všude psalo jaká to bude bomba to nakonec tak růžový není teda. Su ještě zvědavej na tu 260ku jak si povede..uvidíme =)
- Jirka

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 20:06

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Ano vyrovná se dvěma jádrům.
Ale to jedno je právě tak velké, jakoby jste dal dvě malá od konkurence vedle sebe.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:47

Komentáře tohoto uživatele máš zablokované.

Pekna recenze, jen bych 65nm jadro nedaval v dnesni dobe jako vyhodu. Kartu to zbytecne prodracuje a 65nm byla u konkudence pouzita u skoro pred rokem u karet HD2600 a HD2400.

PS: Ty rezimy spotreby se nVidii opravdu povedli. Jinak jde pouze o nahradu 9800GX2.
- Menethor

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:49

Komentáře tohoto uživatele máš zablokované.

GTX 280 ? Nie, dakujem. Nad touto kartou som vazne uvazoval. Ale toto ma rozhodne nepresvedcilo. Zeby sa nova generacia GK obliekla do cervenej ? :-)
- Siggy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 19:37

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace na základě čeho? Vždyť ATI HD4x00 ještě ani nevyšly a GTX 280 je 2-3x výkonější než jakýkoli chip od ATI co je na trhu :-D
- nx99

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 17:38

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Nevim proc by mela byt GTX280 2-3x vykonejsi nez grafiky na RV770. Pokud bude 4870 zhruba stejne vykonna jako dnesni 3870X2 jen bez problemu okolo CF, tak v nekterych hrach bude naprosto vyrovnanym souperem GTX280, jinde tak o 30% horsi, ale tve 2x se nevyplni nikde. Navic se musi pocitat s tim, ze bude skoro za polovicni cenu. Jo a az prijde 4870X2 tak se stane kralem on.
- Menethor

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:54

Komentáře tohoto uživatele máš zablokované.

Neni to tak davno,co byla zverejnena informace,ze nove prichozi karta GTX280 zadupe do zeme dosavadni high-end o 40 a vice procent.. tak mam radost,ze se tak nekona a moje SLI8800GTS512MB je stale v kurzu.. Jinak jak psal redaktor,ze nVidia nemusela vydavat 98x2 je pravda.. ale zrovna tak nemusela vydavat GTX280 a prijit po lete s necim vykonove mastnejsim..holt nove funkce chtely na svet,ale neni jich zas tolik.. Kdy uz bude vyhodne prejit na 64bit OS? sere me ze existuje DX10 a vsichni se ho bojej.. i ja xD
- Daniel Menschy

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 20:13

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace GTX280 se na druhou stranu bojí zase DX10.1. A rád bych měl tu kartu déle než pár měsíců kůli nepodpoře. Děkuji, nemám zájem. A navíc nejsem politik IT nadšenec s namaštěnými kapsami, který kupuje nový hardware každý měsíc a to ještě high-end.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:54

Komentáře tohoto uživatele máš zablokované.

dlho som maval nvidie teraz mam atinu 2600 xt assasins creed ide na 1600x1200 celkom svizne na to ze to je karta za 2 k, jasne ze nie plne detaily takze ked to zobereme ze hd 4850 bude cca 4x vykonnejsia tak imho to bude stacit na par rokov uplne a crysis je pekne neodladeny nahypovany blud kvoli ktoremu vsetci saleju za vykonom aj ked ostatne a nove hry sa daju hravat uplne v pohode aj na mainstreame
- JZ

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:11

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace vtip je v tom, že ti tato hra narozdíl od jiných aspoň dá na výběr jak dané kolo udělat(tiše, rambo...), nehledě na hrátky s fyzikou a kocháním se překrásné grafiky, kterou si ale opět normální smrtelník, díky dašímu neschopnýmu přehypovanýmu polotovaru od nV neužije.
- rozinek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
20. 6. 2008 20:21

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Na výběr jak dané kolo zvládnout tu už je myslím od doby prvního Metal Gear Solidu. (rambo,tiše) a překrásná grafika je vidět již při maximálním vyhlazování při překrásných několika málo FPS.
A dohrajete tuto hru za méně než 5 hodin oproti výše zmiňovanému legendárnímu titulu, nad kterým strávíte i celé dny.
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Přesne to, co popisuješ, jsem si užíval uplynulý víkend. Pohodlně uložen na pohovce, před televizí :-) (MGS4)
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 15:59

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Presne tak! Nemôžem sa zbaviť pocitu, že Crysis ako taký ani nie je tak veľmi o "hre" ako o "páke na trhu s grafickými kartami". Zase až tak super hra to nie je a ako hovoríš - v podstate je všetko príjemne hrateľné na mainstreamu.
- Tibby

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:04

Komentáře tohoto uživatele máš zablokované.

Myslim, ze kazdopadne je to velke dilo (nejen rozmerem). Kladne bych urcite hodnotil malou spotrebu v idle + dalsi features. Doufam, ze se nV v budoucnu podari prechod na 55nm a dosahne vyssich frekvenci (pri zachovani energ. narocnosti) + implementaci GDDR5 po jejich zlevneni. Nemyslim, ze tohle je posledni slovo. Uvedmomme si, ze single chip se dotahl/prekonal dual reseni. A pro ty co chteji provozovat 2560x1600 s 4xAA, 16xAF nejnarocnejsich hrach tu stale zbyva SLI.

Vzdyt preci v rozliseni pozitek ze hry nespociva!

Mam trochu pocit, ze mnoho lidi a priznivcu nV zvlaste se na GK kartu divaji pouze optikou vykonu ve hrach. Tak tomu dnes jiz uplne neni. GK je komplexni HW schopny plnit spoustu ukolu, na ktere by byl nutny spec. HW pripadne extremne vykone CPU. Je to svym zpusobem je to moznost jak zautocit na trzni podil leadera CPU, tim ze poskytnu platformu na reseni nenarocnejsich ukolu (zpracovani multimedii, vedecke vypocty, game).

Drzim nam vsem palce, at zdrava konkurence prinese prospech nam vsem bez ohledu na to jake reseni si zvolime. Redakci diky za recenzi.

fAnTIk (CF HD3870) ;-)
- Peteb

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:14

Komentáře tohoto uživatele máš zablokované.

Moc pěkná recenze, děkuji. Bohužel výkon karty je pro mě docela zklamáním, 32% nad 8800 Ultra není na dnešní poměry mnoho. Souhlasím s tím, že kdyby nebylo 9800GX2 asi by byla přijata mnohem vlídněji. Jako majitel 8800 GTX nevidím zatím důvod k výměně zvl. když se dočkám stejných novinek (počítání fyziky) jako na GTX 280 už s dalšími ovladači. Tahle karta je prostě v dnešní době pro hráče nezajímavá, zdůrazňuji pro hráče.
- doktor1

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:21

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace 32% je v celku mnoho nad 8800 ultrou když přihlidneme jeste k ceně a k celkovym technologiim pro ty co si chteji stavět nové pc to bude favorit čislo 1 jeste si samozřejmne počkame na tabor ATi ale vzhledem k technologiim se nVidia vzdaleuje a už nebude muset ATi pronasledovat frekvencema
- Jardis

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
17. 6. 2008 11:59

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace ono totiz je daleko vyzmanejsi porovnani s nejvyhodnejsi kartou v testu .. a sice s HD3870X2 ... tam uz to neni tak ruzove ze ...
- ge0rge

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
27. 6. 2008 17:46

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace [CODE] když přihlidneme jeste k ceně a k celkovym technologiim pro ty co si chteji stavět nové pc to bude favorit čislo 1 jeste si samozřejmne počkame na tabor ATi ale vzhledem k technologiim se nVidia vzdaleuje a už nebude muset ATi pronasledovat frekvencema [/CODE]
Jo, a kde má podle vás NVIDIA podporu DirectX10.1? To si strana zelených asi pak musí vyměňovat grafické karty rychleji než konkurence a to navíc dražeji. Radši pořídím levný RADEON HD4870 a uvidíte, že mi vydrží až do doby první DX10.1 hry, kdy bych už musel starou GTX280 vyměnit, kůli propadům výkonu a hardwarové nepodpoře DX10.1
- Sniper on the roof 42

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:17

Komentáře tohoto uživatele máš zablokované.

Je krásné, že tento program v článku zmiňujete, ale mě se ani po vydatném hledání nepodařilo najít ani Beta verzi, na které bych si tento program mohl vyzkoušet...

Zkoušel to někdo? Dá se to vůbec někde sehnat?
- Marek Kopečný

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:24

Komentáře tohoto uživatele máš zablokované.

Pekna recenzia... musim pochvalit Obra... velmi sa mi pacila cast s encodovanim videa... je to proste pecka... aky vykon poda GK proti CPU... myslim, ze ani ATI nebude na tom horsie... GTX280 je z technickeho riesenia velmi zaujimavym čipom, dost vykonnym, ale skor na vsestrannejsie vyuzitie ako cisto na hry... ja mam atinu 3870 a nemam problem... neinvestoval by som do GTX280 a uz urcite nie, keby som mal klasiku 8800GTX 768... akurat ta spotreba... no... ale este raz... pekny clanok...
- Jozef Adam

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:29

Komentáře tohoto uživatele máš zablokované.

Opravte mě jestli se pletu, ale AMD CTM (close to metal) nepřistupuje ke grafický kartě přes directx a je založená na rozšíření příkazů jazyka C, tedy naprosto stejně jako CUDA.
- zdenek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:51

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Ano :)
CTM je dneska CAL a má krásné api, kterým tam můžeš sytit ta jádra. Bohužel problém je v tom, že s generováním kernelu moc nepomůže.

Od toho je tu Brook.
- Y.

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:42

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Graficka karta je HW pripojeny pomoci PCI-E. Cim se podari kartu oslovit {zadanim) a vyzvednout vysledky je asi jedno. Pokud vim, tak podpora GPU computingu u ATI existuje i pro Linux, kde DirectX neni. CUDA chapu jako snahu o zprostredkovani funkci SP jednotek na karte jazykem vyssi urovne. Coz ma ve vysledku usnadnit programovani.
- Peteb

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:50

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace To že grafická karta je HW připojený přes PCIe vím :) Reaguju na pasáž ATI vs CUDA, kde se píše že u AMD se musí k hardwaru přistupovat přes directx nebo opengl, že je nutné znát přesnou architekturu čipu atd. Přitom Close to metal je dle mého naprosto stejné rozšíření C jazyka jako v případě CUDA a o rozdělení práce se stará kompiler. Ale je možný že se pletu :)
- zdenek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 17:23

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @zdenek: Bude to tak jak rikate, samozrejme reseni ulohy musi byt "GPU related". Zde to je dobre nastineno http://en.wikipedia.org/wiki/AMD_FireStream#Software_Development_Kit
Vcetne limitu (rekurze atd.). Vratme se k GTX280, nez nas nekdo pokara za of topic. ;-)
- Peteb

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:32

Komentáře tohoto uživatele máš zablokované.

masakr.
- Vašek Jiří

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:37

Komentáře tohoto uživatele máš zablokované.

Zamyslete se nachvilku a nazor vaš počka ušetřete novynku zbytečné krytice a časem vas to přejde :-)
- Jardis

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:48

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace sry ale ta tvoje veta snad neni ani cesky...

ad recenze : pekne, pak do grafu akorat pridejte 48xx

ad karta : je to studena sprcha, nema ani 40% nad 88gtx, natoz 98x2 :-( vsechny starsi hry jedou dobre uz ted a jedine crysis ktera by to mohla vyuzit tak porad nejede, takze pro hrace zbytecna investice, jediny duvod ke koupi jsou trochu paradoxne negraficke operace :-)
- Ssnake

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 16:46

Komentáře tohoto uživatele máš zablokované.

Zajímalo by mě docela, co ted dělá člověk, co tady minulý týden prohašoval, že už má dvě tyhle karty předplacené :-) Protože pro mě je výkon GT280 docela zklamáním. Myslím, že by měla redakce nazývat věci pravými jmény, a ne "trhač asfaltu" a podobný krávoviny.
- Michal Ondráček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 17:03

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Ten clovek se stale tesi as mu zitra dojdou ;), s podobnym vykonem sem pocital. Co je lepsi koupit si 2* GF 9800GX2 nebo GTX 280? ;), pocitam s tim ze to PC si necham velmi dlouho a ze skutecna sila onech grafik se teprve ukaze
- Posuckx

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
16. 6. 2008 18:57

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace sila r600 se taky mela ukazat a nez se ukazala tak uz tu jsou vykonejsi a levnejsi karty...kupovat jakoukoliv grafiku "na pak" se proste neda, az se ukaze sila dvou gtx v sli, tak se ukaze i jina levnejsi a vykonejsi karta/kombinace karet
- Ssnake

Reklama
Reklama