Zpět na článek

Diskuze: AMD oznámilo vývoj CPU+GPU

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Rychlé přihlášení přes:

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 14:33

Komentáře tohoto uživatele máš zablokované.

GPU + CPU asi není špatná myšlenka,ale já bych byl spíše potěšen,kdyby se pořádně zapracovalo na zabudování podpory výpočtu fyziky do GPU nebo pořádnou optimalizaci pro dual core CPU,než si dávat do počítače další hardware v podobě PhysX.
- Gaskoňec

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 14:43

Komentáře tohoto uživatele máš zablokované.

Mel bych dotaz. Jak to mysli s vystup pro VGA, zakladni desky maji klasickej vystup, ale kdyz ta grafika bude v CPU? To bude nejakej specialni vyvod, ktrej se nekam zapoji do desky?
- Jiří Mrázek

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:26

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Uplne stejne, jako je to reseno u integrovane grafice v chipsetu. Takze jakej specialni vyvod? Proste povedou spoje v zakladni desce a budou zakonceny beznym vystupem, jako u normalni grafiky (vedle ostatnich I/O).
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 20:16

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Neboj sa AMD to ma vyriesene v Geode a kazdy socket ma piny for future use,

http://www.amd.com/us-en/ConnectivitySolutions/ProductInformation/0,,50_2330_9863_13022%5E13058,00.html
- fotoba

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 20:14

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Neboj sa AMD to ma vyriesene v Geode a kazdy socket ma piny for future use,

http://www.amd.com/us-en/ConnectivitySolutions/ProductInformation/0,,50_2330_9863_13022%5E13058,00.html
- fotoba

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:39

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace nebo se da externi DAC do slotu jako se to dela, kdyz potrebujes pridat k integrovany grafice dalsi vystupy, takova karta stoji par korun a neni problem ji udelat treba do PCIe 1x slotu, coz hodne zmensi rozmery a este vic ji zlevni
- Dr Meduza

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:07

Komentáře tohoto uživatele máš zablokované.

Nějak si to nedokážu představit to bude zbytek grafárny na MB nebo furt budu mít grafárnu bez čipu a ten budu moct měnit s CPU? NA to jak rychle stárnou grafiky měnit jak grafiku a CPU bude hodně drahý.
- Sumo.cz

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:24

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace To jsi to fakt moc nepochopil. Tohle bude misto integrovany grafiky v chipsetu (ale o dost vykonejsi). A to take nemas nikde zbytek grafiky bez cipu. Chce to trochu premyslet.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:30

Komentáře tohoto uživatele máš zablokované.

co sa mysli pod pojmom high end u ATI?..ak tym myslia xx800 xx900 rady tak z clanku vypliva, ze sa s mainstreamom u ati mozme rozlucit..:-) to je len moj postreh
- kamikzi

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 15:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace High-End u ATI jsou FireGL grafické karty, moc si na nich nezahraješ, ale pro Vizualizační centra nebo CAD jsou asi dobré, nemůžu posoudit , nikdy jsem neviděl. V počítačích máme Hi-End od NVidie.
- RS

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 16:12

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace High-endem asi nazývají X1800 a X1900. Prozatím. Až bude tahle nová hračka na světě, tak už bude tohle low-end. Myslím že to je dobrej nápad pro PC do firem atd. kde grafická karta slouží jenom jako něco z čeho vede výstup na zobrazovací zařízení. Jen bude o dost výkonější než dnešní integrovaný grafický akcelerátory.
- Michal Ondráček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 16:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Michal Ondráček: no, moc si nedovedu představit, že by něco rychlejšího než ultralow-end sneslo integrovat do procesoru a sdílet RAM, takže podle mě alespoň ze začátku budou low-endové a mainstreamové karty normálně v prodeji... těžko říct jak se to bude ubírat potom, jestli to budou pozicovat jako náhradu IGP v čipsetu nebo jestli plánujou postupně rozšiřovat pole působnosti tak že se to bude krejt s low-endem samost. GK...
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 20:24

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Bude to urcite to samy jako integrovane jadro v cipsetu, ale s tou vyhodou, ze bude mozne skalovat vykon vymenou procesoru. A kdyby se procesory CPU i GPU daly natisknout na jeden cip (coz je mozna sci-fi) pak by mela byt levnejsi i jejich vyroba.
- polygon

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 16:40

Komentáře tohoto uživatele máš zablokované.

Nedokážu si představit výhodu tohoto řešení...
To jako bude několik kombinací CPU+GPU jednom? Budou muset vyrobit strašně moc kombinací. Já třeba vůbec nepotřebuji grafický výkon (jen video), ale výkon procesoru bych uvítal.
Výhoda bude pro lidi, kteří počítačům nerozumí, když začnou vyrábět cpu-gpu, které bude výkonově vyvážené. Nemudou tak moct naletět na špatnou kombinaci. Ale oni si to supermarkeťáci dokážou vynahradit u Intelu. Bohužel právě výkonově vyrovnané řešení cpu+gpu se řadě lidí, jako jsem já, nebude hodit. Jak se to asi bude chladit? Spotřeba CPU+mainstreamGPU uchladit jedním vzduchovým chladičem... jo, už se netěším.
- Jan Prušák

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 18:49

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Chladit se to bude v pohode. Vyrobni proces uz bude 65nm a nebo spise 45nm a to snizi narocnost na napajeni a tim i chlazeni. A hlavne CPU a GPU budou pro to upravene. Hlavne nepujde zrejme o mainstreamGPU, ale spise o vykonejsi lowend.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 18:38

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace ono to nejspíš bude na úrovni integrované grafiky, takže výkon nic moc... přeci jen tam bude sdílený přístup do paměti, což je pro GPU docela solidní brzda
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 18:45

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace Zas takova brzda to nebude. V te dobe budou bezne DDR3 na tech 1000MHz a vice a ty maji v 128bitech(64 uz asi nebude) budou mit podobnou propustnost jako budouci lowend karty. A pokud bude prime propojeni s CPU, tak by to mohlo bezes pomerne slusne, ale to se uvidi, rozhodne to bude o dost vykonejsi, nez IGP, ktere je brzdene dalsimi zbernicemi.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 21:13

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: To je docela hloupej argument. Kdyby vám někdo před 3 roky řekl, že v roce 2006 budeme mít DDR2-800 a dual-channel bude i v kancelářských PC, usoudil byste snad že low-end a mainstream grafiky budou integrované, protože Radeon 9600XT měl tehdy 600MHz paměti na 128bit sběrnici? Vývoj jde stále kupředu, takže nároky na propustnost pamětí se stále zvyšuje a zvyšuje se i počet tranzistorů, čili není pravda že nové výrobní procesy přinesou nižší spotřebu.

=>polygon: jo tak to nevím, to by asi záleželo na implementaci. Mluví-li se o CPU+GPU, míní se tím jeden kus křemíku (CPU+GPU v jednom balení, ale ze dvou čipů, už má nějakou dobu VIA), takže nevidím důvod proč by se paměť musela připojovat přes HT. Ale slyšel jsem že řadič pamětí v K8 není moc IGP-friendly řešení, právě kvůli tomu že je tam CPU a jedna sběrnice jako mezičlánek.

Když o tom přemýšlím, naprosto ideálním řešením by bylo dávat k IGP (nalepit na desku) vlastní paměť - stačilo by 32 nebo 64MB nějakých levných GDDR2 čipů, další paměť by se sdílela ze systémové RAM. Dost by to pomohlo výkonu. Problém by byl asi jenom ve složitosti PCB, protože i 64bit rozhraní potřebuje nějaké spoje.
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 20:29

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: U AMD je ale jedno, jestli je graficke jadro integrovane v centralnim procesoru, nebo v cipsetu. Tak jak tak by melo pristup do pameti pres hypertransport. Nebo ne?
- polygon

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 21:56

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Ale ja jsem nerekl ani slovo o grafice stredniho proudu za 6000 (coz Radek 9600XT byl), ale o lowendu, kde se davaji pamati typu DDR1 nebo DDR2 v rozmezi 200-400MHz(mam na mysli skutecnou) a sirkou 32-128bitu i dnes a to je mene, nez maji dneska bezne pocitace, jako hlavni RAM. Takze asi tak.
Ano vyvoj jde stale kupredu, ale u LOWENDu to moc videt neni, stale se pouzivaji zbernice typu 32 a nebo 64bit a 128bitu je spis vyjimka.A narocnost na propustnost pameti neni zase tak horka, kdyz se nepouziva AA a AF.
Ale je pravda, ze novy vyrobni proces prinese snizenou spotrebu.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 22:35

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: Porovnejte si spotřebu Radeonu 9800XT (150nm), X800XT (130nm) a X1800XT (90nm). Jsem opravdu zvědav, k čemu dojdete.
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 03:55

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: 9800XT spotreba asi 55-60W, X800XT spotreba asi 70-80W, X1800XT spotreba asi 100-110W...ale pokud se podivam na neco jineho, tak pocet tranzistoru je 9800XT 105M (asi), X800XT 160M, X1800XT 320M. A hlavne vykon.

Spotreba je proste dana spatnou archytekturou (neni efektivni), vyrobni proces to hodne drzi pri zemi. Si ven, spotrebu 320M tranzistoru, pri 130nm a nebo 150nm....to by bylo nekolikrat tolik, nez tech 110W.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 03:47

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Pokud to budu porovnavat u nVidie, tak mi vyjdou presne opacne cisla. Je to take o optimalizaci jadra a zrovna Ati ma ted zrave GPU. Ale pokud se na to same podivame u CPU, tak tam je to jasne, mensi vyrobni proces a mame hned mensi spotrebu, pri stejen frekvenci a nebo stejna spotreba, pri vetsi frekvenci, jen 90nm Prescotta se nejak neujal..:-)

To, ze je vyvoj grafik spatnej, mi je jasny, ale tim bycho novy vyrobni proces neocernoval, protoze ten za to nemuze, muze za to archytektura cipu.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 13:23

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: [I]Pokud to budu porovnavat u nVidie, tak mi vyjdou presne opacne cisla[/I]
Ne, v dlouhodobém měřítku vám vyjde to samé.

[I]ale pokud se podivam na neco jineho, tak pocet tranzistoru je 9800XT 105M (asi), X800XT 160M, X1800XT 320M. A hlavne vykon.[/I]
Ale o to právě jde. Počet tranzistorů a výkon se zvětšuje, a to tak, že i s novějším výrobním procesem je spotřeba vyšší než u minulé generace. Čili nový výrobní proces by přinesl nižší spotřebu při stejném výkonu, ale výkon bude vyšší a spotřeba minimálně stejná.

[I]Spotreba je proste dana spatnou archytekturou (neni efektivni)[/I]
U procesorů to určitě platí (hlavně u NetBurstu), u GPU spíše ne. Například RX1950XTX má spotřebu 2x takovou jako R9800XT, ale poměr výkon/watt je lepší.
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 14:23

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: To pak znamena, ze po generaci G80 a R600, nema uz co prijit, protoze uz tak bude spotreba nekde u 150W ne-li vice a dalsi generace to tedy podle Vas jeste zvetsi. Nechci videt gpu po teto generaci.
Podle me tedy archytektura hodne ovlivnuje vykon i spotrebu. Treba G71 ma vykon stejny jako R570, ale pri mensi spotrebe a o 100M mene tranzistoru, takze ma mnohem efektivnejsi archytekturu a to je cesta do budoucna.

Pocet tranzisotru primo neurcuje vykon. Treba G70 mel vice tranzistoru, nez G71 a vykon mel mensi a spotrebu vetsi.

Co plati u CPU, palti i pro GPU, je to porad kremikovy cip a to se nezmeni.
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 18:36

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: [I]To pak znamena, ze po generaci G80 a R600, nema uz co prijit, protoze uz tak bude spotreba nekde u 150W ne-li vice a dalsi generace to tedy podle Vas jeste zvetsi.
...
Co plati u CPU, palti i pro GPU
[/I]
Říká se že další generace už bude žrát míň. Kdo ví. Je pravda že takhle to opravdu dál nejde a stejně jako si to uvědomili výrobci CPU, někdy si to musí uvědomit i ATi a nVidia.

[I]Treba G71 ma vykon stejny jako R570, ale pri mensi spotrebe a o 100M mene tranzistoru, takze ma mnohem efektivnejsi archytekturu a to je cesta do budoucna.[/I]
Na první pohled to tak vypadá, ale není tomu tak. Krom toho že G71 vychází ze staré architektury NV4x... ty tranzistory o které je R580 větší zajišťují:
- ring-bus: AA s nižší ztrátou výkonu
- HQ-AF: maximální možná kvalita, filtrují se textury pod všemi úhly
- HDR společně s AA
...a když zapneme AA a vysokokvalitní AF, zjistíme, že rozdíl počtu tranzistorů víceméně odpovídá.

[I]Pocet tranzisotru primo neurcuje vykon. Treba G70 mel vice tranzistoru, nez G71 a vykon mel mensi a spotrebu vetsi.[/I]
Těch 24 milionů tranzistorů navíc u G70 byly pro lepší stabilitu na vyšších frekvencích, jinak jsou jádra stejná. Zrovna v tomhle případě je rozdíl dán výrobní technologií - G70 byl 110nm a G71 je die-shrink na 90nm, proto dosahuje vyšších taktů a spotřebu má nižší. Kdyby ovšem byly přidány výpočetní jednotky a plocha by byla plus mínus stejná, pak by spotřeba pravděpodobně byla vyšší.
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 19:34

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: A jak toho asi dosahnou? Te nizsi spotreby? Udelaji jen die-shrink na jemnejsi proces? A nebo nebudou mit vice tranzistoru? To pak nemohou mit vetsi vykon, pokud archytektura neovlivni vykon a ani spotrebu.

Podle Vas vykon a kvalitu urcuje hlavne pocer tranzistoru? Nebo jak to mam chapat?

Ja si teda myslim, ze linearni narust tranzistoru neznamena linearni narust spotreby (jsou ruzne tranzistory v cipu a ty maji ruznou spotrebu).

Problem spotreby podle me souvisi s vyrobnim postupem. TSMC nedosahuje kvalit Intelu a nebo AMD a jejich tranzistory maji velky unik proudu (nezadouci).
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 20:30

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Tomáš Roček: [I]Podle Vas vykon a kvalitu urcuje hlavne pocer tranzistoru? Nebo jak to mam chapat?[/I]
Výkon určuje víc faktorů, z nichž základní jsou architektura a frekvence. Spotřebu určuje hlavně počet tranzistorů a jejich napětí, u GPU to docela platí, u CPU pravda tolik ne, protože jak píšete, čipy se zahřívají nerovnoměrně (je známo že cache žere míň než samotné jádro) a u GPU se zase některé části čipu flákají (typický příklad - vertex a pixel shadery, z toho důvodu směřuje trend k unifikaci).

[I]A jak toho asi dosahnou? Te nizsi spotreby? ... A nebo nebudou mit vice tranzistoru? To pak nemohou mit vetsi vykon[/I]
Jsou dvě možnosti - buď bude lepší architektura s nižší spotřebou, ale výkonem pořád o něco vyšší (byť třeba ne o tolik jako v případě G71 -> G80) nebo se výkon už zvyšovat nebude a bude se pracovat jen na nižší spotřebě.

Že lze vytvořit GPU stejně výkonné, ale s menším počtem tranzistorů, dokázala několikrát S3. Srovnáme-li například R350 a Chrome S27 (oba jsou SM2.0 čipy a jsou podobně výkonné): R350 má 107 milionů tranzistorů, Chrome S27 asi 70. R350 má 256bitovou sběrnici, S27 jen 128bit, takže to jsou taky nějaké tranzistory, pořád má ale S27 méně.
- Fiala Lukáš

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
27. 10. 2006 00:01

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace @Fiala Lukáš: Vzdyt rikam, hlavni je archytektura. Nvidia ma momentalne efektivnejsi a uspornejsi archytekturu G71->R570 i za cenu mirne horsi kravile (neni bezne porozovatelna, pokud ji nekdo nehleda a da se slusne opravit ovladacema), takze pro me to je plus.

A spotrebu neovlivnuje jen pocet tranzistoru a napeti (jsou to samo vyrazne faktory). Dalsi vyrazny faktor je vyrobni proces, pouzite materialy (hlavne izolacni). Proste TSMC nedisponuje technologiemi jako Intel (napnuty kremik) a nebo AMD (SSDOI) a podobne. Dalsi vec je moc velky pocet tranzistoru vuci vyrobnimu procesu.
Jen porad nechapu, proc co plati pro CPU, neplati pro GPU, vzdyt v GPU jsou take ruzne registry, Cache (mozna v mensim mnozstvi), spista tranzistoru v GPU neni tolik vykonove vytezovany a tak mohou byt vice optimalizovane na mensi spotrebu. Jen se mi zda, ze se s tim moc netrapi a tolik to neresi.
Ale jinak s Vama celkem souhlasim..:-)
- Tomáš Roček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
25. 10. 2006 21:58

Komentáře tohoto uživatele máš zablokované.

Já bych se spíš přikláněl k jinýmu řešení. Dělat GPU jako procesory, mít na to nějakou speciální patici kam by se vložilo grafické jádro. Na paměti by byly vyhrazeny banky jako je to nyní ale byly by zvlášt pro grafiku a zvlášt pro systém. Prostě takový dvouprocesorový systém, kde jeden procesor je GPU. Podle mě by se ušetřilo na PCB pro grafiku, protože grafika se upgraduje častěji než mainboard.
- Michal Ondráček

Uživatel bez registrace
Uživatel bez registrace
Level 1 Level 1
26. 10. 2006 11:31

Komentáře tohoto uživatele máš zablokované.

@Uživatel bez registrace To si nemysli, ze bude vyhoda. GPU v podobe samotneho procesoru, by vyslo minimalne na stejne ponize jako samotne CPU a hlavne takkle by se dali delat maximalne Lowendy a mozna Mainstream, protoze by byl problem s pametma. A ve vysledku, by samotne pameti(nesli by pouzit GDDR, ale jen DDR) + samotne GPU vyslo na vice penez. Tudy cesta nevede.
- Tomáš Roček

Reklama
Reklama