@subdivider
@net.Xtreme: Ludsky mozog predovsetkym nie je deterministicky stroj s pevne danou instrukcnou sadou. Vlastne cely zivot kazdeho jednotlivca je jedna velka heuristika. Preto ludia navrhuju rozne stochasticke pristupy ako geneticke, ci memeticke algoritmy alebo skusaju vyuzivat neuronove siete. Lenze vsetko toto zavisi na cloveku! Programator urcuje podmienky podla ktorych budu z populacie algoritmov vybrane nasledujuce generacie. A casto to konci absolutnym fiascom, ze "vyslachteny" program uplne strati funkcionalitu, ktora bola na zaciatku cielom. Cize sa nezlepsuje ale ZHORSUJE! Ak ma clovek dizajner problem najst vhodne podmienky pre "parenie sa" algoritmov, tak ako by to mal vediet stroj? BEZ SANCE! Neuronove siete, to je kapitola sama o sebe. To je len zufaly pokus okopirovat ludsky mozog...
Neviem preco sa stale zamiena, zvyseny vykon v geometrickych operaciach s celkovym hernym vykonom. Nove nVidie by boli od Radeonov rychlejsie v takomto rozmedzi iba v pripade, ze by detaily v scene boli robene vyhradne tesselaciou a naslednym displacement mappingom... Takze hovorit o nVidii v globale ako o 2-3x rychlejsej karte je zavadzanie hrubeho zrna. Okrem toho s najvacsou pravdepodobnostou ATI v dalsej generacii navysi pocet jednotiek starajucich sa o tesselaciu...
@Chroustostroj
@Mali: Ty si s prepacenim komediant... Prosim ta, co je to za vyrok, citujem: "Myslim, ze uplne prvni 40nm TSCM proces mel kolem 20%, ne?" Myslel si "špatne", pretoze vytaznost nie je funkciou, ktorej parametrom je iba typ vyrobneho procesu. Ona je funkciou vyrobneho procesu a zlozitosti cipu/poctu tranzistorov/plochy cipu... Takze tych 20% je z tvojej strany MEGAHLOD! :shock:
@Vaio
Clovece, tak si kup HD5850/70 a nemusis riesit cervene/zelene palicky... To by ta ako hrialo pri srdci, ze su cervene palicky vacsie ako zelene, aj ked by to nebola pravda? Co je vsak podstatne, tieto vysledky testov vo forme "paliciek" nezrychlia hry na tvojom HW, takze ti to moze byt jedno...
Je naivny ten, kto si mysli, ze tieto "leaky" nie su planovane a riadene... Je to predreleasovska reklama produktu, aby sa o nom pisalo na nete co najviac a kedze su to developerske beta verzie, tak ide defacto o "trosku rozsirene" dema k hram...
@subdivider
@T_xy: Vidno, ze nemas informaticke vzdelanie. Co si myslis, ze preco neexistuje automaticky debugger, ktory by dokazal detekovat zacyklenie tvojho programu? Ten problem znie tak, ze das stroju na vstupe retazec obsahujuci zdrojovy kod. A stroj ma na vystupe povedat bud ano alebo nie. Teda, ci v konecnom case bude program ukonceny alebo sa zacykli. A cuduj sa svete ten "velmi tvrdy vysledok" znamena, ze aj keby si zobral najlepsich programatorov sveta z Google, IBM, Microsoft proste kohokolvek tak to jednoducho nenaprogramuju... A preto su programatori naveky odkazani vlastnorucne a vlastnohlavne debugovat svoje programy. Stroj vie automaticky skontrolovat iba syntax ale absolutne nie semantiku zdrojovych kodov... p.s.: Len tak pre tvoju info, Turingov stroj a vypoctovy model RAM (teda PC) su ekvivalentne. Teda na TS vies simulovat RAM a na RAM vies simulovat TS. Takze ten tvrdy vysledok plati aj pre PC 8)
Bohumil Stejskal: "Tak a ted si Vas koupim, vsecky!" Sony: "Tak a ted Vas zazalujem, vsecky!" Haha, hned si idem na Youtube opat pustit rapovacie video GeoHot-a... :lol:
Nedavno som reklamoval GA-MA790X-UD4. http://img254.imageshack.us/img254/1893/dobropiscensored.png Vydrzala 2.5 roku, tak to je v praxi to "Ultra Durable"... :shock: Esteze na dosku bola trojrocna zaruka a vratili mi zeleny 100€ papierik...
Eset NOD32 beriem ako kvalitny produkt, ale Eset Smart Security by som nechcel ani zadarmo. Osobne pouzivam Avira Free Antivirus a Comodo Firewall, ktore su dokopy urcite ucinnejsie ako ESS 5...
Nvidia narazila na rovnaku barieru, na ktorej si rozbil drzku aj Intel so svojim Larabee... Jednoducho robit velke monoliticke GPU cipy, ktore sa funkcionalitou blizia standardnym CPU je cesta do pekla - katastrofalna spotreba plus tragicka vytaznost. Fermi si kupia iba skalni fanusikovia nVidie a potom ti, ktori chcu programovat GPGPU - pre nich to naozaj ma zmysel. A ti ostatni zrejme siahnu po kartach ATI. Myslim, ze nVidia bude musiet velmi rychlo pracovat na novej generacii grafickych kariet lebo inak ju to potopi...
No nechcem byt zly, ale to si v eVGA myslia, ze ludia su uz celkom padnuti na hlavu??? :shock: Aby som parafrazoval Bohumila Stejskala: "Chladic, slaby, hlucny, nevymneni, necha!!!"
Kym nedojde k "migracii" na nizsi vyrobny proces, tak dovtedy nemozno ocakavat ziadne velke vykonnostne skoky. Jedine, co by totiz ATI ostavalo je navysenie poctu stream procesorov = vacsia plocha cipu + vyssie odpadne teplo + horsia vytaznost = cesta do pekla, v ktorom sa momentalne smazi nVidia...
Nemozem si pomoct, ale 1/2 ak nie 3/4 tych dievcat vyzera, ako by absolvovali plastiku nosu... Neviem, ci Taiwanky maju taketo nosy dane geneticky, ale z pohladu Europana to vyzera proste divne...
@Beny.eM
Na programatorovi je velmi vela uloh -> napisanie thread-safe kodu, synchronizacia vlakien pristupujucich k zdielanym prostriedkom, debugovanie tychto aplikacii je NOCNOU MOROU pretoze taketo programy su vo svojej podstate nedeterministicke... A to je sakramentsky zlozite a laikom ako si aj ty to pride ako lenivost... Navyse v mnozstve aplikacii sa neda vyuzit paralelizmus uz z principu -> nevypocitas cislo Pi paralelne, nenapalis DVD paralelne, ...
[quote=Olda_rab1]jo je to parada kdyz se domluvi sw a hw inzenyri a mi pak musime jen platit za novej a novej hw.[/quote] Vsetci pozaduju od hier: lepsi graficky vzhlad, realnejsiu simulaciu fyziky, "mudrejsiu" A.I. a zaroven by chceli, aby to islo rovnako rychlo bez nutnosti upgrade... :0 :shock: Ty si zrejme myslis, ze ak by sa posnazili SW inzinieri, tak by vsetko kludne mohlo slapat na 386SX... Sa zobud, to je tvoj problem, ze si "pařan"...
Vsetci co si myslia, ze prichod Fermi zrazi ceny su na velkom - priam kardinalnom - omyle. nVidia, aby si zaplatila vyvoj a napravila polrocne financne suchoty (ked nebola schopna vyrabat dostatok podarenych kusov), tak dvihne ceny do zavratnych vysok, ktore by som odhadoval, ze sa vyrovnaju dobam 8800 Ultra. Takze ATI bude mat relativne o dost lacnejsie karty (sice s nizsim vykonom ako nVidia) a to uz aj bez zlacnovania. Takze ceny sa nepohnu ani o prd... Mozno tak po pol roku...
Ak som dobre pochopil, tak zabezpecenie dlhovekosti dat, je dosiahnute jedine existenciou celej kolonie, v ktorej aj po dlhu dobu budu statisticky prevladat jedinci s DNA, ktora koduje pozadovanu informaciu (Cize je tu nutnost velkej redundancie). Ale mutacie su vsade pritomne, takze po case podla mna moze ta informacia vymiznut z populacie. Hlavne ak by doslo ku kontaminacii bakteriou z inej kolonie. Takisto zapis dat, citanie dat, vyhladavanie a pristup k datam vidim ako dost problematicke...