@Blue Storm
@Blue Storm: Nechci Ti do toho nějak významněji kecat, ale označení S začal používat Apple u trojky (iPhone 3GS, 2009) - to zaprvé, a za druhé - Samsung měl (a má dodneška) přístup ke klíčovým věcem, které iPhony pohání, počínaje hw a softem konče. Ne náhodou proto vzniklo X soudních sporů (nechme stranou ať byl ten či onen v právu či ne), které jistě měly nějaké opodstatnění. Problém je v tom, že i to co Samsung okopíruje (dejme tomu SII vs iP3), okopíruje blbě (sklo vs plast) protože prostě Apple je vychcanější a patentují si to dřív, Samsung z toho pak nevytříská nic lepšího, levnějšího ano (vývoj iOS vs Android "zdarma" s GUI nadstavbou, kterou samosebou používaly značky léta letoucí před ním) + na to hodí reklamu kde konkurenci zesměšňuje jako malej fracek. Přidaná hodnota u nich je (ať se ti to líbí nebo ne) naprosto NULOVÁ, až spíš záporná (rychleji se vysvicující displej s přepálenými barvami aby to bylo barevné a zákazníky doslova bouchlo přes oči apod.). Co se týče těch verzí OS - nevšiml jsem si, že by nic jiného než vlajkové lodě měly tak širokou podporu updatů jako kterýkoliv iPhone. Příklad - iPhone 4S jede od iOS6 do dnešní iOS9, naproti tomu třeba S3 rovnou hledám neofíko na XDA Developers, že... A to k tomu nepřičítám čas, který je od jednotlivých verzí dělí. Taky bych mohl vytáhnout historku jak se Samsungy chovají v síti - že si šlohnou IP adresu jiného zařízení, budiž, ale že si to prase IP adresu naklonuje a převlíkne se za iPhona to už je moc i na mě (dobře, pořád ho používám jako dálkáč, ale simku už do toho prostě nedám, zlatý WindowPhone) :wink:
@gogo1963
@gogo1963: To sice ano, ale ne v současném konfigu a latencích :wink: To je v podstatě i ten důvod proč "technologicky zaostalé" nVidie podávají +/- stejné výsledky jako "uber tech" HBM. 8 nebo 16+ GB HBM je sice na papíře impozantní parametr, ale (když to přeženu) má smysl asi jako 4GB GDDR3 na lowend kartách.
@Petas
@WOB: Synchronní FSB/RAM platilo někdy v dobách Athlonů XP a to ještě na chipsetech, které měly pevnou děličku. Další věc je, že "čekání" způsobuje především latence a jak všichni víme latence VRAM jsou o řád, ne-li spíš dva úplně jinde. Čili Vaše vysvětlení je naprosto zcestné - např. RAMka CL11 čeká 11 taktů než něco začne vůbec dělat, VRAM mají CL běžně kolem 40 takže nechápu jak tohle chcete sladit. U těch Athlonů a třeba OCZ ramek na DFI desce (která jediná uměla CL2) to nebyl až takový problém, leč s VGA je to neřešitelné
@skaven321
@blackbox: 1. sorry, polepším se - dlouho jsem tu nebyl 2. právě, ani monitory kolikrát ne 3. bral jsem to do 500 éček, nesetkal jsem se s DP, ale rád bych - vím o 42" ale ta je za 899 :(
Na druhou stranu ty zařízení jsou a mají nativní 4k na 60hz akorát to ještě není spotřebák, zobrazovadlo je, s velkým Z ale popravdě, viděl jsem to 2x (boží, z 1m). Moc líbivé, nicméně to byly i 3d TNka a dneska - neznám lidi co mají nabité brýle :)
@7R7
@blackbox: Dlouho jsem si nevšiml těch adjektiv, ale zato začínám čím dál častěji vídat uřvané militantní AMD fans tapetovat diskuze napříč cz servery přičemž nedokáží svoje tvrzení ani podložit, ale nadávat to jim jde jedna báseň. Za těch několik desítek let jsem se s tímhle nesetkal, ATI/AMD mám taky (míval jsem i v dobách kdy nVidie ještě neexistovala a Furry MAX stál docela řepu), ale tímhle chováním mě zdejší diskutéři AMD slušně znechucují. Osobně je mi fuk jestli prodám zákazníkovi AMD nebo nVidii (Intel, WD, Asus bla bla bla) a poslouchat tu kecy jak nVidie/Intel obchodníky podplácí je fakt vejmysl DDebílka masivně rozšířený právě po diskuzích. A nebo na mě ještě nepřišla řada či co :D
@blackbox
@blackbox: No tak předně do serverů TLC nepatří. Za další, investovat do samotné RAMky 30 tisíc (ne-li víc) a přitom řešit disk za 2.5 tis. mě teda přijde přinejmenším přitažené za vlasy :roll: Dále "jen z něj čte" a "všechno drží v paměti" - tak to nevím proč vůbec řešíte SSD když může v klidu jet z cdčka nebo podstatně levnějších flešek obzvláště pokud jste měl tak tuze omezený rozpočet. Já nevim, ale mě tu něco nehraje...
@Raahk
@RiCK: Ohledně G3 se tu psalo akorát tak o upgradu na Lollipop :wink:
Nepřehřívají, resp. normální to rozhodně není. Nestalo se mi to ani u SonyEricssonu s xenonem, ani s iPhonem 4s, který měl vadný fotomodul takže svítil dva dny kuse (po 4 letech protože je to předraženej šmejd a i baterku jsem měnil, taková opovážlivost) a přesto se nevypnul kvůli přehřívání.
Vám přijde normální natáčet 4k max. 3 minuty (G3) nebo doslova pár teřin (Z3+)? Mě teda ne a vsadím se, že kdyby tohle byl případ letošních iPhonů tak by je zle roznesli na kopytech všichni, počínaje hatery a fandy konče protože je to přece "drahý" a pro "ovce".
Ad socka Blue Storm - já to četl a jsem přesvědčen, že deficit bude jinde než v peněžence :wink:
@Blue Storm
@Blue Storm: To můžu potvrdit, není to sice o moc, ale znát to je. Navíc je to kompenzováno diskem - přecházel jsem z 250GB Samsungu 840 (což úplně až taková šajze taky není) ale tenhle je tak 3x rychlejší jak v PS tak třeba na natahování audio souborů (opět ccá 200-300MB + vytvoření náhledu). Pořád se tu ale bavíme o něčem co má zkrátka do dedikované karty výkonem daleko a popravdě jsem byl mírně řečeno nasrán, že si v roce 2015 nemůžu koupit to co v 2008 (tzn. dedik. vga, kov, OS, displej). Hrát něco náročnějšího než StarCrafta 2 tak bych do toho nešel :twisted:
@Adam Vágner
@Ripper6: Já nevím, ale co takhle tu 970 prostě vyškrtnout z výběru když nVidia lže, podvádí, karty se hromadně vrací a ještě navíc prodává kartu se samolepkou 4GB? :idea:
@Richm0nd
@Mysel_1: https://www.youtube.com/watch?v=Csz3nkfmklc Račte si všimnout, že ten uživatel hraje na minimum bez fullscreenu (údajně přidává výkon) a sedí na "fiber" netu takže mnou popisovaná "blbina" nebude jen problém u mě na "muzeálním" šestijádru
@Blue Storm
@Xcute: @Xcute - ve SketchUpu dělám poměrně dlouho, jak na PC tak Macu a s klidem mohu říct, že je na Macích náročnější u klas. "herních" graf. karet. Na druhou stranu s Quadrem to zase hrozně zamete s PC. Netuším v čem to je, oba jedou na stejné VGA, oba OpenGL, rozdíl je ccá 20% při hodně podobné konfiguraci a dělalo mi to i u MacPro s Xeonem vs i7 X58 s CL5 paměťmi (vyšší propustnost). Procesorově u SketchUpu prakticky nezáleží, téměř vše jede přes VGA. Mám silné podezření, že ty Macy mají u složitých modelů prostě navrch (stejný model, jeden barák včetně inženýrských sítí + ostatní skořápka, to celé pak připravené pro vizualizaci v 3DSMax). Přiznám se ale, že jsem to na Retině ještě nezkoušel, na CAD používám desktopy, Retinu mám kvůli barvám (2D/tisk) - na 3D určitě nedoporučím a ani by mě to nenapadlo :) Jak říkám - já to mám na FotoKrám a i tak jsem měl obavy nicméně za OS a ten displej to stálo. Jinak na CAD mám obstarožní Quadra 4800 (nV8800) ovšem s herní grafikou je to srovnatelné tak GTX 680 takže jsem si o Macbooku na CAD opravdu iluze nedělal (ani to nebyl účel) :wink:
@mareknr
@mareknr: Ahoj, já mám dovolím si říct trochu zkušenosti s tvorbou her (modeler, texturování, výroba a export do enginů), ale teda nikdy, nikdy bych si netroufal psát o GeForce Experience tak jako ty. Je to udělátko a "optimalizace" řeší leda tak pro BFU, ale ne do takové míry, že odbuguje hru. To prostě nejde!
Dám příklad: Vymodeluju objekt (dejme tomu zásadnější typu terén), umístím do enginu, zjistím, že se podivně rozstřelí a řeším to s programátorem. Ten mě zpravidla dá čas na opravu přičemž pracuje i on. Pokud je problém neřešitelný SW cestou, kontaktuje se výrobce HW a už je na něm jestli zájem má nebo ne. Ač to říkám nerad tak díky odlišné architektuře nelze v některých případech zajistit korektní zobrazení, ale dá se implementovat aby hra používala nastavení pro AMD/nVidia. GeForce Experience tohle prostě nedokáže a nijak do her nezasahuje po vydání hry.
BTW pokud už někdo používá komerční engine jako UE a přesto všecko se hra hýbe tak jak předvedl Watchdogs/Mortal Kombat tak jsem přesvědčen, že je to diletancí výrobce hry a nenažraností vydavatele!
@deflector
@deflector: Elektroniku samozřejmě mají oba, jenom ten levnější ji má zpravidla horší.
Open standard vám nezaručuje kvalitu, rychlost, výkon apod. Dám příklad - standard RAM podle JEDECu je dejme tomu DDR3 1333 CL 11 1.3v no a "nestandard" mohou být 1333 CL6 na 1.25v (přičemž pomalejší JEDEC taktéž splňují).
U toho FORISE píšou FreeSync na DP, nechápu proč ty specifikace nečtete! Mimojiné je to ovšem spíš plus, protože zrovna u těch prvních EIZ ten "skládací" mód občas blbnul...
@RomanL
@RomanL: Právě, že vůbec. A z té obrazu focerné branmborou poznám kulové - zkrátka recenze na pofidérní hračku (sám mám dospělý projektor a mini Dell M10 a fakt se tomu rovnat nemůže) psaná diletantem :roll:
@RomanL
@RomanL: Nevím proč dáváte Romanovi mínus, vždyť má pravdu a upřímně - dneska není problém vzít mobil, nafotit ref. obraz a hodit to na web. Na nic si to nehraje a někoho to usměrní do toho do čeho jde (byť je to cokoliv). Od toho recenze mají být bez ohledu na značku, cenu, design apod. Každý nemá 15k na projektor, byť jsem přesvědčen, že si recenze mohla zasloužit více péče :wink:
@HighSpeed
@blackbox: **Gembler23 **- proti i7 to stavěl Stach :wink: S výkonem na jedno jádro souhlasím, já to chtěl na rendering kde víceméně platí čím víc jader tím víc adidas nicméně v 3DSMaxu a Cinemě to bylo nula od nuly pojde s tím, že na AMD platformě pojedu na MS ovladačích kvůli TRIMu.
**blackbox **- nebavím se o Piledriveru, myslím v globálu (sorry vypadlo mě F - FX 6120 Zambezi, ale Thuban taky nebyl úplně špatnej).
@HighSpeed
@tombomino: Vážený pane, Zambezi FX 8150 bylo vydáno +/- stejně jako i7 980. Cenu samozřejmě srovnávat mnohu, RAMky stály stejně (OCZ CL5), deska o 1.000,- více (ASUS TUF, později P6T Deluxe ale s hw řadičem), procesor u Intelu o necelé dva tisíce více. To co Bagr předváděl v renderingu kde měl mít teoreticky 2x navrch bylo reálně zklamáním. Dále se mohu zmínit třeba o přístupu na SSD kde v případě AMD platformy máte buď TRIM a nebo RAID, obojí kombinovat NELZE, v případě X58 nebyl problém, paměťový subsystém měl při obsazení 4 bank problémy, u X58 nikoliv (a co si budem povídat, u renderingu je každá ramka dobrá). Na druhou stranu jsem si to odzkoušel na vlastní kůži, po pár měsících nechal naopak AMDčko na hry, podvozek vyměnil za ROG a vyměnil RAMky za GEILy (mimochodem s touhle sestavou byl vytvořen rekord v propustnosti pamětí - ccá 35GB/s). Ale velmi rád se nechám poučit co dělám špatně :wink:
@deflector
@mareknr: Přesně, "standard" je teď AMD fans zaklínadlo :roll: Bych ho chtěl viděl vidět třeba u doktora - to je jedno, že vaše dítě váží 30kg, dostane standartní dávku pro 80kg. Chcete větší plat - nenene, tady se držíme standartního. Pán by chtěl kůži a metalízu? Ale pane, my se držíme standartu!
Mimochodem těch **35Hz **se **nedá nastavit **paradoxně právě kvůli tomu VESA standartu, který 5Hz odstupňování nepodporuje. :roll:
@Adam Vágner
@vixl: Pánovi šlo nejspíš o to dokázat si, že právě takové lidi co to dokáží nakódovat nepotřebuje. Teď někdy mu vyprší hosting tak to chtěl přesunout, samosebou co nejlevněji takže to jde na kamarádův server. Nechápu proč bych někomu měl dělat design, šablonu a ještě kóding když za to všude jinde platí (šablonu mj. koupil za $229). A machrovat s překopírováním souborů na server, to snad už nemyslíte vážně? :P