-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
DemonDani
addikt
Konkrétan ebben nem tudok most veled egyet érteni, általában ezen a piacon mindig kiélesedik annyira az árverseny, hogy amilyen olcsón csak tudják, úgy adják a kiskerek.
Nevezetesen nem rég volt egy kiskerben 25ezer magyar forintért HD5770! Nem érdekel hogy honnan sikerült beszerezniük, de őket sem érdekelte hogy elmenne 30ért is BestBuynak, így is adták ennyiért...
Szintén ebben a kiskerben szereztem hasonló képen a mostani, His Turbo HD3850-emet, a Newegg-es ára alatt!!
Szóval nem a kiskerek teszik fel a pontot az árra ( ) inkább a kisker és az ati között nő meg az ár.NEM FIZETETT REKLÁM! >>armegoszto.hu<< Folyamatosan friss akciók.
-
rocket
nagyúr
HD6970-nel a 30 es a 1920-nal a 0 lejebb van, meg a kis kepen is jol lathato, kinagyitva meg megjobban
Ha igaz lesz akkor se gondolom, hogy az AMD szandekosan szurna ki magaval, lehet nem volt/lesz a kozeljovoben eleg 6GHZ-es memoria modul, igy kenyszerbol kellett meglepni az 5GHZ-et.
Ar/ertek aranyban meg igyis alkothatnak HD4870 stilusban#2635:Ez a teszt tobb mint 1 eves, nem igazan mervado, de meg ebben is osszesegeben joval gyorsabb a HD5970 mint a GTX285 SLI, DX9-es COD4-5-6 amikben jobb a GTX285SLI a HD5970-nel egy picivel, a tobbi jatek kikap, van ahol nagyon.
Szoval ez nem jott be
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
Lehet, hogy viccesnek tűnik, de nagyon nem az. Az OEM gyártók mindent a szabvány szerint készítenek, mert azért vannak ezek kitalálva, hogy a működés az egyes részegységek között biztosítva legyen. Az ATX szabvány jelenleg kötött hőelvezetési mutatókkal rendelkezik, vagyis egy szabványnak megfelelő házban 300 watt az a hőmennyiség, amit el lehet vezetni. Az SLI az más tészta, mert a hő nem egy pontból keletkezik, de az NV be is vezetett egy SLI matricát a házakra, amit nem sok termék kap meg. A CM-nek és a TT-nek van ilyen háza. [link] - írtunk is a gyártók véleményéről. Egyelőre ez a szélcsatornás dolog tűnik értékelhetőnek, és a tesztprotokoll 40 fokos környezeti hője mellett nem fagy az SLI. Az OEM gyártók, is hasonló körülmények között tesztelnek, mert nem az a cél, hogy az otthoni körülményeket szimulálják, hanem azoknál durvább kell. Ha ott átmegy a rendszer, akkor nagyon nagy eséllyel otthon sem lesz baj, hiszen szelídebbek a körülmények.
Ilyen hőmérsékleti viszonyok között egyébként minden csúcskártya megbukik CF/SLI kiszerelésben. Nem erre találták ki az normál ATX házakat. Mind a keletkező hő veszélyes a felhasználóra, továbbá a stabil működés sincs meg.Én ezt gyökeresen másképp hallom, sőt látszik is. Egyszerűen az AMD semmit nem költ a fejlesztői projektekre és hardvereket, valamint fejlesztőket adnak. Az NV inkább költ, és effekteket vásárol a játékba. A DX11-es címek arányából látszik, hogy melyik a kedvezőbb stratégia. Mind anyagilag, mind a támogatott játékok tekintetében. A legjobb dolog pedig, hogy nincsenek a felhasználók hülyének nézve, mint a Mafia 2 cloth moduljánál. De nyilván az NV-nek ezért kell költenie ezekre, mert épeszű fejlesztő csak úgy nem rak a programba limitációkat.
De, hogy számszerűen is itt legyen: eddig 10:3 az arány az AMD javára a megjelent DX11-es címekben. Idén még elvileg jön a Kylin MMO, de azt nem számoltam bele. Meg a jövő év elején a Deus Ex HR sincs benne. Ezenkívül még van 4 cím az első félévben, amit szintén AMD hardveren fejlesztenek a Gaming Evolved programon belül. Azok is kiderülnek később. Pletyka szinten tudom mondani, hogy köztük van a Duke Nukem Forever.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MaUser
addikt
Hát, ha lehet hinni az eddig kiszivárgott Vantage és Heaven teszteknek (a valóságalapjuk persze kérdéses), akkor a 6970 tényleg nem fogja megváltani a világot. Elvileg centire ugyanott lesz, mint a gtx580 és az 5970, ráadásul fogyasztásra is. Ez nem túl biztató sajnos.
Abu85: Egy megfelelő smiley beszúrásával tudnád tudatni, hogy mégis csak lehet okunk örülni, vagy a kiszivárgott tesztek szerint búslakodni fogunk.
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
-
Abu85
HÁZIGAZDA
Így már végképp nem értem. Mit mihez hasonlítunk? Mert általánosan kijelenteni, hogy gyorsabb a gém, nem szerencsés. Nyilván a GeForce GTX 580 gyorsabb a Radeon HD 5870-nél, de a HD 5970-nél már nem. Így a gyorsabb fogalom csak a viszonyítás kérdése. Itt nem értem, hogy mihez viszonyítunk mit. Lapkaméret szerint? Fogyasztás szerint? Ár szerint?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
csatahajós
senior tag
-
DemonDani
addikt
Egy 890Mhz már volt a HD6970-re, tekintve a jelent ez reális lehet.
(#2660) gbors
Tegyük fel hogy így van, de akkor mi lesz azokkal az infókkal amik eddig szintén elég sűrűn fordultak elő? Nevezetesen XT >300W PRO >225W?
Lényegében ebbe beleférne mjuk XT-re 240W TDP meg a nagyra olyan HD4870X2 tipusú 290W[ Szerkesztve ]
NEM FIZETETT REKLÁM! >>armegoszto.hu<< Folyamatosan friss akciók.
-
DemonDani
addikt
Textúrázókból mennyi lesz ugyan? nem úgy tünt hogy az a terület változna, de 30SIMD mellé az a 96 nem fér be, de most annyit elárultak hogy 80+ lesz benne
90 is lehetne akár meg hát 120, de az brutális de esélyesnek érzem(#2696) Hakuoro
Simán a tesztoldalak provokálták ki ezt a bejegyzést, most ha téged dicsérnek akkor nem dicsekszel el vele? Ez a puszta valóság, nem az nv tehet róla hogy ezt valaki letesztelte, de legközelebb biztos hogy számíthatnak arra, hogy első között kapnak teszt kártyákat[ Szerkesztve ]
NEM FIZETETT REKLÁM! >>armegoszto.hu<< Folyamatosan friss akciók.
-
Abu85
HÁZIGAZDA
Ezt írtam én is. A GTX 460 elmegy, enyhén limitálja az biztos, mert sokat esik a teljesítmény Full HD felett.
A teljes értékű GF104-re mondtam, hogy limitálná. De nyilván ezért nincs ilyen termék.(#2698) TTomax: Azért lesz rajta 2 GB, mert 1 GB kevés, viszont ezzel a felépítéssel 2 GB a következő lépcső.
(#2696) Hakuoro: Ebben az a szép, hogy szapulják az AMD-t az utóbbi két driverben kikapcsolható FP16 demotion miatt, amikor az optimalizáció, vagy nevezzük úgy, ahogy az NV hívja CSALÁS a GeForce driverekben ki sem kapcsolható. Egy publikusan nem elérhető fájlt szokott az NV küldeni, amit le kell futtatni a deaktiváláshoz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Atom_Anti
senior tag
Spontanítás a lényeg, az adott szitut hogyan és milyen gyorsan tudjuk lereagálni. Nem lehet mindent előretervezni, váratlan és hirtelen döntéseket kell hozni.
Olyan ez mint egy bokszmeccs; megy a küzdelem, majd mikor megrogy az ellenfél akkor minden erővel neki kell menni. Ha nem teszed kibírja a szünetig és kezdődhet előröl a harc.A 3dfx pedig a tipukus példa; a fejlesztők henyéltek; pezsgő, nők és hittek a további jó sikerben. Ez idő alatt Nvidia pedig dolgozott mint a güzü, nem csak jobb hardvert hozott ki, hanem még marketingük is megerősítették, plusz a legfontosabb tesztprogramokat megvették; 3DMark2000, Quake3. Ezek után a GF2 annyival jobbnak látszódott hogy nem is kérdés mért történt ami történt .
-
Robi BALBOA
őstag
Csak nem úgy ahogyan a nagy NV-sek állítják, hogy minden ATI lagol és az összes Nv kari zsír.
Szerintem ez a lag dolog nagymértékben konfig függő, nálam a mostani konfigban az 5870 nem lagolt, de a 9800GTX+ meg már lagolgat, lehet, hogy egy másik gépben pont fordítva lenne, de akkor se általánosítsanak, hogy ATI= lag halmaz az Nv meg mintha filmet néznénk.Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
TTomax
nagyúr
A te munkád és hozzáállásod mindig etalon marad számomra!Vagyunk így vele néhányan mindkét "oldalon",remélem azért nem veszi el a kedved ha ilyesmiket olvasol ,és sok hasonló minőségű tesztet látunk még tőled,mint amit eddig készítettél!
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
tzsolesz
nagyúr
Tudom, hogy van olyan játék amiben létezik ez a lag, mert bizonyított tény.
Nekem az ebből fakadó általánosításokból van elegem.Pl.: "Az ATI kártyák szarok, mert lagolnak a játékok rajtuk". Hidd el, vannak ilyen fanboyok. Ezek a fanboyok nem ismerik el , hogy az NV IS manapság egyre több szar drivert nyom ki a népnek, és azt sem, hogy ott is előfordulnak microlag szerű akadások. Néha az ide tévedő újoncok számolnak be ezekről, persze Ők egyből megvannak győzve, hogy az nem driver hiba, hanem a játék hibája.......
Ha ATI-ról van szó, akkor egyből mindenki szidja, mert az természetes. Még az a szerencse, hogy nálam nincsenek ilyenek. -
Abu85
HÁZIGAZDA
Jelentős ott lesz, igen. Oda is kell a power. Kisebb felbontásban 15% plusz várható.
(#3897) tajati: Nem teljesen. Egyrészt többet fogyaszt, másrészt a PowerTune miatt a HD 6990-et skálázhatóra lehet csinálni. Akár az egyik GPU is elviheti a 300 wattos fogyasztást, és ha nem megy a CF, akkor ez jelentős előny.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
- = Zk = -
félisten
ó, igy már világosabb a dolog. viszont legbelül sejtettem, hogy valamerre errfelé lesz a megoldás, de inkább segitséget kértem
köszönöm...mzsolte
igen, jelenleg 5770-em van, de amint lesz kellemes 6870, lecserélem. igaz, 5870-et szerettem volna, de ha a jövőt nézem, akkor az már a múlt" Persze, ha elég ideig torzítasz egy "nézőpontot" akkor előbb-utóbb találsz hozzá igazságot. " , "A minőséget meg kell fizetni,minden másra ott az AMD!!! " " Pontosan. Különben is, akkor jó, ha nekünk jó. Ha mindenkinek jó, abban mi a jó" by Zebra
-
Abu85
HÁZIGAZDA
Mert a skalár egységet közös gyorsítótárat használnak 4 CU-nként. Le lehet tiltani kettő CU-t a négyből, mert asszimetrikus is lehet a rendszer, de ez nem a legjobb az integer ALU teljesítményére.
Az XDR2 pedig az árát fogja szépen megnövelni a wide-IO kialakítás miatt. Inkább 7 GHz effektív GDDR5-re tippelek. Más eléggé necces, mert az XDR2 bármennyire gyors, nem kevés pénzbe kerül. Az igaz, hogy fogyasztásban az XDR2 előnyösebb.
---
A másik dolog a fake alertre, hogy a Thames az nem sziget . Az egy mobil GPU (Londonból kiindulva). Az asztalon New Zealand (2x az egyik GPU), Tahiti, Cape Verde, Pitcairn és Lombok lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
csatahajós
senior tag
Itt van még egy kis adalék a RAM spekulációhoz
Szóval mi van ha házon belül gyártják az XDR2-t? Így lehet nem is kell az a 384-es busz.
Amúgy a kódnevek tényleg picit össze vannak kutyulva az eredetiben, ettől még szerintem a spec. lehet jó - persze csak okoskodunk, de már tényleg ideje volt valami info morzsának.
-
Abu85
HÁZIGAZDA
Mert a ROP nincs ingyen a tranzisztorszámban, és a fogyasztásban sem. Egy dolgot kell nagyon észrevenni. A 300 dollár fölötti termékek eladása a teljes VGA-piacon 2% alatt van. Ide nem kell két terméknél több. Ha több van az nem jó, mert a 2% az nem sok. Kell egy 400 dollár alá, és egy 600 dolláros. Ez az ideális felállás. A költséghatékonyság sokkal fontosabb a piac jelenlegi viszonyát tekintve. Nem mellesleg a Cayman esetében kettőt kellett benyomni 300 watt alá. Ehhez használni kellett a PowerTune-t, de -20%-on ez sikerült. 64 blendinggel ez nem ment volna.
A texture streaminget ne felejtsd el. Az nem olyan terhelő, mint a megatexture, de rengeteg motorban ott van. Szintén kell a proci hozzá, és eléggé problémás dGPU-val. Persze nélküle még problémásabb lenne, de ezen is lehetne csavarni. A PRT ide is jó, persze itt megint a Fusion nyeri a legtöbbet a rendszermemória közvetlen elérése miatt. Ugyanakkor a dGPU-kon is segít, ha teljesen hardveres lenne a texture streaming.
Ezeknek egyébként a legnagyobb hátráltató tényezője, hogy az AMD támogathatja az x86 virtuális memóriát, míg az NVIDIA a licenc hiányában nem. Megoldják persze a támogatást I/O virtualizációval, csak ez már annyit jelent, hogy a nem egy, hanem két algoritmus kell. Aztán az NV-hez olyan platform is kell, ami IOMMU, vagy VT-d kompatibilis.
Én úgy gondolom, hogy ha valamit is akarunk még a PC-vel, akkor ki kell gyilkolni az API korlátjait. Össze kellene fogni a gyártóknak, és létrehozni egy közös architektúrát, ami a kritikus helyeken megegyezően működik, azaz natívan programozható. Ha ez nem történik meg, akkor szegmentált lesz a PC-s játékpiac. Esetleg ez akkor kerülhető el, ha az összes konzolba egy gyártótól kerülne GPU, de akkor sem lennénk kisegítve, mert akkor meg verseny nem lenne.
Én az összefogásra és a közös alapokra szavazok, legalább a kritikus részeket tekintve.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem feltétlenül lett volna 25%-kal gyorsabb. Az AMD-től már hallottam, hogy a Cayman a dispatch részen gyenge, ezt a motort egy az egyben a Bartstól kapta meg, csak az már nem elég jó. A 64 ROP-ból jó ha 10%-ot nyernek. Többre nincs lehetőség. Ráadásul a rendszer is asszimetrikus lenne, mert a setup motor nem képes 32 pixelnél többre. Az extrákkal pedig szimplán kivitelezhetetlen lett volna a HD 6990. Vissza kellett volna venni az órajelet, és akkor a GTX 590 elverte volna, bár ez nem biztos, de sanszos lenne. Most viszont a HD 6990 a leggyorsabb rendszer. Tudják azok a mérnökök, hogy mit csinálnak, hiszen mind az asztali, mind pedig a mobil piacon egy Radeon a leggyorsabb.
Ez a fúzió következő nagy állomása. Az AMD három lépcsőre osztja az egészet. Az elsőt már ismerjük a Llanoval. Egy CPU és egy GPU egy lapkában, egy nagyon alacsony késleltetésű, és gyors busszal összekötve (Onion busz). Ez valószínűleg azért alakult így, mert az aktuális programokat CPU+VGA feldolgozásra írják, és nem lenne célszerű ennél többet csinálni. A Sandy Bridge erre jó példa, mert az Intel ennél továbbment azzal, hogy az IGP ír az L3-ba, de az inkább cache-szemetelés, mint jól kezelt fícsőr, amire az AMD gyártja is az összehasonlító videókat. [link] - Ez az egyik, de mindegyikben ugyanazt a koncepciós hibát használják fel, vagyis azt, hogy a Sandy Bridge IGP-je következmény nélkül piszkíthat 1,5 (HD Graphics 2000) vagy 3 (HD Graphics 3000) MB-ot az L3-ba, ezzel a procikat cache-missbe taszítja, és mehetnek a rendszermemóriához az adatért. Az egész azért súlyos, mert az adatok L3-ba való újratöltése után semmi sem garantálja, hogy a következő órajelben már nem barmol oda az IGP. Az egész egy konkrétan futtatott programnál kezelhető, mert az Intel a grafikus driverben szépen profilozza be a játékokat, és kapcsolgatja ki az IGP L3 írási funkcióját, ahol ez gond, de több program mellett ez nem kezelhető ilyen simán. Elég egy olyan program, ahol az IGP írhat az L3-ba, és már érezhetően megbomlik az egész rendszer hatékony működése. Az AMD a videóban a "biztonság kedvéért" () két 3D-s programot is bevetett, hogy az IGP 6 MB-os területet barmoljon szét az L3-ban, ez konkrétan ugye az aktuális proci teljes kapacitása, így nem csoda, hogy a rendszer ennyire meghalt. Ha most csinálnák meg ugyanezt, akkor már kisebb lenne a hatás, mert az Intel már tiltja az L3 írás arra a Final Fantasy benchmarkra, így a videó elején mutatott másodperces akadások is megszűntek. Persze a sebesség kisebb, de a futás úgymond egyenletes. Ilyet még az NV rendezvényén láttam a Dead Rising alatt, amikor Igor játszott rajta, és az klotyóajtó 3 másodperc múlva nyílt ki, addig teljesen lemerevedett a kép. Azóta (áprilisi driver) ebben a játékban is tiltva van az L3 írás, így nincsenek akadások, csak folyamatosan 20 alatt az fps. Jó amúgy ez az írós koncepció, mert kétségtelen, hogy erre szükség van a hatékony CPU+GPU feldolgozáshoz, de jelenleg nulla program van erre felkészítve, és ez így lutri, mert vagy jól működik, vagy nem. Na de elkalandoztunk a tárgytól.
A következő fúziós lépcső a Trinity. Ez a lapka már majdnem kész, volt is belőle demó, így sokat lehet róla tudni. A működésben nagyon hasonlít a Llanora, vagyis az AMD továbbra is az Onion buszos összeköttetést tartja jónak, a programokra és a fentiekre való tekintettel. Annyi lesz a különbség, hogy a GPU része a rendszernek képes lesz több, teljesen független utasításfolyam párhuzamos futtatására. Ezzel például több OpenCL-es program is futhat egy időben. Szintén megjelenik a GPU C++ támogatása. Bár nem programozástechnikai dolog, de megváltozik az energiamenedzsment. A Llano esetén eléggé kimért a dolog, vagyis kvázi fix fogyasztása van a procimagoknak és a GPU résznek. A Trinitynél ez átlapolható, vagyis a proci durván turbózhat, ha arra van szükség, és akkor a GPU-rész alacsony órajelű módba kapcsol. Fordítva is előfordulhat persze, ha nagy GPU-erőre van szükség, ilyenkor a proci rész gazdálkodik. Úgy tudom a GTC-s rendezvényről, hogy alapértelmezetten 30%-os fogyasztásátlapolás lehetséges, de az egész módosítható lesz a Catalystból +/-10%-os irányban, vagy akár manuálisan vezérelhető, ezt mondjuk csak az expert felhasználóknak javasolja az AMD. A manuális rész persze picit gázos, mert nyilván ez a százalékos játék nem következményektől mentes. A lapka teljes fogyasztása fix, ha mondjuk +40%-ot power budgetet adsz a GPU-nak, akkor azt elveszi a procirésztől. Nyilván a manuális kontroll állandó hatás, vagyis jól kell ismerni az alkalmazást. Persze a legtöbb felhasználó úgyis az automatikus kontrollon hagyja, akkor pedig a hardver dönt a menedzsmentről. Szvsz az a legjobb.
A Trinity utáni lépcső a durva fúzió. Eddig csak nyalogattuk a heterogén feldolgozást, amire valóban van lehetőség a Fusion lapkákban, de az egész korlátozott. A harmadik lépcsőben közös címteret és teljesen koherens memóriát kap a CPU és a GPU, továbbá a GPU kezelheti az x86 virtuális memóriát CPU pointereken keresztül. Ezt hívja az AMD architekturális integrálásnak. A chip kódneve nem ismert, de nyilván ez a következő állomás a Trinity után. Valószínűleg ez a lépcső két lapkát is eredményez, mivel a 16 nm messze van, így addig belefér egy upgrade, jelentsen az bármit is. A heterogén éra utolsó lépcsője, vagy mondjuk úgy kiteljesedése pedig az AMD szemében rendszerszintű integráció. Erről még nagyon kevés adat van, és ez még nekem sem teljesen világos, de amolyan Cell-szerűvé vállnak majd a chipek, az előny, hogy logikai szinten eltűnik a különbség a CPU és a GPU között. Az AMD-nél ennek az előjele a Bulldozer modulos felépítése, nyilván ez az architektúra az elkövetkező 5-7 évet meghatározza az AMD-nél, hiszen mindent alárendeltek az alapok fejlesztésénél a Fusion terveknek.A Kaigai blog előrejelzéseiből az Intel is ugyanezt az utat járja be, némi eltéréssel. Nekik ugye az első APU-juk az Ivy Bridge, ami folytatja a Sandy L3 írást, remélhetőleg jobb felügyelet mellett. A következő chip a Haswell, ami szintén erősít a CPU és a GPU kapcsolatán, de inkább a CPU fejlesztését helyezi előtérbe, ellentétben az AMD filozófiájával. Ugye itt az AVX2, mint újdonság, ami előnyt jelenthet. Nyilván a tick-tock miatt lesz egy szokásos upgrade, illetve az úgynevezett, vagy AMD-nél látható architekturális integrálás lépcsője nem igazán valósul meg. Majd végül, nagyjából hasonló időben (pontos időpont nincs, de mindkét cégnél úgy 2015-2016-ot jelent ez) az Intel is eljut rendszerszintű integrációhoz, ami a náluk annyit jelent, hogy a Larrabee-szerű magok beköltöznek a prociba a főmagok mellé. Ez is amolyan Cell-szerű minta. Itt is eltűnik a logikai különbség a CPU és a GPU között. Már ha a Larrabee magokat valaha is GPU-nak tekintettük.
Az NVIDIA esetében nincs ilyen előrejelzés, de az irányt nem nehéz kitalálni. Náluk a Tegra 4 lesz az első APU. Az I/O koherencia a CPU és GPU között biztosítható, ha felhasználják az ARM MMU-400 buszát (ez ugye a miért ne eset, mert hát csak egy licenc kérdése az egész - persze biztosat nem lehet tudni). Ezzel 2012-ben ez lenne a legmodernebb chip az APU integrációt tekintve. A következő lépcső náluk a project denver, és nagyjából ugyanazt az utat járják, amit az AMD időbeli lépcsője, vagyis közös címtét és teljesen koherens memória a CPU és a GPU között, illetve a GPU kezelheti az virtuális memóriát. Itt ugye az x86 hiányában az ARM-ra kell építeni. Ennél tovább nem teljesen ismertek az NV lépései. Annyit tudunk, hogy a fejlesztéseknél a GPU dominál, vagyis az Intellel és az AMD-vel ellentétben minden egyes lapkában a CPU kapja a háttérszerepet. Az Intelnél ugye a CPU-é a főszerep, míg az AMD egyensúlyozni próbál, hogy mi lehet a valós alkalmazások szempontjából az ideális elosztás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
cszn
őstag
Én annyira nem értek hozzá, csak mint örök játékos figyelemmel kísérem a fejlődést.
Nekem a fizikát meg minden kutyafülét összevetve, _játékélmény_ szempontjából a doom3 engineje sokkal jobban tetszett mint a cryengine. Valahogy utóbbi nem tűnt olyan gördülékenynek, egységesen összerakottnak. Ezzel szemben a Crysis 2 motorja nagyon eltalált szerintem.
Egyébként a cryengine nem egy zsákutca volt a fejlesztési irányt tekintve? -
Abu85
HÁZIGAZDA
Technikailag óriási előny. Tekintve, hogy maximális a fogyasztási szint, így abból kell kihozni a lehető legnagyobb sebességet.
A feszültség csökkentése nem opció még. Elég terhelés az a hardvernek, hogy órajeleket kell valós időben állítania. A feszültség bevonása ezt nagyon bonyolítaná.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nekem nem tűnik gáznak. Egy extra opció, amivel szabályozhatom a notebook fogyasztását. Ha esetleg nem vagyok konnektor közelben, akkor negatív PowerTune-nal biztos tovább tudok játszani pl. a vonaton, hiszen kötelezem a rendszert, hogy fogyasszon kevesebbet, és ezek mellett a teljesítmény is a lehető legjobb lesz a fogyasztáshoz mérve. Ez számottevő érték. Amíg minden manuálisan kalibrálható, addig nem látom a problémát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Miért lenne baj, ha nincs rádkényszerítve a szolgáltatás? Ha viszont szükséged van plusz húsz perc üzemidőre, akkor nagyon örülsz majd neki szvsz.
A szabályzás a biztonsági kérdésekben is fontos. A PowerTune nemcsak a mobil vonalra lett fejlesztve, hanem a csúcs-VGA-hoz. Ha átléped a fogyasztási határokat, akkor atombiztos megoldás kell oda, hogy a termék ne pusztuljon meg. A HD 6990 azért élte túl a teszteket, mert a PowerTune felügyeli a kártyát. A GTX 590-ből ez hiányzott, és nem kevés meghalt tesztelés közben. Később ez driverből szabályozva lett, de ez nem olyan korrekt megoldás, mint a PowerTune, mert ha a túlterhelés érzékelve lesz, a PowerTune pár MHz-el csökkenti az órajelet, ráadásul dinamikusan visszaállítja, ha elmúlt a veszély. Gyakorlatilag észre sem veszed. A GTX 590 driveres megoldása már fix órajelre csökkent. Ezt könnyen lehet ellenőrizni. Ha húzod a terméket, és emeled a GPU-k feszültségét, akkor a GTX 590 sebessége csökken.
A feszültség szabályzása a PowerTune alatt sem gond, de a GPU kvalifikálása igen. Itt nem a technikai megvalósítással van gond, hanem azzal, hogy a dinamikus feszültségállítás komoly mértékben növeli a lapkák tesztelési igényét. Anyagilag a VGA-piac jelenlegi helyzetében ez nem fér bele.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az a -20%-os PowerTune. Az nagyon agresszív, mivel 60 watt mínuszt jelent. Próbálj -10%-ost.
Nem hiszem, hogy 5 ms különbség észrevehető. Az más miatt akadt. Észrevehető akadást 40 ms-os különbség okoz. Mikroakadáshoz pedig 20-30 ms minimum kell.
Állandó órajellel biztos nem lenne olyan magas az fps. Pont az a lényeg, hogy a lehető legtöbbet hozd ki belőle mindig.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Százalékosan ez annyi, de valójában 5 ms-ról beszélünk. Szinte bármikor előfordulhat egy ilyen esés, akár ciklikusan is fix órajel esetén.
A videó az messze nem ugyanaz. Ha beszúrsz valahova egyetlen képkockát, akkor az már kapásból megduplázza az azonos tartalmat, így nem +30-40%-ot kapsz, hanem 100%-ot alapból. Azt elhiszem, hogy egy megduplázott képkocka alacsony fps mellett okoz ilyet, de 60 fps-nél kételkedem, mert technikailag minden videót rendszertelenül nézel egy 60 Hz-es monitoron, hiszen a 23,976 és 24 fps-sel rögzített tartalom nem szinkronizálható 60 Hz-re.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
60 Hz-en egy átlagos 23,976-24-25 fps-es videón is hasonló játszódik le. A képkockákat nyilván nem lehet a frissítéshez szinkronizálni, mert nem többszöröse a tartalom sebességének. Természetes, hogy az egyes képkockákat háromszor kell kirakni különben a hang elcsúszik egy idő után.
Ezért van a driverekben natív mód, illetve a 25 fps-re jó az 50 Hz. Igazából ekkora eltérés nem probléma. Ha Vsync-et használsz, akkor a monitor oldaláról akár 16 ms-os lagot is kaphatsz, ehhez képest a képkockaszámításban az 5 ms egy pite érték. Más probléma volt ott.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ennél jóval egyszerűbben gondolkodik egy mérnök. Veszik a CU SIMD-jeit és a VLIW4 tömb szuperskalár procijait. Mindkét esetben 64 FLOPS/ciklusról van szó. Innentől kezdve összehasonlítják a CU négy darab 512 bites SIMD-jét a VLIW4 tömb 16 darab superskalár procijával. Az AMD elmondása szerint az előbbi kisebb mm2-ben. Semmi gyakorlati mérés nincs itt. A dolog pedig lényegtelen is, mert a feldolgozó a teljes lapka kis részét teszi ki. Sokkal nagyobb helyet foglalnak a regiszterek, a vezérlés, na meg a gyorsítótárak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Angel1981
veterán
Az önmagában nem baj, hogy konzolport.
Az már inkább, hogy a multiplatform fejlesztések 90%-ban a PC abszolút harmadlagos, gyakorlatilag egy copy+paste-tel bevágják a programkódot, és annyi, ennek meg a játék, és a vásárlók isszák meg a levét...
Hagyjuk, ne offoljuk a topikot.[ Szerkesztve ]
-
FireKeeper
nagyúr
azt is számold bele, hogy az intel is APU-ra vált az Ivy bridge-dzsel, ráadásul annak a GPU része ugyanúgy Open CL-t és C++ AMP-ot fog támogatni mint az AMD APU-i. ergo azok a szoftverfejlesztők is ráállnak a GPU-ra való írással, akik ezt azért nem tették meg eddig, mert a piaci viszonyoknak megfelelően inkább intelre optimalizáltak.
steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
TESCO-Zsömle
félisten
Nincs értelme a releváns teszteredményeknek utána menni, amíg a másik oldalon csak pletykákból és reményekből gyúrt eredményeink vannak... Majd ha kint lesz a HD79xx-ek hivatalos specifikációja, akkor lehet biztosat mondani. Addig ez az egész csak jóindulatú becslés, optimista vágyakozás...
Hát, azért én reménykedek. Alapvetően mindkét komponenst az együttes munkára találták ki. Együtt lesznek egésszé, és mint tudjuk, az egész több, mint a részek összessége... Persze igazad van. A kulcs a SW-es támogatás, de mire ez kijön, addigra már 3 éve lesz Fusion a piacon és kint lesz a DX11.1 is, ami módot adhat a heterogén chipek jobb kihasználására. Ez kétélű dolog, mert ugye az Intelé a piac, szóval nem éri meg olyasmit fejleszteni, ami náluk nem megy... DE! A Kaveri-vel egy időben már az Intel-nek is lesz komoly APU-ja a Haswell formájába.
proci985: DFI-ben nem fogsz csalódni, ha túléled az agyvérzést, amit a BIOS okoz...
Még egy start? Tudtommal a Piledrivel alapó AM3+-os CPU-k még nem startoltak el egyszer sem, csak bejelentették, hogy kitolják az AM3+ élettartamát...
Sub-Dungeoneer lvl -57
-
TESCO-Zsömle
félisten
Amennyire tudom nem egyszerű összekombinálásról van szó, hanem szervcseréről.
A Bull-ból kiveszik a lebegőpontos egységeket és CU-kat tolnak a helyére. ÉS azt se szabad elfelejteni, hogy az már harmadik generációs Bull lesz. Két generáció-váltás alatt már bőven ki lehet köszörülni minden csorbát.
Bulldozer->Piledriver->Steamroller.
Sub-Dungeoneer lvl -57
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs