- Színészek hangjait lopta el egy AI-cég
- Linux kezdőknek
- Ubiquiti hálózati eszközök
- Linux - haladóknak
- Már nem hisz a nagy európai EV-forradalomban a Ford
- Android programozás, Android alkalmazások készítése
- Aliexpress tapasztalatok
- Xiaomi AX3600 WiFi 6 AIoT Router
- Sikeres volt a teszt, elpusztítja internetes műholdjait az Amazon
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A PowerTune azért van, hogy védje a hardvert a Furmarktól. Ha téged az órjelváltás zavar, akkor a GPU Boosttal és a PowerTune Boosttal lesz inkább bajod. Ezek sokkal agresszívebben működnek, mert állandóan dobálják az órajelet, ahogy látod a grafikonon is. A PowerTune Boost csak egy órajelbeállításra és 50 MHz-et, míg a GPU Boost az 100 MHz-es szinteket is dobálhat ide-oda. [link] - Ez az NV saját mérése hogyan működik. 1 másodpercenként változott az órajel. Ez a minimum határ, ugyanis a driver dönt erről, vagyis a kérés is a válasz között 800 ms van.
Maga a PowerTune 0%-on egy játékban semmit sem csinál, mert a Furmarkra szabták. Ha nem így védi az AMD a Furmarktól a terméket, akkor máshogy kell elfojtani a teljesítményt. Furmark szerű terhelés pillanatokra előjöhet játék alatt is. Ilyen volt például a StarCraft 2. [link] - erről írtunk is. Sokan elhullott GeForce-ról beszéltek a fórumban. Akkor az NVIDIA semmivel sem védte a hardvereket a túlterheléstől. Az AMD a HD 5000-be már rakott egy alapvető védelmet, ami a túlterhelés érzékelésére az órajelet ugyan nem módosítja, de képes kiadni egy halt parancsot. Elméletben a GPU addig nem dolgozik az adott ciklusban, amíg a halt parancsot kapja. Egyszerűen futja az üres ciklusokat. Jellemző volt a Radeonokon, hogy a vezérlés úgy volt megoldva, hogy egy halt és egy munka parancs volt, és így folytatódott. Ugyanakkora ez teljesítményvesztéssel járt, mivel két ciklusra nézve a teljesítmény a felére esett, mivel az egyik ciklus üres volt. Persze ez 10 ciklusnál közel sem volt ilyen drámai. Furmark alatt 10 ciklust nézve 2-3 halt van, míg nagyon jól optimalizált játékban (StarCraft 2) 100 ciklusra 1 halt (de egy játék nem állandó jelenettel dolgozik, mint a Furmark, szóval itt ez az érték nagyon függött a jelenet típusától). Az NVIDIA hasonló védelmet vezetett be a GeForce GTX 580-on. Ez abban különbözött az AMD megoldásától, hogy nem volt kötelező egy halt után csinálni egy munkaciklust, vagyis előfordulhatott, hogy a GPU öt ciklusig nem csinált semmit. Utána persze jellemzően volt munka, mert a túlterhelés sosem lehetett olyan nagy, hogy öt ciklus után ne legyen meló, de ha ez a ciklus állandósuló, például Furmark, akkor a hardver megállapít egy extrém terhelési szintet. Tehát ha öt ciklusos lenne a halt, és egy a munka, akkor a rendszer inkább megfelezte a feldolgozás sebességét. Ezt úgy érte el az ütemező, hogy a külső parancsnál halt helyett slow jelet kapott, ami azt jelentette, hogy az erőforrások felét sose használja ki. Gyakorlatilag az ütemezőnek meg lett tiltva, hogy az összes GPC blokkra osszon szálat. Így működött a GTX 590 is, azzal a különbséggel, hogy a keret szűkösebb volt, így ha tuningoltál, akkor lassult a sebesség egy játékban. Természetesen a korábbi halt túlterhelés nélküli védelem a driveres tiltásra helyezte a terhet. Ez is hasonlóan működött, mint a GeForce-on a slow, csak a driver a program futtatásának elején kiadta, hogy lassítani kell, mert ez a program túlterhel. Ezt a rendszerprogramozók tesztelték ki, és a friss meghajtókba került a dolog. A Furmark ez ellen az exe átnevezéssel védekezett, így később ez a program kapott egy módosítást, vagyis a driver nem az exét detektálta, hanem a shader fordító rakott üres ciklusokat a Furmark shaderjébe. A játékoknál nyilván túl nagy veszélye nincs annak, hogy a user átnevezi a fájlokat, így ott a fájl szerinti fojtás megfelelt. A HD 4000 például azért volt gyenge a HD 5000-hez képest Starcraft 2 alatt, mert az AMD már a program kiadása előtt érzékelte, hogy gyilkolni fog, és belerakták a driverekbe a fojtást, amint bekerült a meghajtóba a profil a játékra. Az NVIDIA ezt nem tette meg, és ezért hullottak a GeForce-ok a játék kiadásakor. Később persze megtörtént, aminek meg kellett történnie. Az NVIDIA is lelassította a hardveres túlterhelésvédelemmel nem rendelkező termékeket, a helyzet ugyanaz volt, mint az AMD-nél fojtás a driverbe. Ezért van az, hogy a GeForce GTX 480 lelassult az új driverekkel, míg a GTX 580 sebessége nem változott StarCraft 2 alatt. Persze a StarCraft 2 az nem Furmark, szóval annyira drasztikus fojtás nem kellett bele, nem kell tehát felezett sebességtől tartani, amolyan 10-15%-os mínusz volt a jellemző.
A HD 6900-nál mutatkozott be a PowerTune, ami azt a célt szolgálta, hogy kevésbé legyen drasztikus a túlterhelés elleni védelem. Könnyen kitalálható, hogy nincs rosszabb annál, ha egy GPU kap egy halt ciklust, mert jelentősen növelhet a frame elkészülésének idején, ha egy egész ciklusig nincs munka. A több ciklusos halt, ami a GTX 580/590-en volt, pedig nagyon gáz lehet. Nyilván tök egyértelmű, hogy a játékok ebből nem sokat éreztek, azok terhelése nem Furmark szintű, de a halt, ha bekapcsolt, akkor nagyon is érezhetően ártott a folyamatos képszámításnak. Ugyanakkora a halt túlzott, amikor a teljes ciklust üresbe rakta, hiszen jellemzően a túlterhelést nem kell feltétlenül a terhelés megszüntetésével orvosolni. Nyilván a pillanatnyi túlterhelés nem gond, csak a folytonos. Például, ha 2-3 másodpercig tart, az már para lehet (a hardver persze gyorsan dolgozik, így lereagálja a dolgot a másodperc töredéke alatt). A PowerTune abban újított, hogy kivette a haltra való igényt, ugyanis a rendszer precízen monitorozta a terhelést, és ha érezte, hogy a peak meghatározott idejénél tovább tart a terhelés, akkor be kell avatkozni. A haltra viszont nincs szükség, mivel a túlterhelés mértéke változó, és a PowerTune kiszámolja, hogy mekkora az az órajel, amivel a terhelés a specifikált limit alá szorítható, és annyival csökkenti az órajelet. Ez lehet akár 1 MHz is, ha ennyi elég. Ha a terhelés a limit alá ment, akkor lehet növelni az órajelet. Ez egy valós monitorozás lényegében, és az órajel folyamatosan reagál a terhelés szintjére. A Powertune megkötése persze, hogy van egy órajelminimum is. Jellemzően ~300 MHz-es az a sáv, amiben működik. Ez azt jelenti, hogy ~300 MHz-nél nagyobb órajelcsökkentést nem enged meg. Ez persze fejlesztésenként változó, mindig az adott fejlesztéshez szabják. Van olyan, ahol ~200 MHz a PowerTune sáv. Természetesen a specifikált limitet lehet változtatni. A 0%-ot az AMD mindig úgy állítja be, hogy az a játékoknál ne jelentsen órajelváltást. Ez ügye elemi érdek, mert ha csökken az órajel, akkor csökken a sebesség. Ennek a limitnek a negatívba és pozitívba eltolása a user feladata, ha akarja. Nyilván hagyható 0%-on, de ha tuningolsz, akkor nem árt pozitívba tolni, mert nyilván a tuningórajel, már csökkenhet, hiszen a limitet az alapórajelre szabták. A -20%, akkor lehet hasznos, ha futtatsz valami BOINC projektet. Még mindig sokkal gyorsabban számol a GPU, mint a CPU, de legalább nem fogyaszt annyit, mint 0%-on. Illetve nyilván a mobil felhasználás során is értékes a dolog. Ha nincs konnektor a közelben, de valami 3D-s alkalmazást nyomsz, akkor -20%-os paraméter sokat segít az aksinak ergo később fog a noti lemerülni. A PoweTune Boost, mint "újdonság" tök egyértelmű. Sokszor a 0%-os PowerTune limit, is sok és bőven van hely órajelemelésre. Ezt használja ki a PowerTune Boost. Fontos viszont, hogy a PowerTune Boost egy megkülönböztetett jel, vagyis az vagy aktív, vagy nem, nincsenek köztes állapotok. Ha aktív a PowerTune Boost, akkor az órajel a Boost órajel ez fixen annyi marad, amíg az állapot aktív. Ha a Boostot kilövi a hardver, akkor az eredeti PowerTune paraméterezés lét érvénybe az alapórajellel, és az 1 MHz-es lehetséges minimális csökkentésekkel. Az órajel változása egyébként fejlesztésenként eltérő, de 10-100 ns-os reakcióidő van, vagyis 10-100 ns-onként lehet órajelet váltani a Radeonnak. Ugyanez érvényes a Boostra. 10 ns-onként ki-be lehet kapcsolni (itt a 100 ns azért nem él, mert a Tahiti az egyedüli boostos termék, és az 10 ns-mal dolgozik, de nyilván ez a paraméter is eltérő lehet fejlesztésenként)
A Keplernél az NVIDIA is áttért egy hasonló megoldásra, de a PowerTune-nal ellentétben nem a hardver értékel, hanem a driver. A hardver csak mér, és adagolja az infót a drivernek, ami egy adatbázis alapján válaszol, hogy a beküldött (azaz legutóbb kimért) terhelési szint után milyen órajelet és feszültséget kell beállítani. A GPU Boost bines lépcsőkben zajlik. És egy binnek megvan az órajelértéke (GTX 680-nál például 13 MHz). Az órajel tehát ennál a terméknél 13 MHz-cel változhat, de a maximum változás pedig 8 bin mellett 104 MHz lehet. 4 bin mellett pedig a specifikációkban megadott 52 MHz. A köztes bineket ki lehet számolni. Nyilván ez csak a GTX 680-ra vonatkozik, de elég egyszerű az NV speckója. Minden termékre 4 bin van biztosan garantálva. A bin órajele pedig a hivatalos GPU Boost órajel mínusz az alapórajel osztva néggyel. A PowerTune-hoz tehát az alapvető különbség, hogy nem a hardver dönt az órajelről, hanem a driver mondja meg. Ez egy 800 ms-os késleltetés az oda vissza jel miatt, illetve a proci munkája. Éppen ezért az NVIDIA termékein az órajelváltás minimum 1 másodpercig tart, és a Boost módban váltott órajelet 1 másodpercig minimum meg kell őrizni. A Boost viszont lefelé is működik. Az NVIDIA szintén eldobta a halt rendszert, hasonló okokból, mint az AMD. Ha a hardver nem bírja alapórajelen a terhelést, akkor egy negatív GPU Boost lép érvénybe, ami a bin órajelértékével, illetve annak többszörösével csökkenti majd az órajelet. Erre szintén van adatbázis a driverben. Lefelé egyébként terméktől függően 20-30 bin engedélyezett. A GeForce esetében magát a specifikált limitet nem lehet módosítani. Az állandó. Ez attól van, hogy a GPU nem monitorozza magát, mivel ezt egy külső IC végzi. Az AMD azért képes a limitet paraméterezhetővé tenni, mert a PowerTune a GPU-ba van építve (tehát nincs külön IC erre), és a PowerTune áramkör programozható.
Ezenkívül a PowerTune nem csak a terhelés monitorozásáért, hanem az energiagazdálkodásért is felelt. Nyilván egyértelmű, hogy ha az adott munkafolyamat terhelése megszűnik, akkor az a legjobb, ha a hardver a lehető leggyorsabban vált idle, vagy köztes órajelre. A szoftveres megoldásoknál ez lassú, mert a driverből kell erre enegedéjt kérni, de az nem foglalkozik a driverrel, mert maga dönt. A ZeroCore is egy PowerTune technika alapvetően. Azért akarják ezt másolni a konkurensek, mert ennél hatékonyabb vezérlési forma nincs. És ebből érthető, hogy az AMD miért védi a specifikációkat még a saját partnerei elől is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A PowerTune pedig 0 MHz-et változtat 0%-os beállítással. A Boostok sokkal hektikusabbak. A GPU Boost a legrosszabb. Ott a TPU-s kép ... vagy az NV mérése, ami másodpercenkénti órajel módosítást mutatott. Egy mérés alatt az összes órajelszintet érintette többször is. Ugyanígy a PowerTune Boost, de annak csak egy szintje van, de az is nyilván váltogat az alap és a boost szint között.
Egyébként, ha elolvastad, akkor a GPU Boost ugyanúgy működik negatív irányba is. Tehát az órajeskálázás mindkét architektúrán közel 300-400-500 MHz-es tartományban működik. De ez csak elmélet. A gyakorlatban egy játék nem képes úgy leterhelni a hardvert, hogy az alapórajel alá kelljen menni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Angel1981
veterán
Jó, ez is igaz, elismerem.
Mindenesetre ha a gyártók előrejelzései igazak, a 20nm-es gyártás jelentősen drágább lesz, a 14nm meg még inkább.
Valószínűleg egyre inkább a kisebb chipek fognak előtérbe kerülni, beleértve GPU-kat is.
A jövőben el lehet felejteni az 500^mm körüli GPU szörnyeket, azokat max. a profi piacra fogják gyártani, lásd NV GK110 - mivel ott elbírja az árazás.[ Szerkesztve ]
-
fatallerror
addikt
és ha megszüntetnék a 100 dollár alatti kategóriát? spórolnának 1 csomót plusz elméletileg növelné az apu eladásokat. vkinek elkell kezdenie a 100 dollár alattiak megszüntetését és az amd előnyösebb helyzetben van etéren mint az nv. ez sem hatna a vga árak növekedésének lassítására?
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
Ahogy nézem manapság egy picit több lesz az a kettő. Az architektúrában két generációnként lesznek kisebb lépcsők, illetve 4-5 generációnként nagyobbak, amikor konkrétan cserélik az alapokat, de a csíkszélesség tekintetében annyira drága lesz a 20 nm, hogy nem biztos, hogy 2014-ben megéri majd váltani. Erről már az NV is beszélt, meg az AMD is. Maximum a nagy lapkáknál lesz értelme, de a kisebbeknél az elején olcsóbb és jobb chip építhető 28 nm-en. Ahogy közeledünk a fizikai határokhoz, egyre inkább elmosódnak a csíkszélességváltás előnyei. Jórészt annyi lesz, hogy egységnyi területre több tranyót építhetsz be, de azokat nem kapcsolhatod be kevesebb energia felhasználásával. Ez a processzoroknál már nagyon érezhető, így majdnem álló helyzetre esett vissza a skálázásuk. A GPU-knál is ugyanez van, csak az elvi működésükből eredően ezek kevésbé érzékenyek erre, de ettől még a jövőben esedékes fejlesztések a pJ/FLOP csökkentésére mennek rá. Amit a gyártástechnológia fejlődése nem ad meg, azt bele kell tervezni az architektúrába.
Szerintem a 28 nm még két generációig marad a GPU-knál. A SoC-oknál akár 2015-ig is.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Bár a hír eléggé pletyka, azért nem hülyeség az ALU teljesítmény drasztikus növelése, amikor a fejlesztők procedurális tartalomgenerálásban és hasonló compute igényes újításokban gondolkodnak. [link] , [link]
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Annak csak valós időben van értelme, mert a tartalom csak akkor lesz megváltoztatható. Ezzel szimulálható a por például, de ami ennél is érdekesebb, hogy régóta cél a fű jobb megvalósítása, mint egy szimpla 2D-s textúra. Procedurálisan az egész szimplán számolható 3D-ben, de nem csak egyféleképpen, hanem az is számolható, hogy mondjuk rálépsz, és arra a fű reagál, azzal, hogy más képlet alapján számolod a kinézetét, pl. kilapítva a rálépett cipő miatt. Persze ez az egész rengeteg számolással jár, de már a mai hardverekkel is megvalósítható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezeket a hatásokat fizikailag szimulálni sokkal költségesebb, mint minden képkockára eltérő tartalmat számolni. Ráadásul az egész a művészek oldaláról jóval egyszerűbben kivitelezhető. Eredményben nagyjából ugyanott leszel. Ahogy nő a teljesítmény úgy lehet majd több dolgot szimplán számolni az előre megrajzolás helyett. A hardver fejlődése szempontjából úgyis a számítási teljesítmény és hatékonyság fog jobban növekedni, míg a memória sebessége és kapacitása kisebb mértékben változik majd.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
2011,2012
#6584) Abu85: reméljük ez az új effekt nem olyan lesz h lezuhan 15 fps-re a játék de alig lesz látványosabb
annyira nem szép a tomb raider sem, lara hajremegése elég zavaró, tele van clipping-el meg X alakú a fű... :/ de ez a legtöbb játékra igaz h 1 kurva füvet nem tudnak megcsinálni
na mind1 azért általánosságban elég szép, sztorin nem hiszem h elfog bukni na meg camilla szinkronjától mindenki álló hardverrel fog játszani elég seksi szinkron lett :Đ[ Szerkesztve ]
don't tell me what i can't do!
-
Taposo
aktív tag
"Optimalizálni mindig lehet" ez a baj hogy a fejlesztők is mindig ezt mondják, aztán sz@rnak rá, jobb volt neked úgy játszani hogy lagg tengerben úszol, de közben Lara haja Palette - Schwarzkopf reklám volt ?!?
fatallerror: az a bajom kolléga hogy ezekkel a másodlagos dolgokkal pepecselnek, miközben az optimalizáció el van felejtve,...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nincs ezzel annyira nagy baj. Azért itt 1,5 millióról beszélünk egy játéknál. Ezt közösségileg nehéz összehozni. Nem mellesleg, ha még sem alakulna minden a terv szerint, akkor a közösséghez nem mehetsz oda, hogy kéne még félmillió, de egy AMD-hez például igen. Nyilván lesznek feltételeik, de számukra a félmilla az nem sok pénz.
Szerintem a Kickstartert ez az egyetlen dolog tarthatja életben, amikor az emberekben realizálódik, hogy amire befizetnek az nem biztos, hogy az lesz amit vártak.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Mivel másabb ez, mint a Meant To Be Played, vagy a Gaming Evolved? Amiatt is le lehet, és le is írják itt-ott fórumos hozzászólásokban, hogy ki miként látja ezt (és nyilván azok lesznek hangosabbak, akiknek épp szemben fúj a szél, mikor hugyozni akartak, miközben a többiek csendben kuncognak, vagy nem is értik miért nyavajognak a másik oldalon).
Hát még mikor olyanok is történhetnek (velem volt már ilyen), hogy egy játék hatalmas vörös ATI reklámmal indul, de rosszabbul fut az újabb, fejlettebb, nyers erőben gyorsabb AMD kártyán, mint a régi nV kártyán (kellemetlenül vicces).
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
leviske
veterán
Amit említetek nevezéktan azt veszi alapnak, hogy hanyadik generációs GCN architektúrát takarja a név. Vagyis nekem így rémlik. És vélhetőleg ennek megfelelően akarták behúzni a HD7000-es sorozatot is az új nevezéktan alá.
Más kérdés, hogy én ezt a továbbiakban sem látom életszerűnek. Az APU-k esetében se írja ki senki az Ax nevet a szám elé, mert maga a szám és esetleg mögötte az egy betű mindent elmond.
-
Én egy gyárilag EK vizesblokkal szerelt 290-et szeretnék, ami mindenféle bundle játék nélkül pont annyiba kerül, mint ha külön veszek referencia 290-et, és rá való blokkot. A megspórolt gyári hűtő és bundle legyen az ára a vizesblokkosan is gyári garanciának.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
Lassacskán jelentik be.
Ha gyors infót akarsz, akkor adok még:
Dragon Age: Inquisition
Star Wars: Battlefront
Mirror's Edge (untitled)
Mass Effect (untitled)
Star Wars (untitled)[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A TrueAudio jöhet, mert az ártani már nem árthat egy Vista óta alapjaiban tönkretett hangzásvilágnak. De a Mantle az túl agresszív beavatkozás egy még működő rendszerbe. Ennek súlyos következményei lehetnek azért. És itt alapvetően egy sérülékeny ökoszisztémáról van szó, mert azt tudjuk, hogy miért csinálják, és azt is értjük, hogy miért nem jó a szabvány API, de a Mantle szegmentációt jelent. Még ha mondjuk egy 5 éves távlatban jót is fog tenni, mert ez nyilvánvaló, akkor is az legalább 5 év szopást jelent innentől. És aki nem akar szopni, az elmegy majd konzolra vagy Steamgépre. Lehet, hogy xy effektet nem tud majd bekapcsolni, de ez lassan érdektelen lesz, a legtöbb ember fel sem fogja, hogy mik azok a csúszkák és beállítások a menüben. Én azért nem vagyok meggyőződve arról, hogy a Mantle annyira jót tesz majd a piacnak rövidtávon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Ugyanakkor a friss, szép címek, ha nem vágysz irreálisan sok FPS-re simán elfutnak egy 7870-en is, Full-HD-ben. Szóval aki kicsit is kompromisszumképes, annak nem kell bankot rabolnia. Egy Tahiti aztán végképp mindent visz Full-HD-ban, és nem kerül többe, mint mondjuk 4 éve egy hasonlóan erős 5850. Szvsz ezeknek az új kariknak (Hawaii meg Titán-féleségek) FullHD felett van csak létjogosultságuk, ahol pl. a Tahiti 32ROP-ja már kevés sok-sok FPS-hez és magas élsimításhoz.
-
Abu85
HÁZIGAZDA
Igazából arra kellene rájönni, hogy a hónapok milyen játékokat jelentenek. Nyilván ők tudják, hogy mikbe építik be, és azt is, hogy mikorra tervezik megjelentetni a játékot. Ebből kiindulva az expected rész, azaz a jelenlegi adatok alapján várható terjedés az érdekes.
A start február volt a BF4-gyel, tehát a Thief már március. A 4. hónap június, ami oké, mert jön a PvsZ: Garden Warfare és a Sniper Elite 3. Eddig ismert a dolog. Aztán jön egy szeptemberben, egy októberben, három novemberben és kettő decemberben. Na itt jönnek az ismeretlenek. Az ősz miatt az egyik az új Civilization lesz, na de mi a többi hat? Erős tipp, hogy az új Dragon Age benne van, de a többit csak találgatni lehet.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ja. Meg igazából az MLAA-ba is legalább négyféle algoritmus tartozik. Van az Intel-féle, ami a CPU-n fut, van a Jimenez-féle, van az AMD-féle compute shaderes, és innen az AMD még csinált egy MLAA 2.0-t, ami viszont már SMAA.
Szóval meg van ez keverve rendesen.Ezért kell az analitikai megoldások felé menni. 6-7 specifikus AA-val dolgozva szinte minden probléma lefedhető.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
HSM
félisten
-
Abu85
HÁZIGAZDA
A Crysis 3 már nem használ teszellált óceánt. Nincs minőségbeli előnye az utófeldolgozások miatt.
A Tessmark egy olyan technikát használ, amelyet a játékok kerülnek. Főleg azért, mert minden hardver szar vele, hiszen a számítások nagy része felesleges. Ráadásul nem is jó minőségű technika. De a fejlesztések miatt ebben is jó lett a Tonga, csak ennek valszeg továbbra sem lesz lényegi előnye egy játékban.
Esetleg az isoline effekteknél lehet sokkal gyorsabb a Tonga, de az isoline teszellálás feladata tized ms szintjén túl kicsi terhelés, hogy ez a gyorsaság a gyakorlati fps-nél sokat jelentsen. A Tahitit verheti, de a Hawaii-t nem.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Sanszos pedig a 48 ROP, mert valamelyik tesztben írták, hogy a Tonga azért is energiatakarékosabb, mert eltűnt a crossbar a 32ROP és a 256bites busz közül. Ugye a Tahitiben csak úgy lehetett 384bitre kötni 32 ROP-ot. Sanszos, hogy 384bit/48ROP lesz, ami egy nagyon szimpatikus felső-középkategóriás Tahiti utód képét sejteti....
-
Dtomka
veterán
Igen, jó lenne ha 48 lenne. Viszont a 380x ben 72 lesz... ami jelentős a 280x hez képest!
(#8377) NoLF_
Újonc létedre a lekezelő stílus látom megy....1 tanács amit ha akarsz elfogadsz ha akarsz nem: Ne az ilyen beszólógátasokkal gyűjtögesd a hozzászólásokat.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy S23 Ultra - non plus ultra
- Milyen billentyűzetet vegyek?
- eBay-es kütyük kis pénzért
- Színészek hangjait lopta el egy AI-cég
- Skull and Bones - Egy hétig ingyen játszhatunk vele
- Ukrajnai háború
- Skoda, VW, Audi, Seat topik
- Linux kezdőknek
- Óra topik
- Ubiquiti hálózati eszközök
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs