- Windows 11
- Mesterséges intelligencia topik
- NVIDIA: a következő nagy dolog az AI-generálta videó
- DIGI internet
- Asustor NAS
- Sikeres volt a teszt, elpusztítja internetes műholdjait az Amazon
- Microsoft Excel topic
- Jó dolog az AI, de emberek nélkül nincs játékfejlesztés
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Crypto Trade
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Az NVIDIA messze van attól a modularitástól, amilyen a GCN. Pont ez az oka annak, hogy a Fermi csak a GF104/114-es GPU szintjén jó. Fölötte túl nagy, bár igaz, hogy más a célja is, de alatta egyszerűen a rendszer nem jól skálázódik. Túl nagy lesz a kisebb lapka. A GF106-Brats elég jó összehasonlítás. A feldolgozók valóban modulárisak, de a fő probléma a komplex vezérlés, ami eddig nem volt megoldva sehol. A GCN-ben az ACE motor látja el ennek a feladatát. Ez teljesen moduláris, sőt akár ki is hagyható a rendszerből, bár nyilván ez a hatékonyság rovására megy. A Kepler még nem lesz ilyen az NV-nél, de a Maxwell esetében már dolgozni kell egy hasonló rendszeren, mert csak így lehet normálisan skálázni.
A Bulldozer modul a hozzátartozó L2-vel 30,4 mm^2, míg a Sandy Bridge mag 29,5 mm^2 a hozzátartozó L3 szeletével. Abszolút nem nagy különbség. Egy szálon a Sandy Bridge mag a jobb, míg erős throughput terhelésen a Bulldozer modul. Ez nyilván tervezési eltérés. A különbség itt az L3-nál van. Az Intel azt a felépítést erőlteti, ami a korábban törölt Larrabee-kben volt. Az AMD nem akarta felvállalni ennek a kockázatát, mert kétszer nem működött, így kérdés, hogy harmadjára jó lesz-e. Inkább maradtak az L3 esetében a MOESI-nél. Arra az integrációra amire az AMD készül jobb döntés is, mert a GCN is rendelkezik normális belső cacheszervezéssel, és a Bulldozer is. Innentől kezdve az L3 egy kommunikációs elem lenne, vagyis 1-2 MB elég is. Az Intel az integrációt az L3-ra építi fel, és a Larrabee magok beépítésével is élni fog az x86 memóriaarchitektúrájának alapszabálya, vagyis egy mag L3-ba kiírt eredményét egy másik mag a következő ciklusban olvashatja. Erről megoszlanak a vélemények, hogy ez mennyire jó. A két elkaszált Larrabee mutatja, hogy vannak buktatók. Az Intelnek még egy dobása van a MIC fejlesztéssel és dönteni kell a Skylake integrálásáról. Nyilván a kérdés jelentős, mert ha a MIC bukik az még nem tragédia, de a Skylake esetében már biztosra kell menni. Ha továbbra sem működik a Larrabee, akkor szerintem nem fogják integrálni.
Az NV CPU-magja az eddigi ARM-magokhoz képest viszonylag nagy lesz. Az ARMv8-at még sok utasítással kiegészítik, hogy illeszkedjen az igényeikhez. Persze valószínű, hogy nem lesz akkora, mint a mai x86-os csúcsmagok. Ezt majd extra magokkal próbálják ellensúlyozni. A heterogén érában ennek nincs nagy jelentősége. Ha egy mag nem hozza azt, amit a másik cég egy magja, vagy modulja, akkor dobsz be még egyet, és a probléma letudva. Az NV-nek még az SM-ben kell dolgoznia. A CUDA magokban az FP skalárt vektorfeldolgozóra kell cserélni. Ez is a hatékonyságot növeli.A Fusionbe nem kell 32 CU. Elég 8 például, ehhez kell egy vagy két ACE, de inkább egy. Egy 1 MB-os L3 és két CPU-modul. Az Intel sem fog a Skylake-be 50 Larrabee magot építeni. Itt azon van a hangsúly, hogy az általános számításoknál a GPU egyszerűen sokkal hatékonyabb lehet a párhuzamos feldolgozás mellett. Egyetlen GCN CU például annyi flops/ciklust tud, mint egy Interlagos processzor. Persze nyilván az órajel nem egyezik, így a valóságban négyszer több GCN CU kell, de még így is nagyságrendekkel hatékonyabb az egész. Ugyanez igaz az Intelnél és az NV-nél is, csak más arányokkal, a GPU-s feldolgozás a throughput terhelés mellett elképesztően hatékony.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Elég sok infó van a Bulldozermodulról, és az Intel magjának működéséről. Láthatod, hogy teljesen más cacheszervezést használnak. Ezért van a Bulldzoer moduljában 2 MB-os L2 cache, míg az Intelnél ez 256 kB. Az AMD a Bulldozernél nem úgy épít az L3-ra, hogy a rendszer elengedhetetlen része legyen, mert a Larrabee-t az Intel kétszer is elkaszálta, és félnek attól, hogy egy nagy L3 MESIF protokollal borzalmas terhelésnek lesz kitéve, ha abba nem 4-8 szál dolgozik, hanem több száz. A gyűrűs busz is addig tűnik jó ötletnek, amíg a pár mag és egység van, de ha beköltöznek a Larrabee magok, akkor 20 is lehet a rendszerben. Megállónként egy órajellel számolva hosszú az út a CPU-magokig. Ezért döntöttek úgy, hogy az L3 csak a rendszer kiegészítése lesz, MOESI koherenciaprotokollal. Itt az elmélet az Intel megoldása mellett van, de a tény, hogy két Larrabee hullott el ezen a ponton, már kérdésessé teszi a gyakorlati alkalmazhatóságot. Éppen ezért az AMD a biztonságosabb utat választja, így az L3 nem a rendszer alapköve, hanem csak egy része. Ez valamivel lassabb, illetve több helyet igényel a lapkán, de biztos, hogy működni fog a gyakorlatban, mivel a CPU-magoknak ott lesz az L2, így a GPU által teleszemetelhető L3-hoz aránylag ritkán kell nyúlni. Az L3 egyébként elhagyható a Trinity APU-ban például nem is lesz benne. Ettől a modulok teljesítménye alig változik, mert ott a nagy L2.
Meg SSEx kódoknál is gyorsabb, mivel egy Sandy Bridge mag a 256 bites feldolgozó felét használhatja, míg a Bulldozer modul az egészet. Az AVX kódoknál valóban lassabb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #4991 üzenetére
Elárulom, hogy az árakat senki sem tudhatja. Ennek prózai oka van. Még nincsenek beárazva a termékek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #5017 üzenetére
Frissíts BIOS-t. Azután nem kékhaláloznak a steam játékok.
A Windows 7-hez készül egy kiegészítés, de főleg kevés programszálon jelent sebességelőnyt. 5-15% közötti extra várható max.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #5020 üzenetére
Azt nem tudom. A Socket AM3+-os alaplapoknál mindhez van BIOS. Az ASRock, az MSI és a Giga supportjáról az AMD is írt. [link] Mára már az ASUS és más is megoldotta.
Sajnos a Socket AM3-at az AMD hivatalosan nem támogatja. Valszeg meg lehet oldani, de a régi foglalat esetében az AMD az alaplap gyártójára hárítja a felelősséget. Az AMD hivatalosan elmondta, hogy a Bulldozer Socket AM3+-ba való. Más foglalatú lap nem kap gyári támogatást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #5022 üzenetére
Írj az ASUS-nak, hogy ezzel a problémával küzdesz. Valszeg egy béta BIOS-t azért összedobnak. Elég jó a supportjuk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #5025 üzenetére
Hát elfogadják, de hosszabb lesz mire elér a supportnak a leveled.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #5027 üzenetére
[link] - linkeld majd ezt. Innen azonnal tudni fogják miről van szó.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TESCO-Zsömle #5046 üzenetére
Pontosan. A hónappal szorozták fel. Decemberben nyújtja majd a legjobb teljesítményt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az AMD ezt szándékosan csinálhatja. Emlékezhetsz a HD 5000-re. Tudott az elején valamennyit, aztán márciusban a Fermi megjelenése előtt hirtelen találtak +5-10%-ot. Ez koncepció szokott lenni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Úgy elmondanék pár dolgot, de egyelőre csak olvasnom szabad. Ez kínzás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FireKeeper #5078 üzenetére
Sose tennék ilyet.
A kusszerződés a dátumra is vonatkozik, de a jelen állás szerint idén hallgatni kell mint a sír.
(#5079) TESCO-Zsömle: Alig lenne feltűnő, ha holnap elkezdenéd önteni az adatokat.
Az túl sok segítség lenne. PepeG2530-ra hallgathattok.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz stranger28 #5082 üzenetére
Még a névre is kusszerződés van. Ennyi. De amúgy nyilván a nagy érdekel. A kicsiről nem tudni még hivatalosat.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FireKeeper #5084 üzenetére
Az OEM-esekkel nem lehet mit csinálni. Ha én elmondok valamit, akkor az AMD legközelebb nem ad kártyát a PH-nak, és nem mond el semmit megjelenés előtt. Az OEM-mel mit csinálnak? Nem adnak el nekik kártyát? Remélem érted mit akarok belőle kihozni.
(#5085) TESCO-Zsömle: Csinálj egy blogot. Egy csomóan ezt nyomják. Ha sikeres a blog, akkor az AMD-nél jelezheted, hogy te élsz, és szeretnél beszámolni a termékeikről. Aztán kiértékelik, hogy számítasz-e. Ha igen, akkor ők keresnek meg az NDA-val és az adatokat megkapod.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SzlobiG #5146 üzenetére
A DX11.1 inkább a fejlesztőknek szól mint nekünk. Az szabványos újítások nagy része fejlesztői igény miatt kerül bele, és képminőségben nem jelentenek majd extrát. Ha a fejlesztő caps bitek ellenőrzésével dolgoztat, akkor a mai DX11-es karik is képesek számos DX11.1-es szolgáltatást kihasználni. Persze valószínűbb, hogy hatékonyabb erőforrás-ellenőrzésnél maradnak sokan, ha nem kell a motorban valami VSC bitet használni, amire ugye a DX11.1 már lehetőséget ad. A fejlesztők számára a legnagyobb újítás a 64 kB-os constant buffer és a D3D11_MAP_WRITE_NO_OVERWRITE funkció. Mindkettővel növelni tudják a processzor oldalán a feldolgozás hatékonyságát. Az értékesebb extrák pedig sajnos gyártóspecifikusak lesznek. Itt az MS keze meg van kötve. Egyrészt az OS sem alkalmas nagyon arra, hogy a GPU oldaláról limitációk nélkül kezelje a virtuális memóriát, másrészt az NV az ARM-mal, az AMD pedig az AMD64-gyel, vagy x86-64-gyel képzeli el a jövőt. Ez a kettő összeegyeztethetetlen szabványos szinten belül. Az NV-nek és az AMD-nek is külön kiterjesztést kell írni a saját elgondolásaikra, ráadásul úgy, hogy az OS korlátjait, és a processzorarchitektúrák különbségeit is meg kell kerülni, illetve el kell fedni, vagyis az első megoldások nem lesznek valami hatékonyak. Persze a semminél így is jóval többet fognak érni. Az újítás egyébként a megatextúrázás hardveres gyorsítását helyezi előtérbe. Ebből kiderülhet, hogy jelenleg kb. a Rage alatt lehet javítani és kész. Persze a jövőben mindenki úgy gondolja, hogy a megatextúrázás általánosan alkalmazott lesz, így mindenképpen ki kell gyúrni a rendszereket ebből a szempontból, mert az nem a legjobb opció, hogy a textúrázási munkák oroszlánrészét a proci végzi. Itt majd jön még egy probléma az anizotrópikus szűréssel kapcsolatban. Ez az eljárás ugyanis nem teljesen kompatibilis a megatextúrázással. Majd erre is kell valami megoldás. Érdemes készülni rá, mert úgy járunk, mint az AA-val.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SzlobiG #5151 üzenetére
Az MS egyrészt azért építette be az újításokat, mert a fejlesztők kérték. Nekik az a dolguk, hogy a fejlesztők igényeit kielégítsék. Sokan örülnek neki, mert sokat javít a DX11 a korlátokon, de nem tünteti el őket. A DX11.1 egy lépés előre. Illetve egy lépés hátra is, mert a VSC bitek bevezetése a DX9-es szintre repíti vissza az erőforrás-ellenőrzést. Nyilván nem kötelező használni, de ha kell valami nem szabványos funkció, akkor muszáj ehhez hozzányúlni. Az ARM-os réteg beköszöntével ez opció is, mert a gyártók annyira eltérő rendszereket alkalmaznak a PC-s GPU-któl, hogy nehéz ezeket egységesen kezelni. Az ARM-os rétegen belül egyedül az NV épít IMR architektúrát, míg a többiek TBR, vagy TBDR alapokra helyezik a fejlesztést. Ez már önmagában egy olyan különbség, amit le kell reagálni.
A VGA-piacban van kevés pénz, de a GPU-piac nagyon is egészséges. Az MS már tudja, hogy minden cég integrációt képzel el. Ezt a fejlesztők is le fogják kezelni.
A Crysis 2 tipikusan egy olyan játék, aminek a DX11 kódja több extra munkát tartalmaz, mint kellene. A Batman pedig bevallottan nincs kész. A patch csak szimplán segített, de jön még egy javítás, ami remélhetőleg megoldja a megmaradt gondokat is. Remélhetőleg visszakerül az utasításlista támogatása is, mert azt kivették, hogy ne lassítson. Elvileg az a dolga, hogy gyorsítson, de láthatóan jobban fut a játék nélküle.
Egyébként a DX11-nek nem feltétlenül kell gyorsabbnak lennie. Ha a DX9-es kódhoz képest több a számítás, akkor nyilván lassul a sebesség, mert amit nyersz, azt elköltöd jobb képminőségre. A Battleforge például pont olyan DX11-es játék, ahol a DX10/10.1-es és a DX11-es mód ugyanazt a képminőséget eredményezi. A DX10-hez képest 50, míg a DX10.1-hez képest 35 százalékot gyorsul a DX11. Nyilván ezt az extrát is el lehet költeni jobb effektekre, de nem tették meg a fejlesztők. Ez mutatja, hogy a DX11-gyel nincs baj.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz SzlobiG #5154 üzenetére
A next gen konzolok nyomhatják el teljesen a VGA-piacot. Az biztos, hogy 2014-ben már nem lesz bemutatva hagyományos értelemben vett CPU a konzumer piacokra. Mindegyikben lesz integrált GPU. Már az is lehet, hogy 2013-ban is így lesz, mert az Inteltől sem hallani Haswell-E-t, csak egy Halo kódnevű Haswellt, ami az eredeti lapka kiegészítése egy külső gyorsítótárral. Valszeg ez készül majd a felsőházba.
Tulajdonképpen nem a teljesítmény a korlát. A dGPU-k gyorsak, de nem kapcsolódnak a rendszermemóriához. Mindegyik megoldás egy specializált disjoint RAM-ot használ, amit a driver maszkol el a rendszer elől. Az új konzoloknál az egységes memória a legnagyobb igény, és ha ez megtörténik, akkor a VGA-knak vége, mert nincs lehetőség egy lassú buszon másolgatni az adatokat. Maga a piac valszeg megmarad, mert lehet olyan felhasználási módot találni, ahol a feladatátadás egyirányú. Például post-process effektek. Ezeket a VGA-k el tudják végezni. Persze ez már nem ugyanolyan lesz, mint most, mert a post-process is driverből van vezérelve, és szorosan kell kötődni az APU-khoz. Ezzel teljesen mindegy, hogy megmarad-e a VGA. A gyártók keverése megszűnik, mert az AMD és az NV drivere nem fogja felismerni a konkurens IGP-t. Esetleg a teljesen post-process effekteknél lehet ez megoldás, amikor csak a back-buffert kell mozgatni a dGPU-hoz, majd vissza. Azt azért aránylag jól meg lehet oldani. Idővel ez is értelmét veszti, ahogy ugye a Creative hangkártyái is átalakultak.
Az új konzolok fejlődési irányával tehát fontosabb, hogy a CPU és a GPU közötti kommunikáció ne tartson 300-400 ns-ig, hanem megoldható legyen 10 ns alatt. Ami ennél fontosabb, hogy az API korlátjai csökkenjenek. Azért egy konzol ma sem erősebb, mint egy Sandy Bridge, vagy egy Llano, sőt. Innentől kezdve a lassulás a szoftveres rétegből kell kigyomlálni. Egy virtuális ISA is jó ötlet lehet. Gyanítom, hogy az egységes ISA már nem opció senkinek, mivel ezzel csak az nyer, aki az ISA alapját kínálja.
Aláírom, a Barman nagyon rosszul sült el. De nem sportszerű felhozni egy olyan programot, ami bevallottan problémákkal jelent meg. Van még 27 más program. Ezek közül pl. a BF3, a Deus Ex: Human Revolution, vagy a Total War: SHOGUN 2 iskolapéldája a jó DX11-es implementációnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Csak ezek el vannak maszkolva a rendszertől. Carmack már mondta, hogy ezzel sok a baj: "With AMD and NVIDIA there's still issues of different memory banking arrangements and complicated things that they hide in their drivers, but we are moving towards integrated memory on a lot of things."
Minden fejlesztő egységes memóriát akar. Ez a legkönnyebb megoldás, és az integrálással, most van is rá lehetőség.
A sebesség fontos része a rendszernek, de jelenleg az API jelenti a legtöbb korlátot, ha azt leküzdjük, akkor jóval egyszerűbb a programozók helyzete. Hasonlóan gondolkodik Carmack is, bár ő radikálisan szarna az API-ra. "I hope we wind up being able to say “give me a pointer, give me a pitch, give me a swizzle format,” and let me do things managing it with fences myself and we'll be able to do a better job."
Nyilván Carmack elképzelése szélsőséges, és alapvetően hazabeszél, de őt meg lehet érteni, mert a Rage a PC-n az API, és a CPU+VGA modell miatt teljesít rosszul. Azért szereti az Xbox 360-at, mert ott van egy rendszermemória, amihez kapcsolódik a CPU és a GPU. Az ID Tech 5-höz ez illik. Ha már egy VGA kerül a képbe saját memóriával, akkor az para.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Carmack foglalkozik a piaccal, csak van egy elképzelése a megatextúrázásról. Ez amúgy egy fantasztikus technológia, csak még talán korai volt bevetni. Az a probléma vele, hogy az egész textúra be van kódolva, hogy 12 GB legyen. Ezt a processzornak kell kikódolni, ahhoz, hogy a GPU egyáltalán tudja olvasni az aktuális megatextúra-partíciót. Ezt a CPU nyilván a rendszermemóriába írja vissza, és onnan kerül el ez az adat a VRAM-ba. Ez egyszerűen sok a mai PC-k többségének. Ha van elég gyors rendszermemóriád, és legalább négy magos procid, akkor aránylag jó a helyzet, de kétmagos procival nem sokra mész. A VGA gyakorlatilag lényegtelen tényező, mert szart sem dolgoznak. Az nem munka a mai kártyáknak, hogy a kikódolt textúrát felhelyezik az amúgy nem túl sok poligonból álló világra. Ezért ilyen radikálisak Carmack nézetei, mert ő úgy számolta, hogy 2011-ben már nem lesznek VGA-k. Persze Sweeney meg 2008-ra jósolta a piac kihalását, szóval Carmack még mindig realistább volt a becslésével. Mindenesetre a Rage olyan játék lett, hogy nem engedi neked konfigurálni a grafikát, mert nagyon nem ideális a motor működése a PC-khez. A gondok egy része még ebből is ered, hogy a motor auto-balancer rendszere nem éppen jól méri fel a PC képességeit, és ilyenkor jól jönne a paraméterek megváltoztatásának lehetősége, mivel enélkül akadásra vagy kényszerítve.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz S-Attila #5161 üzenetére
A megatextúra igazából Carmack elnevezése, valójában virtuális textúrázásról van szó, de a lényeg ugyanaz. Az egész játék egy nagy textúrából áll, így sosem fordul elő a tapéta effektus, amikor ugyanaz a textúra ismétlődik részletről-részletre. Ezzel a technológiával gyakorlatilag minden felület egyedi. A másik jó funkció, hogy a textúrarészletesség, gyakorlatilag sosem látott minőséget érhet el. [link] - a textúra felbontása egészen extrém is lehet, és a rendszer dinamikusan a legoptimálisabban streamel, már ha jól írta meg a fejlesztő ezt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz S-Attila #5163 üzenetére
Attól függ, mi a cél. Ha az, hogy a játékon belül, minden felület egyedi textúrát kapjon, ráadásul extrém minőségben, akkor a virtuális textúrázás az egyetlen értékelhető opció. Ha megfelelő a tapéta effektus is, akkor érdemesebb a hagyományos utat választani, mert nem kicsi helyigénye van a megatextúrázásnak. Tömörítés nélkül a Rage például 1 terabájtos textúrát használ. Ráadásul a hagyományos opció a mai PC-ket is kedveli.
A procedurális textúrázás más. Ott az lenne a lényeg, hogy az eredetileg leszámolt textúra idővel megváltozzon valamilyen algoritmus alapján, például megjelenjen a fémen a rozsda. Ennek a számításigénye nagyon nagy, viszont a helyigénye kicsi, mivel lényegében kiszámítod a textúrát, és nem kreált anyagból dolgozol. Megvalósítható akár ma is, de nem lenne gyors. Bár ez algoritmusfüggő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
PC-n nem gyengén pop-uppol a Rage. Ez egyértelműen annak a problémája, hogy a textúra betöltése lassú. Xbox 360-on a legjobb a játék ebből a szempontból. Nem véletlenül akar Carmack szabadulni a VGA-któl. Olyan PC-ket akar, mint amilyen az Xbox 360 felépítése. Az ID Tech 5-höz ez illik, ebben semmi kétség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nálam elég komoly pop-up van a szomszéd GTX 460-ával. Valszeg nagyon sokat számít, hogy a motor milyen minőségre állítja a grafikát. Én elég rondát kaptam alapból, így mára szarráconfigoltam. A Large Texture Cache tulajdonképpen nem sokat számít, alap, hogy jó VGA-val és sok VRAM-mal arra állítod, de ez a textúrák minőségén nem javít, azt a motor automatikusan állítja be a gépednek a max szintet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Eredetileg én is úgy csináltam. Felraktam steamről, majd kértem egy steam frissítést (elvileg ilyenkor rakja fel a játékokhoz is a frissítéseket). Kiírta, hogy minden friss, így mentem játszani. Viszont nekem nagyon ronda volt a textúrák minősége. Mondom az egyik legnagyobb baj a Rage-dzsel, hogy saját magát konfigolja. Valamikor jól, valamikor rosszul. Illetve a rosszul opción belül felül és alul is értékelheti a géped. Jelen esetben az enyém alulértékelte, és ezzel szívok, mert sok beállítást nem tudok jól belőni, mivel arra nem ad lehetőséget a motor. Nekem config nélkül kb. így néz ki. [link] Konfiggal meg jön a pop-up.
Mindegy amúgy már majdnem végigvittem, ez van. Remélem a szomszéd most már leszokik a Dirt 3-ról, mert szeretném a saját VGA-m használni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ott vannak nekem is a beállítások a menüben. Minden maxra van rakva és így olyan a képminőség, amit linkeltem. Azért írta az NV ezt a cikket, mert szarul kalibrál a motor. A GPU-s transzkód nálam inaktív. A procim 3,8 GHz-en jár most és így gyorsabban megcsinálja a transzkódolást, de ami jobban számít, hogy nem is veszi el az erőforrást a grafikáról. Ezzel megvan az állandó 60 fps. GPU-s transzkóddal csak 40-50 fps-em van, és mikroakadozik. Itt is gáz a motor, mert 60 jelenet a szinkronja.
Egyébként neked a GPU transcode-ot felajánlja a beállításokban? Mert én paranccsal tudtam csak aktiválni. A menüben nem volt ott.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mint írtam GeForce GTX 460 van most. A Radeont a szomszéd nyüstöli, mert a GeForce fagy a Dirt 3-ban DX11 alatt, legalábbis neki. Ezért most cseréltünk. Nekem most mindegy mi van, ő meg Dirt mániás.
A lényeg, hogy nekem nem jelenik meg. Configból aktiváltam, és ott láttam, hogy működik. Legalábbis a transcode teljesítmény változott, csak a játék sebessége csökkent. Szar ez az egész Rage. Kijátszom még ma, oszt hagyom is a francba. Majd az új kártyával előveszem.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Most mit tudok mondani arra, hogy te jót játszol, majdnem ugyanolyan géppel, én meg nem. Csak a motorban van a hiba. Az is furcsa, hogy neked megjelenik a GPU transcode, nekem meg nem. Más is ilyenekkel küzd. Sokan játszanak, sokan meg szívnak. Ez a Rage így nem jó.
(#5183) BeLucZ: Ezért cseréltem el egy időre. Tök mindegy, hogy nekem mi van, annyira sokat manapság nem játszok. Neki meg tényleg mániája a Dirt 3. Már próbáltam megoldást találni a fagyására, de nem jártam sikerrel. A menüben egyszerűen kifagy a GTX 460-a, de csak DX11 módban. A poén az, hogy nálam nem. Mindegy. Játsszon a Radeonnal, nekem 8, majd megunja, oszt visszacseréljük.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Párszor írásba adtam, hogy a Rage nálam most GeForce GTX 460-nal megy. Így rossz. Radeonnal nem próbáltam, mert akkor még nem volt meg a játék. Két hete vettem meg a steamen.
Ha valaki nem tartja be az API előírásait, akkor hogyan kaphatja meg a driver a Khronostól a certifikációt?Csak gondolt át logikusa. Szinte a procink is majdnem megegyezik. Neked megy, nekem meg nem. Ez szoftverhibának tűnik. Tekintve, hogy a Rage kapcsán rengetegen panaszkodnak hasonlóra, így nem hiszem, hogy a drivere a baj. [link] - szerinted neki miért van pop-upja GTX 560-nal? Én is ugyanezt tapasztalom, csak lassabb fordulások mellett is. HD 5770-nel meg elég korrekt itt. [link] Most akkor kinél van a hiba?
Ez a Rage így egyértelműen gáz. Nem illik a PC-hez. Az auto-balancer egyértelműen nem működik hibátlanul.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Általánosan még ma sem támogatja. De minden játékra készít profilt, amin belül működik. Egyébként a többszálú feldolgozás és az utasításlista nem követelménye a DX11-nek. Ez csak opcionálisan támogatható technológia. Számos olyan dolog van a DX11-en belül, amit nem kell, vagy esetleg emulálva lehet támogatni. Az MS-nek nem számít, hogy melyiket választja a cég. Ott van például az irányított raszterizálás. Ugyanolyan gyorsító szolgáltatás, mint az utasításlista, de a GeForce nem támogatja, míg a Radeon igen. Mondjuk ezt az NV nem is tudja támogatni, mert hardvert kell rá építeni, de ettől még nem láttam olyan nyilatkozatot az MS-től, hogy a GF400/500 nem DX11-es rendszer. Sőt, konkrétan megkérdeztem őket erről, amikor kiderült, hogy ez nincs támogatva, és írták, hogy semmi gond. Az API követelményei nem kötik ki, hogy hardveresen támogatott, vagy emulált szolgáltatás legyen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Kb. igen. Elszámolta magát.
---
Más: Végre kaptam egy részletes doksit a DX11.1-ről. Mégsem tűnik olyan rossznak a VSC bitek visszatérése. Az MS kitalált egy olyan módszert, amivel nem kell rajzolási parancsonként ellenőrizni. Nice. Akkor így mégsem történt komoly visszalépés. Persze a szegmentálás megmarad, mert a specifikus kiterjesztések gyártóhoz vannak kötve.
Egyébként nem tűnik olyan lehetetlennek a DX11.1 a mai DX11-es hardverekkel sem. Elképzelhető a támogatás, még ha részlegesen is. A rendszer nagy része DX11-es kiegészítés, így ebből a mostani hardverek is profitálhatnak. Két rész van, ami probléma lehet a DX11-es hardvereknek. Az egyik a logikai operáció a render targeteken, míg a másik a kényszerített mintaszámítás lehetősége a reszterizáló státusz készítésénél. A többi újítás lényegében nem feltétlen követel új hardvert. Na most kérdés, hogy a mai hardverek közül ki fejlesztett többet, mint kellett volna.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TESCO-Zsömle #5196 üzenetére
Ez az implementációtól függ. A DX10 előtt úgy működött, hogy minden parancs előtt megkérdezte a rendszer a drivert, hogy a hardver tudja-e egyáltalán ezt futtatni. A driver leellenőrizte, és visszaigazolta, hogy igen, vagy nem. A DX10-ből eltűntek a VSC bitek, így kőbe volt vésve, hogy mit kell tudnia a hardvernek. Ezzel a program az indítás elején megkérdezte a drivert, hogy DX10, 10.1, vagy 11-es hardverről van-e szó, és az alapján futtatta a programot. Azt nem tom, hogy a DX11.1-ről mennyit lehet írni, de az MS nem mondta, hogy kussolni kell. A DX11.1-ben is így működik majd ez, de lesz egy kiterjesztéskezelő. A program nem csak a DX verzióra kérdez rá, hanem lekérdezi, hogy azon felül még milyen kiterjesztéseket támogat a driver és a hardver. Persze ezt a programba kell építeni. Ha biztos a fejlesztő, hogy csak a DX11.1-es funkciókat használja, akkor nem kell a kiterjesztések után érdeklődni. Enyhén OpenGL-re hajaz. Ami jó ebben, hogy marad a hatékonyabb ellenőrzés. ami rossz, hogy a fejlesztőknek az egyes extrákra minden gyártó kiterjesztését elő kell venni, vagyis jóval többet kell dolgozni. Illetve kérdés, hogy ki milyen kiterjesztésekkel dolgozik majd. Lehet, hogy lesz egy csomó eltérő megoldás, eltérő problémákra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FireKeeper #5208 üzenetére
Ilyet még ne kérdezz. Nem válaszolhatok. Nem kell sokat várni a válaszra.
Általánosan elmondhatom, hogy Dual Graphics esetén a hibernálás működik, ami a kis GPU-k esetében képes 4-5 wattos fogyasztásra redukálni a VGA-t.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz nova001 #5221 üzenetére
Azért rakja középre, hogy a kép ne torzuljon el. Ha széthúzná, akkor mindenki totál dagi lenne, és például a kör ellipszisnek látszana. A 4:3 képarányú felbontást 4:3-ban jeleníti meg, hogy megfelelő legyen az élmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz nova001 #5223 üzenetére
Nem hiszem, hogy egy notebook kijelzője fel van arra készítve, hogy átváltsd ezt. Esetleg szoftveresen, de az AMD szándékosan dönt úgy, hogy a képarányhoz igazítja a képet, mert nem szép, amikor torzul a kép. Nagyjából így:
4:3-as kép [link] 16:9-be alakítva [link]Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz stranger28 #5231 üzenetére
Eigen. Ez benne a trükk. Ennél már csak a mínuszból induló grafikon a jobb, hogy kisebbnek tűnjön a konkurencia előnye.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az OEM-ek olyan BIOS-t kapnak, ami -20%-os PowerTune-t alkalmaz alapból, és megváltoztathatatlanul. Ezzel benne vannak a 300 wattban.
Nyilván a kiskereskedelmi kártyák esetében nem a BIOS-ban van megszabva a PowerTune. Ezt a driverből lehet állítani, vagy hagyni alapon, ami 375 wattos limitet jelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
[link] - ez itt a VGA-s kérdések topik. De mindegy most már. Igazából nehéz megmondani, hogy ettől van-e. Tekintve a kártya típusát, valószínű, hogy nem, mert ebben a termékben még nincs hardveres dekódoló. A proci dolgoz fel mindent, és azt küldi ki a monitorra. Ha a VGA lenne a baj, akkor nemcsak a youtube alatt lenne probléma. Ennél több behatárolást nem tudok mondani. Lehet proci, alaplap, memória, hangkari, vagy valamilyen egzotikus szoftveres probléma. Ha csak a youtube a gond, akkor hajlok a szoftveres hiba felé, böngésző, flash player.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Eleve nem biztos, hogy lesz VGA benne. Egyelőre annyit tudni, hogy van egy konzol egy Oban kódnevű APU-val. Ennél több adat nincs a lapka felépítéséről, csak arról, hogy az IBM csinálja a procirészt, míg az AMD az IGP-t. De még ezt sem erősítette meg az MS. Sőt, azt sem, hogy működik az új Xbox. De még azt sem, hogy fejlesztik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez a piac egy alapvető átalakuláson megy keresztül. Egy év alatt esett az eladás 30%-ot. Kemény a helyzet, de 2012-ben ez lesz a költséghatékonysági mutató. A kieső eladásokat csak magasabb árazással lehet visszahozni. Ez persze további kieső eladásokat jelent majd, amire a 2013-as generáció még magasabb árazásokkal reagál.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MZsoltee #5488 üzenetére
Nem hiszem, hogy lesz ilyen teszt. Túl sok időbe kerül, és egyelőre halomban állnak a tesztholmik. Majd ha kicsit pihenőbe rakja magát a piac, akkor lehet ilyenen gondolkodni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Alpha Laptopszerviz Kft.
Város: Pécs