- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Vakegérke: NyalóVilág: tizenegy, nem babra megy - VV11 - Való Világ 11
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- SirRasor: Garmin Venu SQ és Garmin HRM-Dual összehasonlítása, avagy kell-e a szíj?
-
IT café
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
Abu85
HÁZIGAZDA
Maga az egész demó megrendelésre készült. A Luminous Engine-t a Square Enix lelőtte miután a fejlesztőstúdió játékfejlesztésre alkalmatlannak titulálta. Csak a fénykezelését viszik tovább, amit beépítenek a Final Fantasy aktuális motorjába. A többi része a motornak kuka. Viszont mivel kész, így az MS és az NV rendelt egy demót, és ezért fizettek a Square Enixnek egy csomó pénzt. De például a demó nem került fel jó minőségben sehova, mert a Square Enix csak a Build konferenciára készítette. Valószínűleg gyengébb hardver is elég lenne, csak egy belsőleg kivégzett motornál az optimalizálás nem számít, ebbe kár pénzt ölni. Arra a videóra jó volt így is.
A Luminous Engine-t használó belső stúdiók Unreal Engine-re váltanak, azzal van tapasztalatuk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11268 üzenetére
Nem jön semmi a Luminous Engine-nel. A régi motorba lesznek átmentve a használható részek. Azzal jön az FFXV.
Nem volt amúgy teljes kudarc a fejlesztés, mert a kutatás egy része átmenthető, de maga a Luminous Engine halott abban a formában, aminek készült.
A Square Enix a jövőt három motorral képzeli el. Egyrészt az Unreal Engine a keleti fejlesztőknek jó lesz, mert ismerik. Ez kiváltja a Luminous Engine-t. A régi motorok fejleszthetők még. A nyugati fejlesztőknek a Crystal Engine és a Dawn Engine lesz. Az Unreal Engine számukra is opció a licenc miatt, de ők inkább dolgoznak a saját rendszerrel.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A G-Sync esetében a monitorgyártók felfogása is számít. Már rég nem kellene annyiért adni, amennyiért adják, mert jóval olcsóbb lett az egész csomag, de a VESA szabványa után egy csomóan eldöntötték, hogy maradjon drága, halljon meg minél hamarabb és akkor nem kell dupla költségbe verni magukat a fejlesztéseknél. Itt már az a gond, hogy még ha ki is vágják a licencet a G-Sync alól akkor is probléma az A-Sync és G-Sync támogatást egyszerre megoldó monitorgyártóknak a két rendszer életben tartása. Minden olyan kategóriába, ahol ez a funkció fontos dupla költséggel neveznek, ergo végeredményben ugyanabból a kategóriából lényegesen kevesebb nyereséget szakítanak ki, mint régebben. Innentől kezdve már az egyik irány kivéreztetése a cél, mert ezek profitorientált vállalkozások.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #11379 üzenetére
Számtalan konkurencia van, ráadásul egyre olcsóbban. Igazából minden monitorgyártó egyetlen irányt akar erre a funkcióra, mert most van egy réteg, akinek szánod, és vagy a Radeonost éred el, vagy a GeForce-osat, vagy dupla költségbe vered magad a fejlesztés oldalán és eléred mindkettőt, de végeredményben ez a legrosszabb, mert annyival nem nő a partnerbázisod, hogy kigazdálkodja neked a dupla költségeket.
Szóval az A-Syncet és G-Syncet is támogató gyártók számára az a legjobb opció, ha drágán adják a G-Syncet. Egyrészt aki fanatikusan ezt akarja megfizeti, ha meg nem fizetik meg, akkor kivégzik, és újra egy szabvány lesz. Mindkét opció win-win számukra.
A Samsung és az LG pedig diktálni akar megint. Ők úgy vannak vele, hogy megölték anno a 3D Visiont, ezt is lerendezik gyorsan.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #11381 üzenetére
Konkrétan erre építenek jelenleg. Aki tényleg van annyira fanatikus, hogy ragaszkodik hozzá, és csak a G-Syncet fogadja el az igenis fizesse meg, nagyon keményen. Ha meg nincs akkora réteg, hogy ezt fent lehessen tartani, akkor kidobják a technológiát. A lényeg az, hogy ne a technológiai kezdeményezés bukjon el, hanem úgymond kellő mennyiségű igény ne legyen mögötte, mivel így kisebb presztízsveszteség valami mögül kihátrálni, minthogy most azt mondanák egyes monitorgyártók, hogy gyerekek sorry, de nekünk baromi drága két irányt fenntartani ugyanarra, és nem szeretnénk ha a profitunkat ez hosszabb távon lezabálná. Persze a vásárlók kis része ezt is megértené, mert tudják, hogy nem a két szép szemünkért gyártják ezeket a monitorokat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #11385 üzenetére
Elmondom hogyan látják a helyzetet a gyártók. Van két technológia ugyanarra. Ha ezt a két technológiát támogatják, akkor az nekik sok területen dupla költség, miközben a valóságban a monitorok eladása nem változott jelentősen, mert a konkurensek is kínálják kb. ugyanazt. Tehát a bevétel nem változott viszont nő az R&D és a gyártási költség, ergo csökkent a nyereség. Ezt úgy lehetne újra megfelelő szintre hozni, ha az egyik technológia megy.
Most nagyon nyers leszek, de a monitorgyártók elképesztő mértékben leszarják, hogy ez melyik felhasználónak milyen érzés. Te mint felhasználó jó eséllyel semmit sem fogsz ebből érezni, viszont a gyártónak nagyobb lesz a nyeresége. Ilyen egyszerű.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #11389 üzenetére
Egyetlen monitorgyártót sem érdeklik a vásárlói szempontok. De komolyan. Azt veszitek, amiket kínálnak. Egy dolog érdekli őket nagyon, hogy ugyanarra az elvre ne kelljen már dupla pénzt költeni, mert lezabálja a profitjukat. Ezek profitorientált vállalatok, és abszolút nem a felhasználói elégedettség vezérli őket. Ha neked ez nem tetszik úgy tiltakozhatsz ellene, hogy többet nem veszel monitort.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #11389 üzenetére
Ezt halál komolyan gondolom. Nem igazán tudok olyan dolgot mondani, amit a monitorgyártók valaha is a felhasználókért tettek volna. Ott volt a 3D Vision. Sokan szerették? Ja. Érdekellentét miatt kivégezték? Ki bizony.
Amíg nem demonstrál a piac azzal, hogy összefogásban többet nem vesztek hardvert, mondjuk monitort, addig a gyártók nagymértékben diktálhatnak. És ennek az egyetlen oka az, hogy nem számít mi lesz egy-egy technológiával a monitort úgyis meg fogod venni, mert szükséged van arra, hogy lásd a PC által adott képet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz TTomax #11392 üzenetére
És helyette még évekig megvették az alternatív sztereó 3D-s opciókat. Gondolták, hogy az LG és a Samsung saját technológiája biztos jobb. Ja nem várj, az LG és a Samsung döntött úgy, hogy saját technológiára váltanak, mert sokallották a licencet. Természetesen a tömegek felbontották mindkét cég székhelyén az útburkolatot a rögtönzött tüntetésekkel, annyira durván érintette őket a döntés. Ja nem várj, megvették, amit az LG és a Samsung kínált.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz rocket #11400 üzenetére
Nem mindegyik hardver csinálja még a 280-ak közül sem, azért nincs ez ilyen általánosan kezelve. Nem igazán tudják, hogy ugyanaz a 280 x gépben miért jó és y-ban miért nem. Amíg erre a kérdésre nincs válasz, addig a javításon sem lehet elgondolkodni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Geresics #11398 üzenetére
A VRAM használata a GTA5-ben elméleti számítás. Illetve figyelembe kell venni, hogy nem minden VGA-n jelent ugyanaz a beállítás ugyanolyan memóriahasználatot. Például egy 285-ön ugyanarra a beállításra 2,2 GB-ot írt a program, míg egy 270/280-on 2,7 GB-ot. Szóval a VRAM nem egy általánosan kezelendő dolog, mert bizonyos hardvereken az allokációs stratégia eltérő, és gondolom erre be van építve a GTA5-ben egy adatbázis a gyártók által megadott paraméterekkel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz rocket #11407 üzenetére
Nem az AMD mondta, hanem a Rockstar. Az ottani csapat foglalkozik ezzel a hibával.
Egyébként csinálja 290 is bizonyos konfigurációkkal és bizonyos beállításokkal.Nagyon nehéz javítani valamit, ha nem tudod, hogy mi okozza. Előbb a hiba okát kell megfejteni, de talán az sem kell, mert át lesz írva az egész AA layer a játékban később, mert hibásan működik az élsimítások kombinálása, illetve az MSAA nagy területeken teljesen kihagy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Malibutomi #11409 üzenetére
Igen. Alapvetően csak az FXAA működik benne. Az MSAA sok esetben csak számol és ennek számításnak a képkocka nagy területén nincs látható eredménye. Ennek az az oka, hogy szar az MSAA pipeline, mert nem mindegyik render targetre fut le, vagyis összemosás után a kép egy része jó, míg a másik része recés. Igazából az lenne a legjobb, ha a konzolokba épített analitikai AA-t hoznák át, mert az 4 célirányos szűrő post-process AA-val kiegészítve.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz velizare #11411 üzenetére
Deferred render a motor. Ilyenkor ha nem jó az MSAA pipeline, akkor az eredmény sem lesz mindenhol látható. Nem véletlen, hogy mindenki veszettül menetel az analitikai megoldások felé.
(#11412) Malibutomi: Nagyon valószínűtlen, hogy az MSAA-val pár hétnél többet foglalkoztak volna. Ők is sejtették, hogy deferred renderrel elméleti problémát vannak az ilyen koncepcióval. A gyakorlat csak igazolta az elméletet. Most persze megy a munka, hogy átírják, és ráküldik az MSAA-t az összes RT-re, de az sem életbiztosítás, mert ott shaderből lenne jó irányítani a mintavételezést.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Fiji kibaszott gyors lesz kibaszott drágán. Aki mást vár csalódni fog. Bocs a nyers megfogalmazásért.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hint: A két GPU-s verzió VR-re készül. Emellett el kell adnotok a lakásotok, hogy megvegyétek.
Nyilván itt az is a lényeg, hogy kiizmozzák a HBM előnyeit. Dual GPU-s kártyát a GDDR5 miatt volt nehéz tervezni. A HBM mellett jóval egyszerűbb, tehát nem kell hónapokig túráztatni a mérnököket, hogy összehozzanak egy működő NYÁK-ot, ami nem 50 centis persze.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz KillerKollar #11519 üzenetére
Hát drágább nem lesz, de 350-400k esetében számít pár tízezres?
Én csak azt akarom finoman sugallni, hogy olcsót ne várjatok. Nem lesz olyan, mint a HD 4000-nál, hogy megcsapkodja a GeForce-okat majdnem féláron. Rá lesz vésve a komolyabb árcédula. Azt is elmondom miért: LiquidVR/Mantle, HBM, vízhűtés, "aprócska VGA".
(#11520) -Solt-: Nem akarok nyers lenni, de azzal az AMD-t nem fenyítik be, hogy akkor inkább veszek AMD-vel szerelt konzolt.
(#11523) Malibutomi: Nincs még végleges ára, de 700-800 dollár környékén megy az üzletelés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11527 üzenetére
A LiquidVR jó Hawaii-ra is, de a Fiji és a Tonga tartalmaz egy fontos fícsőrt ehhez, amivel CPU szintű preempció valósítható meg, vagyis nagyban nő az esélye annak, hogy a szinkronablakban elkészül a timewarp. Ezért lesz a Fiji az első igazán VR-ready hardver.
Ja 4 lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11531 üzenetére
Röviden a VR esetében az a fontos, hogy meglegyen a timewarp eredmény a szinkronizációs ablakban. Ha nincs meg, akkor szopás, mert ki kell rakni az előző frame-et. A CPU szintű preempció azt teszi lehetővé, hogy ha jön egy timewarp feladat, akkor az azonnal lefuthasson. Befut a CU-ba, és a CU fogja magát és félbeszakít mindent. Ez azt jelenti, hogy ha egy timewarp időigénye a normál számítási terhelés mellett 8 ms, akkor azt CPU szintű preempcióval a hardver tényleg megoldja nagyjából 8-9 ms alatt. CPU szintű preempció nélkül elképzelhető, hogy a timewarp nem fut le csak 12 ms alatt, mert nem tudja megszakítani a hardver a már elkezdett többi feladatot. És le is csúszta a frissítés a szinkronizációs ablakot.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Még annyi hogy:
Lehet, hogy ez amúgy így sok, és nehezen érthető, de 90 Hz-re van szükséged, ami oké, de a sebesség nem állandó, tehát belül a hardverben több fps kell. CPU szintű preempció nélkül is lehet minden tutifrankó, ha a program képes 130-150 fps között futni, mert az azért elég időt feltételez a timewarpnak. CPU szintű preempció ezt annyiban könnyíti meg, hogy elég ha a program 100-110 fps között fut, mert tudja a hardver, hogy mely feladatok a fontosak és mely feladatok esetében van több idő, hogy azok elkészülhessenek.
Igazából ez majd egy érdekes probléma is lesz, mert a VR-nél az fps mérése tök felesleges. Nem a magasabb fps adja majd a jobb eredményt, hanem az, ha a hardver kevesebbszer csúszik ki a szinkronablakból.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz -Solt- #11539 üzenetére
Vsync. Az Adaptive Sync-et vizsgálták, de egyelőre nagyon nem jók az eredmények. Később elképzelhető, de ma fix vsycn a dolog, természetesen ezért képtörés nem lesz.
(#11540) Menthirist: Affinity AFR-tel elképzelhető.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az ilyen marketingekre egyszerű kontrázni. 4096 bit = 16 x 256 bit. Játék a számokkal.
Mindkettő reális, mert bithuszár ez a piac. Elég csak nézni mennyien fanyalognak a 128 bit miatt. Nem tudják miért, de rossz, mert ... ő ... ja mert rossz és kész.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Akkor ők drágábban vesznek lassabb VGA-t.
De egyébként meg lehet nézni a történelmet. Amikor egy gyártó memóriatechnológiát váltott, akkor azt a generációt vitte. Ez mindig így volt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Lesz egyébként 8 GB-os Hawaii hivatalosan. Ha valaki nagyon 8 GB-ost akar. A Hawaii-ra is dobnak egy jó +10-15% teljesítményt a mostanihoz képest. De aki teljesítményt akar úgyis a Fiji-t fogja venni, mert több fps-e lesz mindenhol. Nem egy-két helyen, hanem mindenhol.
(#11561) Bici: Plusz órajellel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Már rám szóltak, hogy így is sokat mondtam (nem csak itt, hanem hírekben is), szóval nem fogok válaszolni. Majd jön.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11727 üzenetére
Mert egy rakás pénzt öltek szoftverfejlesztésbe és az E3-on erről végre beszélhetnek. Kint lesznek a játékfejlesztői partnerek, az Oculus, illetve csinálnak ennek az egésznek egy önálló PC Gaming showt.
Lesz pár új hardver, és lehet hogy sokan erre figyelnek, de ezek lesznek a legkisebb dolgok.
Igazából két éve annyira bejött a szoftveres irány, hogy még jobban ráfeküdtek a fejlesztők egyéni gondjainak célirányos megoldására. Egyszerűen megvan az a rés, amivel a Khronos és a Microsoft sem foglalkozik, és a top fejlesztőket zavarja, ha az ötleteiket a szabványalkotók nem veszik számításba. Az a célja az AMD-nek, hogy az iparági partnereik akkor is lefejlesszenek valamit, ha szabványos keretek között még nincs rá lehetőség. Ez szerintük felgyorsítja a fejlődést.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz CsonkaImo #11741 üzenetére
Valamelyik funkció igen, valamelyik nem. Itt már nem egy általános probléma megoldásáról van szó, mint mondjuk a Mantle esetében, hogy nagy az overhead és azon jó lenne csökkenteni. Az nagyban egy szoftveres probléma szoftveres megoldással.
A cél most olyan Mantle verziók készítése a fejlesztőknek, amelyek célirányos problémára reagálnak. Például lehetővé tenni a pixel shader lépcsőnek az LDS ma még elzárt területeihez való hozzáférést. Egyetlen API sem reagál erre, mert bonyolult a probléma, de a konzolon egy vezető irány lesz, amivel extra effekteket terveznek a fejlesztők.
Az is fontos lesz, hogy az AMD még több szabadságot ad a fejlesztőknek. Ha egyetlen API sem jó, még az új Mantle verziók sem, akkor megengedik, hogy a programozó saját grafikus API-t írjon.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11742 üzenetére
Az érdeklődés megmaradt az AMD API-jai iránt, csak már nem olyan formában, mint régen. Az overhead problémát megoldja a DX12 és a Vulkan is, és az AMD is azt mondja, hogy ha csak olyan problémád van, amit a szabvány megold, akkor azt kell használni. De ez nem jelenti azt, hogy az iparágon belül nincs olyan gond, amire szabványos megoldás nem létezik. Például tök jó lenne, ha a DX12 és a Vulkan képes lenne az aktuális fejpozíciót kiolvasni a VR csomagból, de nem képes, és az MS-t, illetve a Khronost nem különösebben érdekli ez a hiányosság. Ez rögtön egy olyan probléma, amire ma csak az AMD tud megoldást kínálni, míg a többiek eredménye attól függ, hogy a Khronos és az MS mikor hajlandó elfogadni, hogy a VR élmény jobb, ha a fejpozíció 10 ms-mal frissebb.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Malibutomi #11746 üzenetére
Az csak azoknál a fejlesztőknél ér valamit, akik szegények. Az AMD elsődleges partnere a kiadók között az EA, a Square Enix, a SEGA és a Capcom. Őket a nyers technológia érdekli, amivel alázhatnak az iparágon belül. A következő két év nagyon sokat fog számítani, mert nagy kiadók fognak úgy dönteni, hogy túl drága az AAA játékfejlesztés és átmennek mobilra. A Konami például már eldöntötte, hogy megy, és igazából ezt a lehetőséget többen is vizsgálják. Minél nagyobb előnyt épít ki egy kiadó technikailag, annál nagyobb az esélye, hogy a konkurens kiadó behozhatatlannak ítéli a hátrányát és mobilra menekül.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11751 üzenetére
Miért nem? Olyan technológiákat építenek a játékokba, amelyeket csak Radeonnal érhetsz el. Vagy nem kérsz ezek előnyeiből, vagy veszel egy Radeont. Ennél egyszerűbb stratégiája rég volt már az AMD-nek.
Egy olyan irány mellett, amikor a vezető kiadók azon gondolkodnak, hogy minden korlátozott licencű middleware-t kidobnak alapvetően jó az a stratégia, hogy ha a middleware nem kell, akkor legalább olyan csomagok legyenek, amivel a fejlesztőknek egyszerűbb lesz a middleware-ek helyettesítése. Az AMD nézőpontjából vizsgálva úgy vannak vele, hogy ha szerencséjük lesz, akkor egy csomó fejlesztésre nem lesz szabványos alap, vagyis csupán a nyitottságuk miatt egyre több dolog fut majd csak Radeonon. Ilyen körülmények között az fog dönteni, hogy ki a játék kiadója és ahhoz veszed a VGA-t.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Malibutomi #11755 üzenetére
Az AMD már nagyrészt szoftvercég. Persze hardvereket gyárt, de azért nyissuk ki a szemünket pár nagy problémára. Ott volt az API gondja. Az AMD oldotta meg. Azért maradt zárt az API-juk, mert a header fájlokat a Microsoft és a Khronos úgy nem engedte nyilvánosságra hozni, hogy a DirectX 12 és a Vulkan rengeteg részt copy-paste-ban átmásolt.
Számos szoftveres problémát is megoldott még az AMD. Például a Windows 10-ben a vezeték nélküli kijelző úgy fog működni, ahogy az AMD kidolgozta a Windows 8.1-re. Az MS elfogadta, hogy az sokkal jobb modell. Ugyanígy az MS GPGPU-s JPEG dekódert is rak a Windows 10-be. Lemásolták, amit az AMD csinált a HSA dekóderrel.
Amikor egy hardvercég szoftvertechnológiáit másolja a szoftveripar, ott azért erős a szoftveres fejlesztés.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Menthirist #11763 üzenetére
Elvileg úgy van a licenc, hogy ha valami komoly gond van, akkor el lehet kérni a forráskódot, és annak módosítására lehet tenni javaslatot. De ha az NV nem látja indokoltnak, hogy a fejlesztők lássák a forráskódot, akkor joguk van ezt visszautasítani. Emellett a javaslatokat sem kötelező elfogadni. Többek között olyan javaslatokat meg sem vitatnak, amely a teljesítmény növelésére koncentrálna. Egyszerűen azért zárt a middleware, hogy ne egy fejlesztő határozza meg mennyire gyorsan fusson a PC-ken, hanem maga az NVIDIA. Ha azt akarják, hogy csak a Titan X legyen jó, akkor megírják úgy.
Ezért írta Lauritzen, hogy még a stúdió üzleti embere sem lehet olyan hülye, hogy ilyet aláírjon.
Egyébként Maxwellen is simán háromszorosa lenne a végrehajtás sebessége 16x tesszellációval.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11767 üzenetére
A probléma forrása az, hogy sok felesleges munkát végez a HairWorks. Nincs semmi különbség 64x és 16x tesszellálás között, de közben minden hardveren jelentősen lassít a 64x mód. Miért van rajta? Tök ugyanaz fog lejátszódni, mint a Far Cry 4-nél. Az AMD megváltoztatja a tesszellálási faktort és a formátumot, amivel gyorsabb lesz az effekt a Radeonon, mint GeForce-on. Erre az NV is megcsinálja ugyanezt, mert az effekt minőségére ennek nincs hatása. Egyszerűbb lenne optimalizáltan kiadni, nem széthackolni a driverben a kész effektet. Aztán az is kérdés, hogy a módosítást csak a Maxwell kapja meg, mint az FC4-nél vagy most a Kepler és a Fermi is.
Ez gyakorlatilag a saját felhasználóid nagyfokú szopatása végeredményben a semmiért. Ez nagyon árt a PC gamingnek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11771 üzenetére
Abból a szempontból a fejlesztők hibája, hogy egy ilyen konstrukciót választottak. Nem véletlen, hogy a top fejlesztők szerint ez az egész GameWorks úgy ahogy van bullshit. De persze nyilván nem pisztollyal kényszeríti az NV az adott céget, hogy írják alá a szerződést, tehát valahol ez az aláíró hibája.
Már megint ez az AMD vs. NV. Itt nem erről van szó, hanem arról, hogy a HairWorks minden hardveren több sebességet igényel, mint amennyi kellene ugyanehhez a minőséghez. Kit érdekel a hardverpárosítás, ez a gépigény mesterséges növelése, ami rendkívül káros az iparágra.
Meglepődnél mennyi. Az Intelnél és az AMD-nél bevett szokás az is, hogy mérnököket küldenek a stúdiókhoz, hogy helyben megmondják mi a gond.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FollowTheORI #11778 üzenetére
Nem. Ezt több fejlesztő is elmondta, hogy téves. Nyilatkozatokat lehet adni róla, de valójában a forráskód akkor jár, ha az NV úgy ítéli meg, hogy szükséges. Ha nem, akkor nincs forráskód. De még ha van azt akkor sem lehet módosítani. El lehet mondani az NV-nek a problémát és vagy módosítják vagy nem.
Ez igazából arra megy ki, hogy a fejlesztőnek ne legyen kontrollja az effekt sebessége felett. Minden fejlesztő érdeke, hogy az adott program a lehető leggyorsabban fusson, de ez ellenkezik az NVIDIA érdekével. A megoldás erre a problémára a GameWorks.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11791 üzenetére
Nem feltétlenül szükséges számukra új GPU. Azok a technológiák, amelyekre szükség lesz low-level API-val, már 2012 elején bekerültek és ott vannak a hardverekben. Valószínű, hogy a tervezésnél az AMD eldöntötte, hogy a telefonpiac úgy sem érdekli őket, így előre kitömték a rendszert, hogy 2015-ben is működjön. Ezért van benne sok regiszter, skalár processzor, nagy LDS, gyors belső busz, stb.
A többiek nem gondolkodtak ennyire előre, mert fontos volt valami más piac is, vagy nem számítottak rá, hogy szoftveresen ennyi újítás lesz három év alatt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #45185024 #11869 üzenetére
Nem igazán a DX12 számít. Igazából ezen az API-n egy komoly fegyverük van, ami az aszinkron compute. Arra tényleg senki nem készült fel, és alapvetően nagyon hasznos, hiszen GPU-limites szituációkban gyorsít a rendszeren elég sokat.
De elsősorban nem a DX12 számít, mert az csak egy low-level API, a három közül, amit támogatnak.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11882 üzenetére
Az a baj, hogy ha leveszed 16x-re a tesszellálást ugyanazt kapod, és a teljesítményvesztés nincs 10% sem. Ha olvasod a Redditet, akkor ez zavarja leginkább az NV tulajokat, hogy ők rá vannak kényszerítve az eredeti 20-25% körüli deficitre valójában a semmiért. Engem is zavarna, ha csak egy gyártó önkényessége miatt egy effekt 5-10% helyett 20-30%-ba kerülne, miközben ennek azon kívül semmi értelme, hogy jól lezabálja a teljesítményt. Borzalmasan rossz irányba viszik ezzel a PC Gaminget.
A számok senkit sem érdekelnek. Az a fontos, hogy egy alapvetően -5-10%-ba kerülő effekt teljesítményigényét -20-30% közé tolták mesterségesen. Ez a mélypont a rossz ötletek tárházában. Nagyobb arculcsapás a PC-s piacot nem is érheti.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11890 üzenetére
Nem érted. A HairWorks minőségi szintjének valós teljesítményigénye nem több 5-10% veszteségnél. Nincs benne OIT, látszatra önárnyék sem, rossz az AA, stb. Egy szót nem szólna senki, ha úgy nézne ki, mint a TressFX, de nagyon messze van tőle. Viszont mesterségesen fel van tolva a geometriai munka, amely átmegy a teljes pipeline-on. Semmi különbség nincs a 16x és a 64x tesszellálás között, és előbbivel az egész effekt csupán -5-10%-ba kerülne. Mi értelme a 64x módnak, ha semmit sem ad hozzá a minőséghez, de a teljesítményigényt -20-30%-ra növeli? Ez az amire senki nem ad választ. A CD Projekt csak azt mondja, hogy nem tudják befolyásolni a működést. Ezt még el is hiszem nekik, így az általános kérdést inkább az, hogy mi értelme van mesterségesen növelni a gépigényt?
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #11895 üzenetére
Szerinted számít? Egy csomó élőlény LOD-határon kívül van.
A TressFX-nél érthető a teljesítményigény. Ott a forráskód az AMD oldalán. Benne van az OIT PPLL adatstruktúrával, ami baromira nem olcsó, de ez adja a minőséget. Az ilyen vékony geometriák gondja, hogy baromira nehéz a sorrendjét meghatározni a hajszálaknak. A normál átlátszóság nem is működik, ezért alkalmaz a TressFX sorrendtől független átlátszóságot, és az effekten belül ez viszi el a teljesítményigény 60-70%-át. Viszont a HairWorks a példa rá, hogy enélkül az eredmény gyenge.
Senkit sem érdekel a hardverek sorrendje. Az érdekel mindenkit, hogy miért 20-30% a HairWorks teljesítményigénye, amikor 5-10% deficitből megcsinálható ugyanez.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez téves. A következő generációs a következő év közepén jön a jelenlegi adatok szerint. Addigra hozzávetőleg 25-30 low-level API-t használó AAA játékunk lesz, plusz még a kicsik. Nem feltétlenül DX12-es, mert sokan Vulkánra lőnek a SteamOS miatt, vagy specifikus dolgok miatt marad a Mantle is. Ilyen is lesz.
Számos aktuális játék is kap frissítést valamelyik low-level API-ra, mert most nagyon nagy limitekbe ütköznek.
Még az indie részleget is nagyon érdekli a DX12, mert azzal úgy fel tudnak kerülni a Windows Store-ba, hogy Xbox One-on is elérhető lesz a játékuk, ráadásul ehhez nem kell tenniük semmit, az Xbox One ilyen módban kvázi egy PC-vé változik. A DX12 a legolcsóbb módja, hogy a játék futtatható legyen Xbox One-on. Igaz nem az Xbox Store-on belül, de eléri a konzol user és megy.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schawo #12057 üzenetére
Most így áll a helyzet. Lehet, hogy lesz belőle 50 is, mert a piciket nem tudják beleszámolni. Az indie terület most nagyon rárepült arra, hogy a Microsoft ennyire olcsó belépőt nyit ősszel az Xbox One-hoz. Az egy akkora játékosbázis, hogy vétek lenne nem kihasználni. Ez nagyon meggyorsítja az API terjedését. Nézd az indie szemével. Megírod a programot PC-re, feldobod a Windows Store-ra, és DX12, illetve kontroller támogatással automatikusan letölthető az alkalmazás Xbox One-ra, mindezzel kikerülve a Microsoft amúgy eléggé szigorú Xbox Store követelményeit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz rocket #12060 üzenetére
Nem grafikont néztem. A Microsoft mondta, hogy ők egy éves szinten 20 AAA-ra számítanak. A Valve pedig 25-re. Ebben nyilván van átfedés. És ez mindkét esetben egy óvatos becslés. Na meg a Valve a SteamOS megjelenésétől számol, míg az MS a Win 10 megjelenésétől.
Az EVGA már promózták, hogy low-level lesz a Witcher 3 és a Batman: AK.
A Project Cars esetében nemrég volt róla szó, hogy a DX12 renderük 30-40%-kal növeli a sebességet a mostani DX11-hez képest, tehát gondolom ezt ki is adják, nem csak kifejlesztették méregetni.
A Microsoft hivatalosan hozza a King of Wushu és a Fable Legendset.
A Valve már prezentálta a GDC-n a DOTA 2 Vulkan módját.
Az Epic a fejlesztett játékait DX12-re hozza, ami jelenleg a Fortnite-t és az UT-t jelenti. Illetve a Dead Islands 2 és a Revival is azért lett csúsztatva, hogy átrakják őket low-levelre.Az AMD már bejelentette, hogy a Deus Ex: MD és az Ashes of the Singularity low-level, illetve tudni lehet, hogy az összes továbbiakban érkező Frostbite játék is az. NFS, SW: Battlefront, Mirror's Edge, Mass Effect. Ezek egy éven belül jönnek.
Az AMD-től tudom, hogy a LiquidVR miatt az EVE Valkyrie támogatja a Mantle-t, azt nem tudom, hogy más támogat-e, de nyilván nem hiszem, hogy kimaradna a Vulkan vagy a DX12, hiszen az Oculus nyitócíméről van szó. Ezzel azt is elárultam, hogy minden LiquidVR-t támogató játék használ Mantle-t, hiszen maga a LiquidVR csak ezen a felületen keresztül működik. Interoperability lehetséges, de csakis más low-level API-val, vagyis Vulkánnal és DX12-vel.
Star Control, Star Citizen szintén low-level API-kat támogató játék, és ezekhez a low-level kód megérkezik egy éven belül.
Amiket nem tudunk még azok az új IP-k. De látva, hogy most mennyi készül, nagyon is hihetők az MS és a Valve számai, és akkor az indie még kérdéses.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #12071 üzenetére
A low-level az Vulkan, Mantle és DX12.
A Frostbite-ról jelen pillanatban úgy tudom, hogy nem rendelkezik DX12 porttal, de Mantle-lel és Vulkánnak már igen. Azt nem tudom, hogy DX12-t valaha is beépítik. Igazából a Vulkan mellett számukra nem szükséges, de persze lehetséges. Igazából ők még az Apple Metálra is lőnek, szóval a DX12 többletköltsége három low-level API alapvető támogatása mellett nem tényező.
Az 2016H1 belefér az MS által vizsgált időkeretbe.
2016 Q4-re akarnak minimum szinten WDDM 2.0-t. Azt a GPUMMU és az IOMMU miatt akarják és nem az API miatt. Főleg az IOMMU kell nekik, hogy az IGP-ket tudják dolgoztatni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #12078 üzenetére
A GDC-n maga Johan mondta, hogy Vulkánra építenek mostantól. Ez nekik egyszerű. A kód 90%-ában rá kell keresniük a gr-re és csere vk-ra. A maradékot pedig átírják.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #12085 üzenetére
Valószínű. A DX12 támogatása a Frostbite alatt nem nagy költség.
A Vulkan base specifikációja augusztusban le lesz zárva. A kiterjesztések még nem, de azokat a DX12-ben sem zárják le nyáron. Nem véglegesített kiterjesztesek nélkül is lehet programot szállítani. Azok amúgy is nagyon extrák.
Ha nem használják a Mantle extráit, akkor azt nincs értelme szállítani Vulkan mellett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Milyen belső merevlemezt vegyek?
- Genshin Impact (PC, PS4, Android, iOS)
- CASIO órák kedvelők topicja!
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- A fociról könnyedén, egy baráti társaságban
- Dragon Age: Origins
- Battlefield 2042
- 2 nm-en készülhet az Exynos 2600
- Békésen legelészik a májusi hardvercsorda
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen