Új hozzászólás Aktív témák
-
arcsi84
aktív tag
Sziasztok, egy kérdésem lenne, ami nem közvetlenül egy konkrét ajánláshoz kapcsolódik, hanem közvetetten a melyik VGA lesz tartós a jövőben kérdéshez. Tudom, hogy senki nem lát a jövőbe, de kíváncsi lennék a véleményetekre.
Szóval arról lenne szó, hogy küszöbön a DX12 meg egy csomó új képjavító technológia vele együtt.
A jelenlegi játékok többsége jobban fut nvidia kártyán, mint AMD-n. Mégis Abu85 mester cikkeiben, folyamatosan azt lehet olvasni, hogy a maxwell kártyák a jövőben komoly hátrányban lesznek. Sávszélesség és egyéb okok miatt.Én elfogadom, hogy Abu mester sokkal többet tud erről, mint én, de azt marketing és logikai szempontból nehezen tudom elhinni, hogy egy játékfejlesztő, aki egy adott játékot készít, az olyan rendszerre programozzon, amiből kevesebb van a piacon.
Az Nvidia birtokolja a dgpu piac nagyjából 70%-át, ki lenne olyan hülye, hogy direkt a 30% lefedettségre fejleszt?
Tudom, hogy a konzolokban AMD APU van, de az teljesen más elven működik, mint egy PC-s processzor/Dgpu páros.Mi a véleményetek erről?
Hogy ne csak off legyek, ezt GTX 960 2GB tulajként kérdezem.
-
Abu85
HÁZIGAZDA
válasz arcsi84 #12802 üzenetére
Itt az is nagyon fontos kérdés, hogy kit tekintünk játékfejlesztőnek. Aki szarik bele és áthozza az Xbox One kódot módosítás nélkül, vagy aki tényleg portolni fog.
Egyébként a DX12-nek nem lesz köze a sávszélhiányhoz. Sokkal inkább a PBR terjedésének. PBR-es motor például az új Frostbite. [link]
A DX12 maximum olyan dolgokat hoz csak be, mint az aszinkron compute, ami egy nagyon elterjedt funkció lesz a motorokban, hiszen kvázi ingyen lehet compute-ot futtatni. Ez nem jelenti azt, hogy a Maxwellel nem törődnek, csak az ingyen effekt az ingyen effekt.
Ha a Maxwell nagyon fontos megírják CUDA-ban is a kódot HyperQ-ra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arcsi84
aktív tag
Értem, amit írsz, de vegyünk pl az én példámat.
Néha elkap a VGA fejlesztés szele. Jó mondom eladom a GTX 960-t 50k-ért (lett volna már rá vevő nem is egy). Mit vegyek helyette?GTX 970 (nem vennék, mert 3,5GB ram van rajta, mert maxwell, ami később lehet nem lesz jó, valamint azért mert 2x annyiba kerül mint a mostani és csak 1,5x-s teljesítményt ad)
r9 390 (sokat zabál, sok hűt termel, lehet nem elég neki az FSP 500 HEXA+ táp, nem is előremutató, mert régi GCN van rajta. Szóval hiába a 8GB ram)
R9 380x (alig jobb, mint az R9 380 vagy mint a GTX 960, friss hardver, csak teljesítményben nem nagy előrelépés)
R9 380 (dettó, mint a nagytesója, többet eszik, mint a gtx 960 és néhol még el is veri a 960-as)
GTX 960 4GB (+2GB ram-ért és + 0,5-1,5 év garanciáért, nem adok ki 15-20k-t)
Szóval hiába járnék később jól egy AMD-vel, ha most csak a hátrányait látom.
Azonban ezek a PBR, meg ilyen dolgok elbizonytalanítanak. -
Abu85
HÁZIGAZDA
válasz arcsi84 #12805 üzenetére
Most már semmit. Sokat buksz ha eladod.
A 970-en 4 GB van, csak fél GB-ot nem lehet elérni a teljes sávszélességgel. De ez is Maxwell v2, mint a 960.
A 390-nek tuti elég egy 500 wattos FSP. Az elég jó táp. Igen ez csak a GCN2. Ennek az a hátránya, hogy nem támogatja az FP16-ot. De ettől futni fognak a programok, csak GCN3-on bizonyos puffereket kétszer gyorsabban és feleannyi sávszéllel is ki lehet majd számolni.
A 380/380X egyértelműen jó választás a GCN3 miatt. De a legjobb a 285, mert az már olcsó a neve miatt és ugyanaz.
A 960 4 GB biztosan nem éri meg a felárért.
A PBR az egy új lehetőség a fejlesztőknek. Mennek előre. Normálisan megcsinálni nagyon nem egyszerű, így csak a top cuccok használják tényleg erőteljesen. Frostbite, CryEngine, Dawn Engine.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #12807 üzenetére
Ha nincs spanja, hogy lezsírozzon neki egy cserét, akkor el kell adnia a 960-at. Azt pedig nem tudja olyan drágán eladni, hogy megérje.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Csinálok egyébként egy DX12-es/WDDM-es/DXKG-s táblázatot a hardverekről, hogy mit támogatnak és mit nem. Ezt eredetileg angolra csináltam, de majd lemagyarítom. Addig is itt van belőle egy béta verzió:
Ez még nem végleges, le kell csekkelnem, hogy minden jó-e rajta. Karácsony előtt befejezem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
huskydog17
addikt
Röviden, hogy mit kap a játékos
- Forward+ Render (EGO Engine 3.0)
- CMAA (Conservative Morphological Anti-Aliasing)
- MSAA (Multi-Sampling-AA)
- Contact Hardening Shadows (CHS)
- HDAO+A játék az AMD Gaming Evolved partnerprogramban szerepel.
Hibák:
AMD: Nem megfelelően jelennek meg a fák abban az esetben, ha nincs bekapcsolva az MSAA -> AMD tud a hibáról és lesz egy hotfix a Crimson-hoz, ami javítja
NV: több objektum egyszerűen nem jelenik megAmúgy a Codemasters mit a túrót akart ezzel a Advanced Blending nevű förtelemmel? Az égvilágon semmi értelme, rontja a képminőséget és cserébe a játéksebesség a töredékére esik. Egy újabb értelmetlen effekt, bár a Codies mentségére legyen mondva, egyetlen grafikai profil sem kapcsolja ezt be, még az Ultra sem, vagyis a tesztekbe ez nem szólhat bele, kivéve ha a tesztelő manuálisan bekapcsolja ezt a hülyeséget.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Laja333
őstag
válasz huskydog17 #12813 üzenetére
És itt megint valami CPU limit van? A felsorakozott 390x-Nano-FuryX hármasból erre tudok következtetni.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #12813 üzenetére
A legfontosabb kimaradt: GPU Particles
Az Advanced Blending az Intel effektje. Lehetővé teszi a korrekt megjelenítést az átlátszó felületekhez.
A program sokat változott, így meg kell várni az új drivereket, mert a mostaniakkal vannak benne hibák.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz imi123 #12816 üzenetére
A felhasznált EGO verzió strukturálisan nem felel meg a low-levelhez. A motor struktúráját pedig nem volt érdemes megváltoztatni, mert eleve sok munka van benne. A következő EGO lehet low-level API-hoz szabva. Úgy tudom, hogy az új F1-gyel jön.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
válasz Laja333 #12814 üzenetére
Igen, a Crimson driver-ben elég CPU overhead van még, ezt több helyen is írta a CB.
1440p-ben azonban eltűnik a különbség és 4K alatt a FuryX átveszi a vezetést.
#12815 (Abu): Az Advanced Blending a gyakorlatban csak elmosást csinál a távoli objektumokon (mintha csa kegy DoF effekt lenne), ráadásul a sebesség a töredékére esik, ez így hasztalan és használhatatlan, valószínűleg a Codies is így látja, hiszen nem véletlen kapcsolták ki az összes profilban.
Az új EGO Engine (4.0) az F1 2015-ben debütált, ami nem igazán sikerült valami jól. Bár azt nem értem, hogy a Dirt Rally-t miért nem a 4.0-val csinálták.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz huskydog17 #12820 üzenetére
Akkor az valami bug lesz. Nem így kellene működnie.
Ja igen, akkor már megjelent. Az első EGO sem sikerült jól a DiRT első részében. Ez ilyen tanulópénz szintű dolog. A nagy változások nagy kockázattal járnak. Majd lesz fejlesztett verzió jövőre.
Az EGO 3 stabilabb volt. A DiRT Rallyhoz jobban illett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz huskydog17 #12820 üzenetére
Épp azon voltam, hogy elhőbörgöm magam, hogy ha ennyire nyilvánvalóan driver és cpu overhead limites, akkor nemigazhogynemtudjákmegcsinálni
De Ugye abu Ez azért van így, mert a gcn sok dx11 funkciót emulál és ez bármit csinálnak a driverrel megmarad. Ugye?
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #12823 üzenetére
Nem. Semmi köze az emulációhoz. Ahhoz van köze, hogy mennyi processzoridőtől érdemes megfosztani a programot. Le lehet programozni, hogy a driver elvegye az erőforrások többségét csak nem érdemes. Eleve azért nem, mert az MS arra kérte a fejlesztőket, hogy többet ne használják a deferred contextet. Azért hozták a DX12-t, hogy az elhibázott irányt kiváltsák vele.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
És az Amd inkább önként adja át a lehetőséget, hogy az nvidia driver zabálja föl a program elől a cpuidőt azáltal, hogy a vásárlók a benchmarkokat látva inkább a zöld kártyát vesznek, csak azért, hogy a microsoft megsimogassa a buksijukat?
Vagy ez azt jelenti, hogy az egyenlő mértékben rendelkezésre álló processzoridőt az nvidia driver tényleg jobban használja ki és ezen az amd az elmúlt fél-egy évben nem tudott az nvidiához képest érdemi előrelépéssel javítani?Találgatunk, aztán majd úgyis kiderül..
-
FLATRONW
őstag
Ennek akkor sincs semmi értelme DX11 alatt. Annak semmi értelme, hogy több processzoridőt kapjon a program, hogyha azokat nem használja fel semmire. Ha pedig kihasználatlan, akkor miért ne kapja meg azt a grafikus driver. Az AMD-nek ott vannak a sok "magos" CPU-i, azok a rendszerek tényleg profitálhatnának abból is, hogyha csak a rendelkezésre álló szálak felét a grafikus driver megkapná.
-
nagyúr
válasz arcsi84 #12818 üzenetére
a szokásos konzervatív amd driver. nézd meg a többi felbontást, ahol jobban dolgoztatják a gpu-t. 4k nagyon látványos.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Abu85
HÁZIGAZDA
válasz Petykemano #12825 üzenetére
Igazából a Microsoft ajánlásait csak az Intel követi. Az NV nagyon nem, míg az AMD a kettő közötti vonalat akarja megtalálni. Mivel nem a gyártóknál van a hiba, hanem az API-ban, így egyik sem jó megoldás. Az Intelé és lényegében a Microsofté azért nem, mert bár sok szabad processzor erőforrást hagy a programnak, a többi driver miatt ezekhez a fejlesztők nem nyúlnak. Az AMD megoldása azért nem jó, mert az ideálisnak vélt balanszra való törekvéssel az Intel és az NV iránya közé esik, és ez igazából a kétmagos HT-s gépeken ideális. Az NV megoldása pedig azért rossz, mert nem veszi figyelembe a kétmagos procikat és a kétmagos gépeken csökkent a minimum fps-en.
A megoldás erre az, amit az MS javasolt. Aki skálázódást akar menjen DX12-re. Ott nincs kernel driver, ami elvegye az erőforrást.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz FLATRONW #12826 üzenetére
Az egész DX11-es működési modellnek nincs semmi értelme. Ezt már a Microsoft is elmondta az idei GDC-n. Lassan egy évtizede rossz irányba fejlesztettek, mert azt hitték, hogy ezzel jót csinálnak. Nem baj egyébként, mert nyilván nem szándékosan vágták maguk alatt a fát, de ha megnézzük a mi történt a régi DX-ekben, akkor az állapotblokkok, a nagy állapotcsoportok és végül a deferred context is totális bukás. Az első kettő alig ér valamit, míg a harmadik opció implementálása olyan drága, hogy másfél évig kell kódolni a működését. Nagyon sok motor elindult a deferred context felé. Még a Frostbite is, csak fél év után ráhagyták, mert nem éri meg. Most képzeld, ha egy EA azt mondta, hogy nem finanszírozza tovább, akkor egy kisebb kiadó mit mond...
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
Akkor az fps eredmények mellé tenni kéne egy cpu util grafikont is, nem? És minden esetben odaírni, hogy hahó, van itt még tartalék! Ha ez igaz, akkor az amd értelmetlenül hagyja magát elverni. Ezzel ő lehet, hogy jófej a fejlesztők körében, egész addig, míg azok rá nem néznek a piaci részesedésre, s azt nem mondják, bocsi, de a 80% az 80%.
Ez nem saját érdekeik ellen való? Legalább lenne egy kapcsoló a driverben, maximum overdriver néven, ami engedi addig terpeszkedni a drivert, mint az nvidiáé.Találgatunk, aztán majd úgyis kiderül..
-
nem kell kimaxolni am. jellemzoen mindig van 1-2 effekt amik latvanyhoz nem raknak hozza sokat, viszont jelentosen novelik a tempot. ugy meg jol is fog kinezni, meg jol is fog futni.
ha meg ki akarod maxolni 5760/4Kn, akkor ket GPU kell. viszont nezzuk pozitivan, jelenleg mar ket gpuval elerheto 60fps ezekben a felbontasokban is ultran, olyan harom eve a csucs 4way setupok se voltak elegek a celra. Crysis 3 40 fpst tudott a 4way Titan SLIn amikor nezte nordicHW, ami setup akkoriban kb egy uj Yaris araban ment.
de egyebkent semmi ujdonsag nincs, 1440pben a 6950 2GB befogta a GTX570et, a 290X CF is kb a 980SLIvel volt egy szinten 4Kban. szep meg jo egyebkent az 1080p, csak mondjuk a telefonom kijelzojenek nagyobb a pixelsurusege. 4K kijelzok ara meg szepen nekiallt esni.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
nagyúr
-
nagyúr
-
he7edik.
addikt
-
imi123
őstag
-
#45185024
törölt tag
DirectX 12 Benchmark ról beszélgettetek itt már?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs