- Nem szavazza meg Musk 56 milliárd dolláros csomagját a norvég állami vagyonalap
- DIGI kábel TV
- Otthoni hálózat és internet megosztás
- Mindennél kisebb és gyorsabb chipeket hoznak az ASML új gépei
- A call centerekbe viszi az AI-t a Microsoft
- Milyen routert?
- Windows 11
- ASUS routerek
- Aliexpress tapasztalatok
- Donald Trump lehet a kriptobajnok elnök az USA-ban
Új hozzászólás Aktív témák
-
Firestormhun
senior tag
válasz
korcsi #20750 üzenetére
Amikor kitolod TDP és hőmérséklet limitet, akkor is a gyártásnál a chip minőségének megfelelően előre definiált skálán mozog tovább a kártya, csak nagyobb tartományon, amíg el nem éri gyári feszültség limitet. Ez már tuningnak számít, szóval a stabil működés nem garantált.
...
-
korcsi
veterán
válasz
Firestormhun #20751 üzenetére
Ha jól értem, a megfelelő körülmények (hőmérséklet) és terhelés mellett a kártya a gyártó által megadott névleges órajelek fölé tudja emelni az órajelét.
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
Puma K
veterán
Gondoltam jól bemásolom az PH!-n lévő 1060/1070/1080 tesztjéből a Nvidia GPU Boost 3.0 részletes működését, hogy miben fejlődőtt az előzőhöz képest és mi a működésének az elve, ami az órajel emelésért felelős, de egyik itteni tesztben sincs megemlítve semmilyen szinten...
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
Habugi
addikt
válasz
Puma K #20755 üzenetére
Keress olyat ahol a különböző, GCN1-GCN4 architektúrákhoz tartozó Powertune profil részletes működése illetve annak gen-enként történő apró változásai részletesen le vannak vezetve.
Még mielőtt a szokásos agyament, "elfogultságos", bájosan együgyü történettel előállna valaki..
Boost 3 TPU..: [link]
Gúgli első oldal a barátom, nekem jó.
[ Szerkesztve ]
..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
-
Puma K
veterán
válasz
Habugi #20756 üzenetére
Nagyon ügyes vagy!
Magyar leírást linkeltem volna.
Korábban pl Titan tesztnél le volt írva a 2.0-ás GPU boost:
NVIDIA GeForce GTX TITAN: egy GPU-s góliát
És hírnél is szerepelt korábban:
Az NVIDIA bemutatta a GP104-es GPU-ra épülő GeForce-okat
Csendben megjelent a GeForce GTX Titan Z
De tesztnél ahol lehetett látni a működését és le is lehetett volna írni a "mit-miért-hogyan" működését nem történt meg. De még egy huncutt szót sem ejtettek róla, hogy amúgy tovább fejlesztették és ezek az újdonságok.
[ Szerkesztve ]
"Cuccok: csattogós lepke és tiki-taki" └[ʘヘʘ]┘
-
mlinus
őstag
válasz
Venyera7 #20767 üzenetére
az alap boost mennyi is? 1733 mhz? ehhez képest neked alapból 2000 környékére boostol. Ez szerintem minden, csak nem gyenge. Nem maxwell szintű, de teljesen rendben van.
fury x elég nagy bukta volt, szerintem ezt már nyugodtan leírhatjuk, a minimális tuningpotenciál az egyik legkissebb baja.
-
-
-
-
keIdor
titán
válasz
#45185024 #20771 üzenetére
Nem kihalást írtam, az már megtörtént mivel EOL-t kapott. Nézd meg mennyi GCN2 és mennyi GCN3 fogyott. Azt is nézd meg utána mennyire hanyag portok jöttek az évek alatt. Ezek a fejlesztők majd most még több munkát kapnak majd, nem kell hozzá kvantumfizikus diploma, hogy leessen mi várható ebből. A GCN2 biztosan több figyelmet fog kapni. De inkább a 4-5 majd ha kijött a "zöldségevő".
cain69: Az többnyire nem Apple gépekben van? De igazad van.
[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
Abu85
HÁZIGAZDA
válasz
keIdor #20770 üzenetére
Volt még a Tonga is, illetve a Carrizo variánsok, valamint az Iceland.
A támogatás és ptimalizálás az explicit API-kban nem olyan, amilyenre gondoltok. Annak ellenére, hogy a hozzáférés a hardverhez sokkal közvetlenebb, még mindig nem annyira alacsony szintű, hogy számításba kelljen venni a GPU-kat. A Mantle részben ilyen volt, de annál egy picit magasabb szintre helyezték a működést a DX12 és a Vulkan API-ban. Tehát effektíve nem annyira lényeges, hogy van GCN1/2/3/4 is, mert azokat DX12/Vulkan alatt el lehet fedni. Az egyetlen kivétel a multi-engine kezelése, amely bizonyos körülmények között finom paraméterezést igényel, de ott sem a GCN1/2/3/4 számít hanem az, hogy mire képesek az ACE-ek, HWS-ek, a GMU-k, vagyis a független parancsmotorok. Nyilván számít, hogy a hardver mennyi független parancslistát kezel, mivel a compute motorokat a driverből kell etetni, míg a grafikai parancslistáról az OS gondoskodik. A driver előtt persze még viszonylag sok lehetőség van arra, hogy egy compute parancsot hova pakol be, de a meghajtók ha tehetik új parancslistába töltik be, és ott már elég nagy különbségek lehetnek. De ugyanakkor az AMD ezért ragaszkodik a GCN2 óta a 64 parancslistához és a 8 különálló parancsmotorhoz, hogy a fejlesztők ezt célozva igen nagy hardverbázist képesek lefedni. A GCN1 ebből persze kevésbé jól profitál a 2 parancslistájával, de működni működik. Rosszabb esetben a driver dönthet úgy, hogy a compute parancsot beküldi az OS grafikai parancslistájába. A GeForce-ok például így csinálják szinte minden DX12-es játékban (kivéve a Pascalt az új Tomb Raiderben).
Aztán ezt a történetet még bonyolítják azok a lehetőségek, mint a priority flag, ami definiálva van a DX12-n belül. Egy fejlesztő egy compute parancsot jelölhet magas prioritásúnak, és akkor azt a drivernek úgy kell beraknia a független parancslistákba, hogy azonnali végrehajtás történjen. Ugyanakkor itt vannak specifikációs lékek, ugyanis a priority flag mehet közvetlenül az OS grafikai parancslistájába is, vagyis nem kötelező a driverben implementálni ezt a képességet. Az AMD-n kívül nem is implementálta más. Bizonyos programokban ezért van letiltva minden más hardverre az aszinkron compute. Nem állítja be a driver a magas prioritást, ezért berakja az azonnali eredményre kijelölt munkát a sorba, a munka eredményét igénylő számítás pedig csak áll, amíg a parancs lefuttatásra nem kerül. Valószínűleg ezt a kerülőutat a Microsoft szándékosan hagyta benne a specifikációban, hogy kifejezetten rossz "egyszálú" teljesítménnyel rendelkező hardvereknél a gyártóknak ne kelljen erre a gyengeségre kötelezően implementációt készíteni. Szóval a drivernek van jelentősége csak nem annyi, mint régen.Aminek sok jelentősége van az a memória vezérlése és a bekötés kialakítása. Na ez már nagyon trükkös. Főleg úgy, hogy a Microsoftnak és a Khronos Groupnak létezik egy ajánlott konstrukciója rá, de a gyártók nem mindenhol értenek azzal egyet. Egyedül az AMD ajánlja pontról-pontra ugyanazt, amit a Microsoft és a Khronos Group. Az Intel a bekötés és erőforrások menedzselésénél egyetért az API-kat szállító konzorciumokkal, de a memória vezérlésénél már nem. Az allokáció tekintetében a VRAM felbontását az MS és a Khronos Group is kicsi szeletekre javasolja, lehetőség szerint a legkisebbekre, ami még hatékony az adott motorral. Ugyanezt írja elő az AMD is. Az Intel pont a nagyobb szeleteket kedveli, ahogy az NVIDIA is. Az NV-nek ez a terület a Vulkan API-val olyannyira problémás, hogy külön hoztak rá egy kiterjesztést, amivel dedikált allokációk alakíthatók ki. Ráadásul a bekötés és erőforrások menedzselésénél sem azt javasolja az NV, amit a Microsoftnak és a Khronos Group, hanem a gyökeres ellentétét. A GeForce-okkal ez működik hatékonyan. Egyébként az NV ajánlott modelljeinek is megvannak a maga hátrányai, lásd az új Tomb Raider DX12-es módját. Nem véletlen, hogy a Microsoftnak és a Khronos Group nem ezeket ajánlja a fejlesztőknek, mert általánosan nem hatékonyak. Máshogy kell kezelni az eltéréseket, és ezek a gyártók közötti ajánlásbeli eltérések sokkal nagyobb problémát fognak okozni, mint a gyártón belüli apróbb különbségek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
válasz
keIdor #20775 üzenetére
készült belőle nekik is, de a consumer piacra is jutott. 285/380 és 380x típusjelzéssel lakik az árlistákon.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
FLATRONW
őstag
válasz
korcsi #20783 üzenetére
Szerintem ezt a túlhajtás dolgot nagyon megkeveri a Boost.
Gyengébb hűtéssel is eléri a magas órajelet, de hamar vissza is áll egy alacsonyabb értékre.
Talán a garantált boost értéket kellene alapnak venni, ami 1705 MHz az FE kiadásnál.
Ezért érdemes az alap FE kiadás teljesítményéhez mérni, mert az határozza meg az 1080-ak elvárható teljesítményét.Ez kb. 17 százalékos teljesítmény többlet.
-
daveoff
veterán
válasz
Venyera7 #20787 üzenetére
Annyi a difi, amennyi várható is, nincs ebben semmi meglepő. Fury X 4K-ban ott van ahol a 980Ti, 1080 ettől erősebb ~25%-al, és ott is vagyunk, amit Te mértél. Azért az 1155MHz a Fury-n elég masszív, ki van centizve, az 1080-adban még legalább van 100MHz, ha nem több...
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Ren Hoek
veterán
válasz
Venyera7 #20792 üzenetére
Nem az a baj vele, hogy a 4 GB-ot úgy használja, hogy pörgeti benne a content-et? Emiatt microlaggok lehetnek. Lehet csak urban legend.... de a logika amúgy azt diktálná, hogy a HBM lószart sem ér, hogyha túllépnéd a 4 GB-ot, mert ott már a lassú DDR3 lesz a szűk keresztmetszet, ha cserélgetni kell az adatokat gyorsan. Egy konzolnál ez biztos sokkal jobban felépített dolog, ha közös a RAM.
... bezzeg milyen mantra volt, hogy elég a 4GB, mert konzolon is töredékét használja, meg bitang gyors és majd cserélgetheti. Csak azt felejtettük el, hogy ez PC (A sz.ros alsógatyát hiába cserélgeted bármilyen interposeren, hogyha anyu lassan mos
)
[ Szerkesztve ]
-
HSM
félisten
válasz
Ren Hoek #20797 üzenetére
"Nem az a baj vele, hogy a 4 GB-ot úgy használja, hogy pörgeti benne a content-et?"
Ez azért erősen programfüggő.
Ha rendesen van menedzselve (DX11 sanszosan itt ki is esett) akkor sokmindenre elég kell legyen 4GB. Ha nincs, hát abból viszont bőséggel lehetnek mikrolaggok, ha megtelik.
Persze, DX11 is jó, míg befér a ramba, és nem merül fel a cserélgetés szükségessége.[ Szerkesztve ]
-
Venyera7
senior tag
válasz
->Raizen<- #20796 üzenetére
Ez átméretezett kép, azért ilyen ronda. Egyébként fury-n élesebb a kép.
Más: most a Doomot pörgetem, és teljesítményben Vulkan alatt nagy eltérést (Max 5-10%), nem tapasztalok a 2 kártya közt.
(#20797) Ren Hoek:
Ettől nem kell félni, nem lesz elérhető olyan beállítás ami 4gb vram-nál többet kér. Így nem léped túl sosem.[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen