- Kiderült, hogy hol veszik a legtöbb kínai EV-t
- Ubiquiti hálózati eszközök
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Zimbabwébe ment a Starlink
- Elon Musk: az xAI szuperszámítógépet akar az AI-alapú chatbotjához
- Windows 10
- Videó stream letöltése
- Hálózati / IP kamera
- Linux kezdőknek
- Aliexpress tapasztalatok
-
IT café
Mielőtt hozzászólásban feltennéd a kérdésed olvasd el a Témaösszefoglalót, a Téma tudnivalókat vagy használd a keresőt.
Az esetek nagy többségében megtalálható a válasz!
Új hozzászólás Aktív témák
-
Impair1980
aktív tag
válasz ridiculous #47101 üzenetére
Az RX580 Biosa szintén UEFI-s! Saját gépemen kipróbáltam. Az Alaplapi VGA-val Fast Boot-al betudok menni a BIOS-ba. RX580-as kártyámmal indítva egyből a Windows jön be! Az alaplapnak van egy Restart to UEFI alkalmazása, amivel újraindítja a gépet, majd bemegy a BIOS-ba! Esetleg még nézd meg, hogy ha Windows 10-ed vagy 11-ed van, akkor kapcsold ki a Gyors rendszerindítás funkciót, ha be van kapcsolva! Esetleg más monitor , TV nincs a kártyára kötve?
-
ridiculous
aktív tag
válasz Impair1980 #47102 üzenetére
A vezérlőpulton belül az energiagazdálkodásnál kikapcsoltam a gyors rendszerindítást, úgy se volt kép.
"Az Alaplapi VGA-val Fast Boot-al betudok menni a BIOS-ba. RX580-as kártyámmal indítva egyből a Windows jön be!"
Nem a Windows jön be egyből, ugyanannyi a boot idő, csak a Windows bejelentkezési ablak előtt "No Signal".
Nincs más rákötve.. alapból DP - vel használom, próbáltam HDMI - vel is de azzal is ugyanez, mintha a Win előtt nem kapna jelet hogy fel kéne kelni. (mármint a VGA)[ [ [ Pain...Death...Nothing phases me ] ] ]
-
senior tag
válasz ridiculous #47098 üzenetére
GPU Z-ben az UEFI elött van pipa? Ha átkapcsolod a biost akkor is fenn áll a probléma?
We exploited "We spread hate. We raised hate. We thought hate to be our savior. We put all our problems we created on the "Island of Devils". As a result that devil was born, to return the hate we gave it"
-
ridiculous
aktív tag
Elvileg megoldódott!
Kivettem, beraktam újra ugyanúgy a gépbe és van kép Windows előtt is kb. nem hittem a szememnek..más:
Ki mit használ egy RX580 mellé? R5 1600X ki tudja hajtani?
Régen egy sima 1600 volt nekem mellette, most egy 3200G de ahogy láttam ez kevés mellé.[ [ [ Pain...Death...Nothing phases me ] ] ]
-
Csupingo
veterán
válasz ridiculous #47105 üzenetére
Ha fhd-n nézzük, akkor régebbről szerintem i5 4570, i7 4770 -től felfelé. Ryzen 1600, 2600-nak már elégnek kéne lennie elvileg.
Villám Shakesespeare... Főnök, ha zavarja a fogsora, vegye ki! (M-N)
-
5150
aktív tag
Nem lehet, hogy dzsuvás (oxidos) a PCIExpress érintősinje? Én mindig letisztitom a cuccokat, mielőtt gépbe teszem, hogy ne később kelljen szenvedni vele (kék suliradir/98%-os izopropil/kontakt60/megint izopropil megoldja)
Van i5 4570-em és fullHD moncsival nézegettem az rx480-am (aztán online is, hogy ugyanazokkal a paraméterekkel kinek milyen eredménye lett) Lomha a kártyához én szerintem (érezni is elég gyakran) Szóval én úgy látom, i5 4770/Xeon E3 1245 V3 a legalja amivel esetleg próbálkozni érdemes, de inkább feljebb. Sokszor rendesen érezni, hogy a kártya még menne előre (sőt meg sem izzad igazán) de a 4570 nem pumpálja neki elég tempósan a szuflát úgy egészében véve.
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Csupingo
veterán
Igen, tényleg a minimum, ami legalább kéne. Sok tulaj írja, hogy kicsit már hagy a kártyában. Bár ha csak single játékot nézünk, magas beállításon, ott már elég lehet. Addig biztos, amíg az ember nem az fps számlálót figyeli megrögzötten.
Villám Shakesespeare... Főnök, ha zavarja a fogsora, vegye ki! (M-N)
-
5150
aktív tag
válasz Csupingo #47109 üzenetére
Én azt (is) néztem, hogy mi van ha csökkentem a felbontást, a lodot, a grafikai részletességet, skálázást, meg ilyeneket (nyilván újabb játékokban) konkrétan alig és/vagy semennyit nem nőtt az FPS, de még legcikibb felbontásokon is cirka 30%-al elmaradt a (youtube-on) magasabb felbontáson high/ultrán ugyanazokat a gémeket toló többi delikvensétől. Akkor is, ha mindent minimumra vettem. De a tesztkonfigjaik kb. onnan indultak, hogy skylake és zen1. Közben sok esetben a kártya egyszerűen "pihen". Volt olyan teszt is nem egy, amelyben nem is 480/580-akat használtak hanem 470/570 ment és azokkal se' volt pariban. De minden ilyen esetben a CPU legalább 2 gen-el újabb volt (ma már mondjuk azok is elavultak sz'al..)
Na mindegy, nekem ezek a tapasztalataim. Még szerencse, hogy nem gémre kell. Az a 2 játék, amiket tolok azoknál még a venti sem pörög fel (baromi régiek)"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Csupingo
veterán
Minél lejjebb mész felbontásban, grafikai beállításokban, annál "erősebb" cpu kéne az adott vga mellé. (Cpu limit felé haladsz.) Mert akkor könnyebben szaladna a videokártya. Ha a proci csak 60 fps-hez elegendő adatot tud kiszámolni, hiába veszel mindent vissza és azon a vga már tudna pl. 90-et is, a processzor már nem tudja kiszolgálni. Valahogy így lehet szerintem.
Villám Shakesespeare... Főnök, ha zavarja a fogsora, vegye ki! (M-N)
-
5150
aktív tag
válasz Csupingo #47111 üzenetére
"Minél lejjebb mész felbontásban, grafikai beállításokban, annál "erősebb" cpu kéne az adott vga mellé. (Cpu limit felé haladsz.)"
Köszi, ezt nem tudtam.
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
5150
aktív tag
válasz Csupingo #47113 üzenetére
Este kipróbáltam egy bizonyos, legendásan optimalizálatlan játékkal (quake chimpanzeinvasions champion) és ugyanaz. "Felskálázva" 4k-ra maximum vs a még értelmezhető, de csutkára lecsupaszitott felbontás/grafika között volt cirka 30 FPS különbség. Úgy, hogy az a játék "elvileg" nagyon AMD-re "lett" (5-6 éve "készül" mint "béta" de már a céget is eladták alóla ) gyúrva és milliókkal szponzorálták is AMD-ék.
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Aprósólyom
addikt
Használj FPS limitet: in-game vagy driver szintűt.
Ha esetleg "radeon anti-lag"-t be szoktad kapcsolni, akkor pedig teszteld játékonként, mert valamelyiknél jól működik, valamelyiknél viszont nem és pillanatnyi akadásokat tud okozni.Az online multikra szerintem jellemzőbb, hogy a GPU igényt igyekeznek alacsonyan tartani, hogy minél szélesebb rétegek játszhassák, ezért viszont CPU terheltebbek.
Viszont, alapvetően jobb ha stabil a framerate/frametime, mint hogy több képet rendereljen a gép. Ezért írtam, hogy használj fps limitert.Side note: 4. gen Intel már tényleg öreg és egy ilyen VGA 470+ alá érdemes legalább 8 genben gondolkodni, még ha csak 4 magos is. Viszont szerintem, egy Zen és Zen+ nem igazán jó opció gamingre. Szimplán az arhitektúra inkább munkára jó.
Szerk.: QC alsó hangon meg tud enni 7-8 szálat, low grafikán is, ha nincs fps limit és a VGA is kellően erős hozzá. Ha mindent feltolsz, akkor pedig 10-11 szálat. Olyan szempontból viszont nem feltétlen szar video engine, hogy játszottam vele sokat 4 magos 8. genes procival. Mikor végig 100%-ra pörgettem high beállításokkal, akkor is szépen futott, nem okozott csak ezért micro lagot.
[ Szerkesztve ]
Jevons paradox
-
5150
aktív tag
válasz Aprósólyom #47115 üzenetére
""Használj FPS limitet" Próbltam a riva statistic serverét, azzal baromi smooth volt, viszont mégsem volt valamiért jó, mert a hitreg lecsúszott a béka hátának végébe.
"Ha esetleg "radeon anti-lag"-t be szoktad kapcsolni, akkor pedig teszteld játékonként, mert valamelyiknél jól működik, valamelyiknél viszont nem" Állandóan próbálgatom/tesztelgetem, de valahogy mindig gatyább a végeredmény. Olyan, mintha stutterelne tőle. Mondjuk olyan nagyon sok játékkal nem próbáltam, mert 10 percnél többre nem köt le egyik új(abb) sem.
"Side note: 4. gen Intel már tényleg öreg és egy ilyen VGA 470+ alá érdemes legalább 8 genben gondolkodni, még ha csak 4 magos is" Az a baj még ezt a konfigot sem használom ki. Még úgy sem, hogy 10 éves architektúra... Ami rám nézve lehet, hogy szégyen, de... AppleOS alatt használom melóra, annál meg inkább olyan progikkal, amelyek a GFX kártyát dolgoztatják inkább, de azok legalább mennek. Biztos mehetnének jobban is, de most ezért váltsak platrofmot kompletten egy válság közepében, a hiperinfláció és világméretű crash előestéjén? Ezzel együtt igazad van, ezt a procit (lapot miegymást) ma már megeszi egy újkeletű cerka reggelire.
"QC alsó hangon meg tud enni 7-8 szálat, low grafikán is, ha nincs fps limit és a VGA is kellően erős hozzá. Ha mindent feltolsz, akkor pedig 10-11 szálat" Ez valakiknek biztos jó, de ha egy játék grafikája cirka fele annyira sem összetett (és/vagy szép) mint egy 2004-es HL2-nek, akkor legyen már olyan kedves és fusson legalább minimum grafikán úgy, ahogy kell. Azt a hibrid engine-t pedig úgy szidják, mint a bokrot és nem véletlen. Se nem doom'16, se nem különálló új, egy rakat F05 én szerintem. De ami mégrosszabb, az a diabotical. Úgy néz ki mint egy cartoon game, simplified grafikával, ehhez képest döglöttebb az FPS, mint egy QC-nek.
Modern PC biztos eliminálná a fönt felsorolt gondok jó részét, de igy, hogy tolok jó esetben 2 gémet, nem motivál semmi egy komplett cserére (mert ugye akkor lap, ramok, miegymás, jobb a mindenúj, beleértve táp stb stb)
Egyébként érdekes. Föltettem a Sapphire Trixx-et és valamiért képtelen elfelejteni az
RX6600XT-t :
A HDMI audió azótais elérhetetlen. Kár, mert arról ment a fülesem éjjel. Ha telepiteném a drivert, (mármint "kézileg" eszközkezelő alól) közli, hogy "nem az eszközhöz való", aztán ha rákényszerintem, elszáll felkiáltójellel és azzal, hogy ő biza nem inditja el. Gébre rakva tesztből egy HD7770-nél egyből bekapcsolta, nem kérdezett semmit, csak ment. Sz'al érdekes. Ilyet eddig még sosem tapasztaltam.
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Aprósólyom
addikt
RTS az utolsó amit próbálj ki. In-game az első, aztán az AMD driver, abban is van frame rate limiter.
Sok aspektusból tényleg szar a QC engine. És csak rosszabb minden egyes updattel. De CPU fronton elég jól teljesít szerintem. Mint írtam 4magos 8350K is nagyon szépen futtatta. Ettől még igaz, az, hogy bármennyi CPU-t meg tud enni, viszont egy gyenge CPU-tól sem lesz játhatatlan.
Amiben gyenge az a GPU kihasználás/optimalizáltság. Csak 1 dolgot említek példaként, hogy low textúra is megeszik 3-4GB VRAM-t, miközben fosul néz ki.
Vagy a lightning high beállítással radikálisan megnő a GPU igény, miközben alig van 1-1 értelmezhető látványbéli előnye, 1-1 helyzetben viszont nagyon hasznos (enemy árnyéka vagy pl, Galena totem láthatósága)Jevons paradox
-
5150
aktív tag
válasz Aprósólyom #47117 üzenetére
"Vagy a lightning high beállítással radikálisan megnő a GPU igény, miközben alig van 1-1 értelmezhető látványbéli előnye" Azt én is néztem (csodálkoztam is miért lassul tőle) és bár eléggé sz'r a szemem, én mindössze pár idegesitő "szikrázást" meg ilyen egyéb baromságokat láttam vele csak. Szóval még akkor is kikapcsoltam volna, ha több vele az FPS Az engine-t a saber fabrikálta azt vágom (noname csapat; bár azóta valakik felújittatták vele a crysis-t meg még pár dolgot műveltek) de amit egyáltalán nem értek, hogy noha az egész hóbelevancot megvette a microfost (és uldate-ek is jöttek azóta rendszeresen) abból a pártizezer programozóból nem volt senki sem, hogy legalább helyrerakják kicsit az engine-t? Vagy legalább a 2018 óta igért vulkan supportot belevágják. Neadj'sten hogy esetleg VÉGRE, igy 5+ év után ne léptessen ki minduntalan a beállitás menüből, mikor már majdnem végeztem, csak közben lelőttek? Tudom hatalmas igények...
Ja közben készitettem fotókat, ezt figyeld:
"Érdekes" módon ő látja és használja is. Úgy hogy csak beraktam a gépbe és boot. Úgy hogy ez nem is egy mac. Hivatalos, legfrissebb WHQL driverrel a shitdowsnak nem jön össze, ha külön kérem se'. Valahol bámulatos a dolog.
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Aprósólyom
addikt
Online fórumbejegyzések alapján, a HDMI hang gubancért inkább az AMD driver és maga a VGA kártya gyártó kombó lehet a felelős (nálam 2 Radeon rx470+rx580 közül egyik se csinál ilyen bugot).
Emlékeim szerint megoldható úgy, hogy az AMD driver telepítése előtt leszedjük a hangkártya drivert, feltesszük az AMD drivert, majd visszatesszük a hangkártya drivert. Valami ilyesmi, ha jól emlékszem. Ezt a módszert próbáltad már?Szerk.: QC-ben milyen resolution scallel játszol? 100%? Ne játssz 100%-on, mert úgy szegény engine nehezen tartja a konstans frameratet. Defaulton nem véletlen állítja be a játék magát 66,667%-ra. A játékosok többsége max 75%-on játszik. Emlékeim szerint Rapha is, pedig neki mostanra már igencsak overkill gépe van. Talán már upgradelt a 240Hz monitorról is 360Hz-re, mert az egyik streamben ecsetelte, hogy érzi az előrelépést.
[ Szerkesztve ]
Jevons paradox
-
5150
aktív tag
válasz Aprósólyom #47119 üzenetére
"Online fórumbejegyzések alapján, a HDMI hang gubancért inkább az AMD driver és maga a VGA kártya gyártó kombó lehet a felelős" Hát egyéb szereplők hijján jah Erről az a bugyuta vicc jutott eszembe, mikor a balett oktató közli az anyukával, miszerint 2 komoly problémát lát melyek a lánya intézménybe felvételét ellehetetlenitik és mikor anyuka kérdi mik azok: egyik a jobb lába, másik a bal. A módszert még nem próbáltam egyébként.
"QC-ben milyen resolution scallel játszol?" Most növeltem 50-re. Előtte 40-45, de ma bátor napom volt, mondom vagy ő, vagy én de valakinek győzedelmeskednie kell! Azt én is láttam QC-sek videóiban, hogy 75-ig tolják föl max. Nekem az autodetect nem 66-ra tolta, hanem maxra, a többi opciót pedig ultrára és volt még 2 másik high. Na úgy olyan 90-100 volt az FPS de részemről csak próba volt, tettem is vissza (valami okos youtuber okos javaslata volt az autodetect) Rapha lassan átnegy aukatestbe kancsöcsökkel, értelmezhető ellenfele pedig újabban kb. nincsen. Az új gépét nem néztem, de valszeg akkor az új monitora miatt cserélhette le a gtx1080ti-t, mert azzal "csak" 200-220 körül fragelt Egyébként fura olyannal összefutni, aki ismeri ezt a legendás "playert" (szerintem maximum angol nyelvterületen fogadható el rá nézve ezt, hogy "player") Engem nem is annyira a max FPS zavar amúgy. A min FPS azt hittem több lesz (de ez tuti a proci) Most úgy ahogy konstans, de sok esetben beesik 110-117-re, ha sokan előttem teremnek. És ez egyelőre még csak offline bothóckodás, szóval az online még messze van az üdvösséghez...
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Kayn
csendes újonc
Sziasztok!
Egy kis segítséget szeretnék kérni a nálam okosabbaktól
Vettem használtam egy SAPPHIRE Nitro+ RX 480-at, barátnõm gépebe. A kártya az alábbi képen látható állapotban került hozzám. Bekerült a gépbe, próbáltam egy Furmark-ot, 1,5 perc után 85 fok. Szétszedtem, és ez fogadott, brutális mennyiségû paszta a GPU-n és a memóriákon is. GPU-t újrapasztáztam, mostmár csak 74 fokig megy, azzal már viszonylag elégedett vagyok, viszont thermal padom sajnos nincs a memóriákra, azt egyenlõre kénytelen voltam így hagyni.
Szerintetek hosszú távon problémás lesz ez így? Jobb ez a pasztás megoldás, mintha semmi se volna? Válaszaitokat elõre is nagyon szépen köszönöm
-
5150
aktív tag
Ugyanilyen kártyám van. Ha igy használod, nemhogy "hosszú távon", de nagyon rövid távon kinyirod a kártyát konkrétan. De legalább GARANTÁLTAN. A padokat nem véletlen találták ki. A pasztának nincs meg a megfelelő konzisztenciája/sűrűsége, hogy áthidaljon 1.5-2mm-eket (a paszta a mikro-repedéseket hivatott kitölteni, hogy egyenletes hőhidat képezzen, éppezért is kell belőle kevés; egy ponton túl inkább már szigetel) IGY semmit nem érnek. Ha tönkre akarod tenni a kártyád, én szerintem tolj rá ebben az állapotban még pár furmarkot, de talán az OCCT mégjobb választás lenne. A VRM-ekről mindenképp szedd le előtte a padot, nehogy véletlen tovább éljenek, mint a memória chipek. Ha már lúd, legyen kövér. Ha viszont nem ez a szándék: Egyáltalán egy percig SE használjátok igy padok nélkül! Be se tedd igy a gépbe.
[ Szerkesztve ]
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
Aprósólyom
addikt
Most meg fogod jegyezni, hogy a szemrevételezés az első.
Esetleg konzultálhatsz az eladóval kompenzációt kérve, mert a padok pótlása alsó hangon is ~3k-ba fog kerülni neked a bonyodalmakról nem is beszélve, hiszen gyanítom, nem tájékoztatott az eladó, hogy kókányt veszel.
Pad vásárlásnál fontos figyelembe venni, azt is hogy különböző keménységűek. Ennek kihatása van arra, hogy mennyire tudod majd összeszorítani. Ha nem tudod összeszorítani, akkor nem érintkezik majd a borda a GPU-val vagy ha össze tudod szorítani, de túl kemény a pad, akkor meg görbítheti a NYÁK-ot.
Úgyhogy a pad keménysége/puhasága legalább annyira fontos, mint a pontos vastagsági méret.Mindenképp rendeljél padokat hozzá, ha nem cseréled vissza az eladóval.
Itt ez a srác pl. hardverapróról. Lehet a pontos méretekben is tud segíteni: Thermal pad gap pad Sekisui kétoldalas hövezető ragasztó ramsünik - HardverApró (hardverapro.hu)
Ha nem vagytok biztosak a méretekben, akkor A Sapphire oldalán lehet kérni technikai támogatást. Kb. 1 napon belül szoktak válaszolni: SAPPHIRE::::Customer Service Center (sapphiretech.com)Addig szerintem használhatod, de azért biztos-ami biztos alapon csökkentett feszültséggel és csökkentett órajellel. A VRAM modulok gyárilag is csak 3-4W esznek munka közben és magasabb hőmérsékletet is bírnak mint maga a GPU. (igaz gyanítom VRAM hőmérsékleti szenzor nincs)
Itt van egy Undervolt/underclock beállítás az én 470 kártyámról. Irányadónak jó lehet:
Az igazi hatáshoz fontos, hogy a GPU maximális feszültsége se legyen nagyobb a VRAM maximális feszültségéhez képest, mert ezek a kártyák valójában csak 1 feszültséget tudnak beállítani ezért a valós feszültség mindig a kettő közül a magasabbat állítja elő.
Magyarul: ha csak a VRAM-ra teszel 844mV-t, de a GPU-t a gyári 1150mV-on hagyod, akkor sajna a VRAM os 1150mV-t fog kapni. Úgyhogy a VRAM UV-hez (undervolt) a GPU-t is ugyan úgy UV-zni kell.
800-844mV-on pedig lópikulát eszik egy ilyen kártya. Így nyugodtan használhatod míg meg nem jön a pad.Jevons paradox
-
-
Aprósólyom
addikt
válasz bobalazs #47125 üzenetére
De ott gondolom kapott a ventillátorból levegőt az a kemény 3db BGA VRAM modul. Azt úgy tervezik. Itt viszont semmi légáramot nem kap a kialakítás miatt.
De ahogy mondod, szerintem is használható csökkentett feszültséggel és csökkentett órajellel biztonsággal.
VRAM fogyasztásán is sokat lehet csökkenteni, az eleve nem túl nagy kb. 2-4W/VRAM modul értékekhez képest.Érdekességnek egy másik szitu. Az említett MSI RX 470 kártyám. Gyárilag minden memória gap pados, kivéve egyetlen egyet a GPU alatt. Viszont a bordázat és a ventik kialakítása miatt, levegőt nem kap. Egyedül legfeljebb a szabad légáramlás hűti, mégis bírja.
(Mondjuk nem elhanyagolható infó, hogy ez Samsung modul, ami egyébként a gyári specifikációkat jóval túl tudja teljesíteni. A gyári 1650MHz meg sem kottyan neki.)[ Szerkesztve ]
Jevons paradox
-
colossal89
tag
Sziasztok, segítségeteket kérem. Szeretném az IDLE fogyasztást levinni az RX580 nitro+ nál.
Jelenleg 33W fogyaszt terheletlen állapotban, tomshardware tesztben 16W.
Teljesen gyári bios-t használtak a tesztben ami nekem is van.
Egy monitor van rajta, így a multi monitor kizárva. Vásárlása óta ennyi csak a mostani áram árak miatt kurtítanám a felére ha lehet. Undervolt csak bios mod al lehetséges 300mhz-en. Ahogy fent írtam a teszben még csak undervolt sem volt teljesen gyári.
Nem találtam erre megoldást. Hogyan lehetne ezt elérni?
Köszönöm[ Szerkesztve ]
(Adatlapomon van a gépem)
-
5150
aktív tag
Nem firtattam ki volt, nem is lényeges. "Hosszú távon problémás lesz ez így?" én erre válaszoltam: Károsodhat a kártya (még hosszútáv sem kell) jelenlegi állapotában. Padok nélkül használni kb. olyan, mintha kivennéd a képletből a motorolajat egy V8 esetén. Nem problémákat okoz, megöli. Úgy használod, ahogyan neked tetszik, elvégre sajátod. Az eladó viszont közölhette volna veled azt a tényt, hogy nincsenek padok, mert ez egyrészt igy baromi inkorrekt, másrészt süt az egészből, hogy le...ar téged, te addig voltál érdekes, mig átvette a pénzed. Aztán hogy utána nálad megy önkre, az mát kit érdekel nem? Kapásból föl tudnék sorolni gondolkodás nélkül vagy 10 embert az ismeretségemen belül, akiknek egyáltalán eszük ágában se' lenne, hogy szétszedjék a kártyájukat, még ha használtan is lett véve. Mégtöbb ember jut eszembe, akiknek eleve halvány fogalmuk sincs arról, hogy ezeknek a kártyáknak egyáltalán van hűtőpasztája és padja. De még ennél is többet össze tudnék szedni azokból, akiknek lövése se' lenne, hogy szedje szét a kártyát és hogy egyáltalán lehetséges az ilyen. És szerintem nem vagyok egyedül ezzel. De érted ezeknek igy kell kiderülnie, hogy hiányzik 8db létfontosságú alkatrész, amelyek hiányában a frissen vásárolt kártya nemes egyszerűséggel egyik nap csak tönkremegy? Ezekről nem te tehetsz, a legtöbb kártyán nem is látszik a pad ottléte. Az viszont már a te felelősséged, ha ezek után beteszed barátnőd gépébe igy és hagyod padok nélkül menni, mig megfő a fenébe, majd egyik nap becrashel. Én egy percig sem használnám igy az ziher. Ha jót akarsz magadnak, szerintem szerezz padokat (csak arra vigyázz, nehogy túl vékony legyen) és addig ne használd (vagy használjátok, tökmindegy) A magam részéről az arctic padjait preferálom, ha ez számit. Magas a hőátadásuk (valami 6W/mk rémlik) jó minőségűek, elérhetőek (mármint országszerte, nem tudom te merre élsz) és nincsenek túlárazva (plusz svájci)
[ Szerkesztve ]
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
5150
aktív tag
válasz colossal89 #47127 üzenetére
Most hogy igy mutatod, emlékszem én sem értettem ezt a 33W-ot, de én betudtam annak, hogy 580 bioszt raktam a 480amra. Ezek szerint nem a biosz volt inkompatibilis, mert nálad csont ugyanannyit ir idle-ben. A 480 7W-ot eszik ugyanilyen üzemben. "Undervolt csak bios mod al lehetséges 300mhz-en" az meglehet, de sajnos nem mindig listázza a bios buhera progi (kettőt néztem) a pontos feszültségeket:
Ha véletlen sz'r értéket irsz be, a GPU elköszönhet. Az nem segit, ha negativba húzod a teljesitmény csuszkát?[ Szerkesztve ]
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
válasz colossal89 #47127 üzenetére
Másik monitorral, vagy esetleg a vblank idő módosításával amiről volt itt már szó.
-
5150
aktív tag
válasz Aprósólyom #47126 üzenetére
Majdnem egy ilyet vettem...
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
varmi2
nagyúr
válasz colossal89 #47127 üzenetére
Ha vonta 400ft a különbség a 33W és a 16W között. És ez is csak akkor ha napi 24 órát megy, a hét minden napján. Ha csak napi pár órát megy, akkor kb 100ft lesz a különbség. Annyit nem ér, hogy rugózz rajta.
Klaustrofóbia- Félelem a zárt helyektől, például, ha zárva van a KOCSMA!
-
-
-
válasz colossal89 #47135 üzenetére
Akkor ez nem megoldás. A magas vram órajelre vonatkozik a vblankos megoldás.
300 Mhz VRAM mellett hogy lehet magas a idle fogyasztás? Pláne 322 Mhz-es gpu órajel mellett. Akkor az a driver hazudik.[ Szerkesztve ]
-
5150
aktív tag
válasz colossal89 #47134 üzenetére
Szerintem ezt is érdemes lenne mérlegelni.
Nekem nincs 580-am, de ez volt az első, ami feltűnt, mikor 580-as bioszt toltam a 480-ra. Ugyanigy 33W volt az ebadta. Csak én akkor betudtam ezt annak, hogy a biosz nem a kártya biosza és az eredetit amúúgyis visszaraktam.
[ Szerkesztve ]
"Az információ korában az evolúciós szelekció azokat tizedeli, akik képtelenek a hamis információt megkülönböztetni a helyestől"
-
colossal89
tag
válasz varmi2 #47132 üzenetére
Napi 14 órát is megy ezen is dolgozom itthon. A gépre összességében gondolok, most csak VGA-t írtam le mert VGA-s topic. Szóval ha a VGA-nak is le tudnám vinni a fogyasztását akkor összesen 35W tudnék vele spórolni a teljes gépen. Kedvezményes keret felett vagyok így az emelt árat fizetem a fennmaradó részre azt akarom megszüntetni és már csak a PC fogyasztásának csökkentésévvel tudom megtenni. Ez a terv
Így 1000% 35 el az 28,57 óra alatt használ el 1kWh óra áramot így durván két nap alatt használ el 1kWh áramot feleslegesen a gépem ez havi szinten durván 15kWh emelt díjazással éves szinten 180kWh emelt áron 70,104Ft így éves szinten 12618Ft nem nagy összeg de szívesebben költeném más hasznos dologra.5150 mérlegeltem többe jön ki nekem a leírt összegnél.
[ Szerkesztve ]
(Adatlapomon van a gépem)
-
válasz colossal89 #47139 üzenetére
Erről Rendes fogy mérővel lehetne megbizonyosodni.
-
Danecay
őstag
Sziasztok!
Tulajdonképpen búcsúzni jöttem. Köszönöm az elmúlt 3 évben kapott jótanácsokat, amiket adott esetben magam is próbáltam tolmácsolni mások számára, de elérkezett az idő a váltásra. Mondhatom, hogy szerencsére, mert az 1 évvel ez előtti helyzet, ennek az esélyével sem kecsegtetett. Most ismét átalltam a másik oldalra, miközben egyiket sem preferálom, eddig is volt már mindkét jelenleg konkurens márkából videokártyám, felváltva több is, de én mindig az ár teljesítmény arányt veszem figyelembe, na és persze a pénztárcámat. Jelen állás szerint, ahol a pénztárcám a kiindulási szempont, a zöldek ajánlata volt szinaptikusabb, a videokártya Ray tracing és kép felskálázó technológiáját tekintve, DLSS vs. Super Resolution. Nálam ebben a megméretezésben a az nVidia jött ki jobban. Mivel ez az iránymutató, sajnos nehezemre esett eltekinteni attól, hogy ezektől a képességektől eltekintve, miközben lehet, hogy az AMD nyújtja a jobb ár/teljesítmény arányt.
Jelenleg így döntöttem, ami persze nem zár ja ki azt, hogy még a jövőben találkozunkSZIASZTOK!
[ Szerkesztve ]
-
-
colossal89
tag
Igaz jelen esetben 580 on lenne bios cserélve akár, nem 480ra 580-as bios ahogy a kolléga írta, ahol megnőtt a kiírt fogyasztás, de ez talán működhet fordítva is, másik bios-al, hogy jó értéket írjon ki, techpowerup on van több bios is ugyan azon verzió számmal de a paramétereik eltérnek lenyitva a leírást.
Volt már valakinek, hogy egy bios csere helyre hozta ezt a 30W+ kijelzést és jóval alacsonyabb értéket írt ki a cserét követően?
(Adatlapomon van a gépem)
-
-
Aprósólyom
addikt
válasz colossal89 #47127 üzenetére
Nézd milyen jó fej vagyok, feltöltöm neked ezt a képet, amit most csináltam. Csak most, csak neked, mert most épp egy Sapphire Nitro+ RX 580 4Gb van a gépben:
Kicsit homályos lett, mert fél kézzel a mérőt, fél kézzel a kompakt fényképezőt tartottam...Monitor fogyasztása nincs benne. Ha pontosan ki akarod számolni a fogyasztást, akkor a Proci szenzorja full idle alatt 7,5-8W körülre mutatja a HWiNFO. 4db 4GB DDR4 modul, 2 venti 600RPM-en, 1db SSD, 2db 2,5"HDD radiben.
Az egész pereputty egy 500W 80+ Gold tápon csüng, ami ilyen alacsony terhelésen kb. csak 75% hatásfokkal üzemel.
Anno számoltam, talán olyan 13W körüli lehet csak a VGA.Jevons paradox
-
colossal89
tag
válasz Aprósólyom #47148 üzenetére
Nagyon szépen köszönöm, a részletes leírást és, hogy időt szántál rá. Akkor 2W nem lehet a gép többi komponense ha a kari 36W lenne a 38W ból. Ezek szerint téves adatot ír ki a driver. Az infó tudatában, már megnyugtató, hogy nem fogyaszt ennyit a kártya idle ben.
(Adatlapomon van a gépem)
-
Gyuri27
félisten
válasz colossal89 #47149 üzenetére
Driveres mérés nem mérés. Saccolásnak se az igazi.
Amd - Radeon - Ryzen
Új hozzászólás Aktív témák
● Hozzászólás előtt olvasd el!
- Közönségkedvenc Galaxy vált One UI 6.1-re
- Call of Duty: Black Ops 6
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Az ár/érték bajnok Galaxy A52-re is kész a One UI 6.1
- exHWSW - Értünk mindenhez IS
- Fotók, videók mobillal
- Milyen billentyűzetet vegyek?
- alza vélemények - tapasztalatok
- World of Tanks - MMO
- Politika
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen