Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #4993 üzenetére

    Régóta nem olvasok techPowerUp! teszteket. Komolyabb szakmai oldalakra alapozok ... például Hexus.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #4996 üzenetére

    Ez nem jelent rosszat, mert méréssel nem lehet normálisan zajszintet értékelni. Túl nagy macera egy olyan szobát kreálni, ahol állandóan azonosak a körülmények. Mi sem véletlenül hanyagoljuk a zajszintmérést. Inkább szubjektív véleményt alkotunk, mert az emberi elme képes figyelembe venni a körülményeket, amire egy műszer nyilván képtelen. :)
    A dB is érdekes mértékegység. Valójában +3 dB már dupla olyan hangos zajszintet jelent.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Himym #4998 üzenetére

    A GTX 480-at mindenki a PC partnernél gyártatja. Ott annyira nem számít a márka. Még az alapmodellre épít az összes gyártó.

    Bizony. A cucc közelében halláskárosodásod is lehet. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Himym #5000 üzenetére

    Ahogy én elnéztem még azzal sem. Viszont a matrica biztos más. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bartucc #5006 üzenetére

    Nem dolgoznak új steppingen. A GF100 szerintem csak a Tesla és a Quadro vonalra marad meg. A maradék chipet mobil GeForce-nak adják el. Arra szinte mindegyik alkalmas, és olcsóbb előállítani, mint az asztali verziókat.
    Asztalra dual GF104-re lehet számítani. Más megoldás nincs.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Daczy #5062 üzenetére

    Semmiben, mert a processzor számolja. Itt vannak a GPU gyorsított PhysX játékok.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Himym #5079 üzenetére

    Ez lényegében azt jelent, hogy két hónapja nincs változás. :) Az, hogy a PhysX API-t használja a program nem jelenti, azt, hogy hardveresen gyorsított a megoldás. Az utolsó ilyen játék a januári Dark Void volt.

    (#5081) voodoo98: Az még nem jelent meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #5082 üzenetére

    Annak a projektnak szvsz vége. Gondolom csak benne hagyták a listába, mert ez lenne a harmadik játék, aminek a bejelentett GPU PhysX támogatása tipli lenne. Elég gáz, hogy már két játékból nem váltották be az ígéreteket. Nem kell ezt az arányt rontani ... max pár felhasználó fog rájönni a huncutságra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5087 üzenetére

    Az input lag nem a frissítési frekvenciától függ. Az az átlagos válaszidőn múlik. A 2233RZ például 120 Hz-en is működik. Persze az átlagos válaszidő sok mindentől függ. Például 3D alatt nő az input lag.

    A.tessz: A sztereó 3D különböző megoldásokat jelent. Csak a stutteres szemüveghez kell 120 Hz. A másik két alternatíva nem villog. Persze a szimpla passzív polarizációs szemüveg speciális monitort igényel, amit drágább előállítani, mintha a 120 Hz-re készítenék fel a panelt. Ezért választották ezt a megoldást a gyártók, még ha a villogás az őrületbe is kergeti a felhasználót. :( Hiába a pénz nagy úr, az igények pedig le vannak szarva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5092 üzenetére

    Mindenki tudja, hogy milyen volt anno a 60 Hz-es CRT-ket bámulni, nekem nem volt jó érzés. Mivel itt teljes lekapcsolás van, így a stutter még rosszabb. Mindenki eldöntheti, hogy belefér-e a villogás az igényeibe.

    Ez így van. Egyénfüggő, hogy kit mennyire zavar a lencsék 60 Hz-es sötétítése.

    dz1: Az frame/sec az más lapra tartozik. A frissítési frekvenciáról van szó.
    A gyártókat nem a te igényeid érdeklik. Az aktív sztereó 3D olcsóbb, mint a passzív. Az előbbinél 120 Hz-es megjelenítő kell és a szemüvegbe kell stutteres lencséket alkalmazni, az eredmény olyan mintha 60 Hz-es CRT monitort néznél. Valakinek megfelel, de sokaknak nem. Az utóbbi megoldás életképesebb szerintem. Oda elég egy passzív polarizált szemüveg. A gondok a megjelenítőnél kezdődnek. A speciális panel gyártása drága, így kevesebb a haszon ezen a megoldáson, mintha az aktív elgondolást erőltetnék. Szerencsére pár gyártó észnél van, és ilyen alapokban gondolkodik.
    A környezeti fények eleve más lapra tartoznak. Mivel a 3D gyerekcipőben jár, így a körülményektől függ a tökéletes hatás. Még kell egy-két év, mire az elgondolás kevésbé lesz érzékeny a környezeti fényekre. Vannak nagyon jó ötletek erre és a szellemképek eltüntetésére. Utóbbiban a Sharp elég jól áll az RGBY paneljével.

    Az NVIDIA számára a gyártókkal kötött megállapodás a fontos. Te nem érdekled, mert csak addig vagy jó, amíg pénzt adsz. Egyébként az NV csak a szoftverért felel, ami működik több sztereó 3D megvalósítással, de abban sem akadályoznak meg téged, hogy a DDD vagy az iZ3D megoldását használd, amik szintén működnek GeForce kártyával. Utóbbi gyártónak van tiszta polarizációs passzív megoldása, de a Zalman csomagjai szerintem még jobbak. Ezek viszik a prímet most a 3D-nél. Persze szoftveres oldalról azt használsz, amit akarsz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5096 üzenetére

    Azért nem panaszkodott rá senki, mert nem volt jobb megoldás. Amint lehetett növelni a frissítési frekvenciát mindenki növelte, mert érezhetően nyugtatta a szemet.
    A CRT működésének érdemes utánanézni. Amiről te beszélsz az a vízszintes frissítési frekvencia. Az elektronágyúk balról jobbra végigmennek a foszforpontokon majd annak fényt adnak. Ennek a mértékegysége kHz, ami egy sor kirajzolásának idejét adja meg. A függőleges frissítési frekvencia az összes sor kirajzolásának a leírása. Mivel mértékegységekről beszélünk, így a 60 Hz, az mindig 60 Hz, de nyilván a CRT monitorok mérete nőtt, így a vízszintes frekvenciának gyorsulnia kellett, hogy tartsa a 60 Hz-et. Persze ez idővel annyira gyors lett, hogy már lehetőség volt a 100+ Hz-re is, ami őrületes áttörés volt a vibrálás szempontjából, már 85 Hz-nél sokat javul a dolog, de a 100 Hz, amire én rámondtam, hogy megfelel.

    A probléma gyökere a lencse elzárásán alapszik. Hiába zár, vagy nyit gyorsan a villogás 60 Hz-es frekvencián történik, ami zavaró.

    Azt lenne érdemes meglátni, hogy nem ez az egyetlen megoldás. Van olyan alternatíva, ami nem stutteres. Bár az alacsony fényerő problémája és a látószög szűkülése ott is fennáll, de de nincs meg a lencsezárás, ami neked egy gonddal kevesebb.

    Érdemes azon elgondolkodni, hogy a 3D-s mozikban, miért nem a stutteres szemüveget alkalmazzák. ;)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5098 üzenetére

    A foszfornak ehhez csak közvetve van köze. A CRT azért villog, mert nincs állandó háttérvilágítása. A foszforpontok csak ideiglenesen örzik meg az aktuális állapotukat, így viszonylag gyorsan kialszik a fényük, ergo a teljes képernyő elsötétül még azelőtt, hogy az új képkocka információival végigpásztáznák a pontokat az elektronágyúk. A foszfor egyébként általános probléma volt, mert az anyag minőségétől függően még azelőtt kialudt az első foszforpont, mielőtt az utolsó fényessége meg lett volna határozva. Erre találták ki az interlacinget, ami minden második sorra rajzolt. Ez a monitornál azt jelentette, hogy a képkocka két menetben lett kirajzolva. Először a páratlan, míg másodjára a páros sorokkal. Persze a fejlődés hatására ez a probléma egyre kevésbé volt jelen.
    A villogást alapvetően a fekete háttér okozza, amint elvesztik a fényerejüket a foszforpontok. A stutteres szemüveg szintén feketére festi a lencsét, azzal a különbséggel, hogy ez a technológia működéséhez szükséges jelenség. A CRT esetében ez egy nem kívánatos melléktermék volt, amit a TFT az állandó háttérvilágítással ki is küszöbölt.

    Az nyilván nagyon gáz, hogy a mozik az elvezhetőség elé helyezik a technológia költségeit, ezzel az olcsóbb megoldás felé menetelnek. Persze manapság nem várhatunk mást, az üzlet a haszonról szól és nem a szórakozásról. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5100 üzenetére

    Az aktív szemüveg az olcsóbb, mert a megjelenítőn nem kell speciális panel vagy vászon. Elég ha magas a frissítési frekvencia, a többit pedig elintézi a szemüveg. A passzív polarizálás, számos extra költséggel jár a megjelenítő esetében, mert egy bizonyos szintig át kell venni a szemüveg feladatát. A panel elé polárszűrő kell, ami az áthaladó fény polaritását szabályozza. A szemüveg lencséi csak a megfelelő polaritású fényt engedik át, míg a többit visszaverik. A monitor szintjén a technológia jelentős többletköltséget eredményez, ám a szemüveg olcsóbb. Persze összességében így is ez a legdrágább megoldás.

    A szellemkép elsősorban a megjelenítő és másodsorban a nézőpont függvénye.

    Nagyon csúnya lenne, ha a shutteres szemüveg 100 dollár lenne. Akkor 1000 dollár alatt nem kapnál 3D Vision kitet. :)

    Persze a gyártóknak jó a 3D (helyből felezi a sebességet és veheted az erősebb hardvert, tiszta haszon nekik :) ), de itt nem az AMD-ről és az NV-ről van szó. Mindkét vállalat támogatja az összes sztereó 3D technológiát, hiszen ez a VGA-nak olyan mindegy, csak a szoftveren múlik, hogy melyik megoldás alkalmazható. Az aktív szemüvegek melletti marketing azért van, mert a monitorgyártóknak ezt a legolcsóbb gyártani, így a legnagyobb haszon is ezeken jön. Illetve az Anaglif még ennél is olcsóbb, csak az olyan is. :) Az AMD és az NV csak a monitorgyártókhoz alkalmazkodik. Nekik amúgy olyan mindegy, hogy otthon mit használsz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5102 üzenetére

    Egyelőre gyerekcipőben jár a 3D. Az egyik technológia sem ütőképes, sőt kimondottan gyenge mindegyik. A lehetőségek közül viszont én a circular polarizert választanám, mert az rendelkezik a legkevésbé zavaró gyermekbetegségekkel.

    Az aktív szemüvegnek is komoly kontrasztproblémái vannak, hiszen el kell feketíteni a lencsét, ami jelentősen rontja a fényhatásokat. Azért kell tök sötétben játszani, mert másképp irtózatosan gyenge a minőség.

    Amúgy valójában semmit sem vennék, mert egy év és itt lesznek a jóval jobb képminőséget nyújtó továbbfejlesztett megoldások.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #5128 üzenetére

    Az órajelekre vigyázni kell, mert nem úgy alakultak a dolgok, ahogy az NV szerette volna. Ha a magórajelnek nem a duplája a shader, akkor a rendszer instabil lesz valamiért. Hasonló gondok vannak, ha 900 MHz fölé megy a memória órajele. Az utóbbinál nyilván a memóriavezérlő a problémája, ez az AMD-nek is gond volt a HD 4000-nél. Ebben a generációban már egyiket sem lehet javítani.
    Az órajel olcsóbb, mint a setupot duplázni, triplázni és tovább. Az NV-nek fordított irányba kellene haladnia. Az a plusz egymilliárd tranzisztor egyelőre több helyet foglal, mint amennyi teljesítményt hoz. Ezt a 40 nm-es gyártósorok problémái komolyan felnagyítják. Ez persze a kisebb probléma, hiszen a GF104-nél elég visszafogni a GF100 gyártását, és a gond le is van tudva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Cyberpunk #5130 üzenetére

    Az NVIDIA és az AMD egyénileg dönt a termékskálájáról. Mindketten neveznek a csúcskategóriába, de az NV ezt egy lapkával akarja megoldani, míg az AMD szerint ez a fizika korlátjai miatt gazdaságilag nem kivitelezhető.
    Mindkét álláspontot meg lehet érteni.
    A CPU-nál sem a magok száma számít, hanem az ár és a teljesítmény. Ha az egyik gyártó +2 magot vet be, az az ő dolga. Bár a CPU-knál annyival könnyebb a dolog, hogy az lényegében egy lapka és egy tokozás. A gyártásnál ez nem nagy teher az előállítási költségben, így rengeteg hely van az árazás alakítására. A GPU-nál ez nem igaz, mert a végfelhasználó nem csak lapkát vesz tokozással, hanem NYÁK-on vásárolja a terméket, a költségek a chipek számával vagy méretével jelentősen nőnek. Esetenként annyira, hogy egyes termékek gazdaságilag negatív irányba nyomják a mérleget. Ezért szált ki a BFG. A GT200 óta az áttörésre várt, de a Fermivel csak rosszabb lett. Ilyen költségek mellett nem éri meg a piac. Nyilván minden gyártónál lesz egy határ. A BFG eszmélt, hogy haladnak a csőd felé, és ideje lekapcsolni a terheket. Egy átmeneti időszakba lépett a vállalat, ami nem lesz kellemes, de van esélye az új piacok beindítására, így idővel újra ott lehetnek az elitben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Cyberpunk #5133 üzenetére

    Ha a GPU az GPU vonalon haladunk, akkor a Cypressel is összehasonlítható a GT218, ami az NV belépőszintje. Gondolom érzed, hogy ez nem lenne sportszerű, bár a GPU az GPU. ;]
    A dual-GF104 a GF100-at fogja leváltani. Ugyanabba a kategóriába nevez. Most akkor ez miért hasonlítható össze a HD 5970-nel, amikor a GF100 nem?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #5136 üzenetére

    Mindig van hova emelni, csak nem lehet sokat. A Fermiben szétlőtték a setupot, de ennek semmi eredménye nincs a játékokban. Az világos, hogy ez a felépítés nagyon kedvez a professzionális piacnak, de a jelenleg elég lett volna először két részre bontani a setupot, és akkor a tranyók megmaradtak volna a textúrázóknak. Persze a GF100-nak inkább a mérete a probléma. Senki sem gondolt arra, hogy egy ekkora lapka már nem képes beférni a 300 wattos limitbe.
    Erről mindig az ARM-os csávó nyilatkozta jut eszembe. Ő mondta nemrég, hogy egyre több lesz a dark silicon, mert a cégek, még mindig azon vannak, hogy a legjobbat fejlesszék, amikor ma már a legjobb teljesítmény/fogyasztás szem előtt tartása a nyerő irány. Nem volt nagy jelentősége a mondandójának, de baromira igaza volt, hisz itt a GF100 bizonyítéknak, és a Larrabee-t is inkább kilőtte az Intel a leégés helyett.
    Még csak 40 nm-en tartunk és már probléma a fogyasztás, ennél csak rosszabb lesz. Éppen ezért kell egységnyi tranzisztorba passzírozni a legtöbb teljesítményt.

    (#5137) bigdigit: Vitázz inkább. ;) Itt mindenki kíváncsi a másik érvére. Fikának meg flémnek nyomát nem látom.

    (#5141) biggamer: Nem para. A fórummotor megoldja a méretes képeket. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz freelancer #5143 üzenetére

    Aki megveszi azt nyilván nem érdekli, de a gyártók a Computexen mondták, hogy rengetegen a fogyasztás miatt nem veszik meg. Sárpac is erre érzékeny, mert zavarja a fogyasztás és érdekli, hogy van-e a mérséklésére valami mód.
    Engem is zavar a fogyasztás. Nekem is van egy saját lélektani határom, ami 200 watt, ami ennél többet fogyaszt, az nem téma számomra. Gondolom Sárpac is hasonlóan gondolkodik, csak ő a visszatuningban lát fantáziát. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #5145 üzenetére

    Nm úgy értem. Az NV-nek ebben a GF100-ban semmi jó nincs. Hat hónap késés, óriási lapka, ami még gyárthatatlan is. Az architektúra az egy dolog, nyilván nem érdemes a zsákutcát keresni, de a GF100 eleve egy gazdasági zsákutca, ami semmivel sem jobb az NV-re nézve, sőt a lehető legrosszabb történt, hiszen a GF100-tól a partnerek szenvednek a legjobban. Már aki bevállalja, és nem lép az XFX és a BFG útjára. És akkor még nem beszéltünk arról, hogy a Radeonok olyan árazást alkalmaznak, amit bőven lehet kaszálni, míg a GF100-nál már most baj van.
    Az NV csinált valamit, ami architektúrálisan nem zsákutca, cserébe gazdaságilag alkalmatlan a versenyre. Ezt a lapkát olyan gyorsan EOL-ra kell küldeni, amilyen gyorsan lehet, különben a BFG csak a kezdet volt.

    Jelentéktelen azok száma, akik két csúcskártyát betesznek a gépükbe. Nem hiszem, hogy az AMD sír utánuk.

    (#5146) Sárpac: Nem fog az gyorsan leértékelődni, sőt stagnálni fog a használt piaci ára. Ha kijön a GF104, akkor a GF100 kereskedelmi szinten gyorsan megkapja az EOL-t. Viszont sokan keresnek egy GPU-s kártyát, és kis idő múlva a használt piac marad számukra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #5148 üzenetére

    Csak a rengeteg lapka fogyasztása meghaladja a 300 wattot. Ez a TSMC 40 nm-es gyártósorainak problémája. Hiába hibátlan a chipek legnagyobb része funkcionálisan, ha a termikus specifikációkat felülmúlja. Mindenki ugyanezzel a problémával küzd csak a gondok a chipméret növekedésével hatványozottan jönnek elő. Még a Cypress is benne van ebben a körben, mert a HD 5970-re elég jól sikerült darabok kellenek. A HD 5830 HD 5870-es szintű fogyasztását is ez a probléma szülte. Cseszheti az AMD, hogy működik az 1600 SP, ha többet fogyaszt, mint amennyit specifikáltak. Az NV-nél is ez van. Örülnek, hogy működik a lapka, de 300 wattos limit van, és ezt nem tudják tartani. Más esetben aligha tiltanák le a chip negyedét. Notebookba sem jönnének ki vele, és a gyártóknak sem kellene egy csúcskategóriás termékből 270 dolláros kártyát csinálni. Már aki ugye még gyártja, ketten már leléptek.
    Ezek azok az okok, amiért ezt a chipet le kell lőni. A notiban el lesznek adva a Quadro és Tesla vonalra nem jó rendszerek. Ott lehet az MXM modulokért kérni 300+ dollárt.

    (#5150) freelancer: Felhasználói szempontból ez elfogadható, de a gyártókat ez nem vigasztalja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bigdigit #5151 üzenetére

    Miért lenne hülye, aki NV-t vesz? Én ilyet nem mondtam, felőlem bárki vehet NV-t, mert a GF100 csak a gyártóknak rossz. A gyártókról is beszéltünk, akik pénzből élnek. Te nem érzed meg, hogy a kártyát drága gyártani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bigdigit #5154 üzenetére

    Inkább linkeld be a hsz-eket, mert ez így csak a saját kitalációdnak tűnik. :)

    Mellesleg az idézem:
    "jobb ár/érték arány
    melegszik mint állat
    drága
    sokat fogyaszt"
    tények, de én egyiket sem firtattam a topikon belül, csak a gyártásról, a lapka méretéről és a problémákról diskuráltam a fórumtársakkal. Nyilván mindenkinek jár a agya rajta, hogy mi lehet a megoldás az NV helyzetére.

    Miből gondolod, hogy nincs tapasztalatom róla? Már szereltem össze Fermis gépet, segítettem egy összerakott gépnél a hűtést megoldani, mert minitoronyt vásárolt hozzá a drága ügyfél. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz freelancer #5156 üzenetére

    Hát ez van. De megoldva, azóta nincsen stabilitási gondja. :) Pár maszekolt 12 cm-es venti, és 1 m kifeszített zsineg sokat tett a nemes ügy érdekében. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sárpac #5159 üzenetére

    A Ferminél nem. Az NV külön minősíti a házakat SLI Ready matricával. A Thermaltake és a Cooler Master a CeBIT-en mesélte, hogy számtalanszor visszaküldték a csúcsházukat megbukott minősítéssel. A GTX 480-nál ez kritikus lehet gyenge légáramlat esetén.

    (#5160) TTomax: Igazat mond, a BFG feladta. [link] - Az a termék csak képen készült el.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #5163 üzenetére

    Valószínű, hogy ez egy megegyezés volt az NV-vel. Csináltak két képet, hogy ne gyanakodjanak a vásárlók, amik a raktárkészlet ki nem ürül. Hiába vállal egy cég garanciát a termékre, a vásárlók kerülni fogják, ha kiderül, hogy kilép a piacról.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #5165 üzenetére

    Nem tudok mindent, csak feltételezem a megegyezést. Valami oka biztos van, hogy kikerültek a termékek közé a GTX 470-es és 480-as kártyák, de kereskedelmi forgalomban a BFG-től senki sem látott egy darabot sem. Nyilván később kiderült, hogy a cég kilép a piacról, így világossá vált, miért nem gyártották, de az volt a kérdés, hogy miért került fel a hivatalos weboldalra, ha nem került kereskedelmi forgalomba a termék.
    Erre az egyetlen logikus magyarázatot leírtam. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DigitXT #5167 üzenetére

    Minél többet feszegetitek ezt annál több válasz lesz. :)

    (#5168) bigdigit: Sajnos muszáj válaszolnom a te hsz-eidre, mert rendre megjelenek benne. Ezen csak te tudsz változtatni. :)

    (#5169) DeckardCain: Én is ezeket az adatokat hallom. Szerintem helytállóak.

    (#5171) bigdigit: Mindenkire vonatkoznak a szabályok. Még rád is. Ne feszítsd a húrt. Ezúttal elnézek a BAN-tól, de legközelebb már nem. Próbáld megemberelni magad, és a GPU-kkal kapcsolatban írjál. Ha velem van gondod, küldj privátot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #5172 üzenetére

    Pontosan. Bár azt nem kellett értelmetlenül alacsony áron árulni.

    A next gentől nem éri meg sokat várni. Itt ragadtunk a 40 nm-en egy rövid ideig, így a HD 6000 sem lesz áttörés. Az igazi next gen a 28 nm-en lesz, amire 2011 Q3-ig várni kell. Persze lesz előtte tesztchip, az AMD oldalon. Ha nem akar az NV on-the-fly váltani, akkor nekik is ajánlott egy ilyen rendszer, hogy tapasztalattal ugorjanak bele a Fermi 2-be.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sárpac #5177 üzenetére

    Ez nem ilyen egyszerű. Az AMD elsősorban a játékok alatti teljesítményt veszi figyelembe, így a tesszellációs teljesítmény nem nő majd jelentősen. Ami változás lesz, hogy a setup a blokkokba költözik, de blokkonként továbbra is egy tesszellációs egység lesz (plusz a Xenosos modul). A játékokra nem kell több, amíg alkalmazhatatlan a tesszellálás, inkább olyan területekre költik a tranzisztort, amitől a teljesítmény is nő. A lényeges módosítás a gyorsítótárakat érinti.

    (#5176) gbors: Arra még várhatunk egy évet. :)

    (#5175) DeckardCain: Igen, az elgondolás érdekes, de az érdekelne, hogy miért ugyanaz a név. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #5182 üzenetére

    Dumcsizzunk, de mennyünk ide: [link] :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz chris0000 #5187 üzenetére

    Az egyik tekercs nem kapott elég szigetelést. Az szokott ilyenkor ciripelni. Vidd vissza gariba hátha kicserélik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #5207 üzenetére

    A GTX 480-ból nem lesz Twin Frozr II. Az MSI annak a gyártását egyelőre nem viszi át saját gyárba, és így nehéz egyéni verzióval előállni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TomiLi #5213 üzenetére

    A Computexen csak GTX 470 és 465 volt kiállítva. A 480-ról csak terv létezik, de alapvetően nem éri meg átvinni a gyártását saját gyárba. El lehet adni azokat a GTX 480-akat alapmodellként is, alig egy hónap és lesz GF104, utána nem kell a GF100-at gyártani.
    Persze ha nagy készlete van az MSI-nek a GTX 480-ra, akkor megcsinálhatják, mert el kellene adni a kártyákat még a GTX 490 érkezése előtt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #5215 üzenetére

    Ha olcsóbban gyártható és gyorsabb, akkor egyértelmű a helyzet, hogy melyiknek van jövője. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HSM #5217 üzenetére

    1 GB elég GPU-nként. A fő szempont a lapkák gyárthatósága. Kicsi lapkából több fér rá a waferre és kevésbé kell attól tartani, hogy nem felelnek meg a fogyasztási specifikációknak. A GF100-nál ez nagyon kritikus, ami a GTX 465-re taszítja a legyártott termékek zömét.
    Összességében innen jön az olcsóbb gyártás. Mivel tömegtermelés van, így nem egy termék lényegi költsége a fontos, hanem a termék átlagos költsége. Ebből a szempontból bőven jobb dupla GF104-et szerelni a kártyákra.
    A gyártókat nagyon nem érdekli, hogy neked mik az igényeid. Eléggé egyértelmű, hogy a fizikai és a PCI-SIG korlátjai nem teszik lehetővé az 500+ mm^2-es chipek hatékony tömeggyártását. Nem jó az, ha a működő és kifizetett tranyók negyedét ki kell vágni, mert nincs meg a meghatározott TDP fogyasztás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz dz1 #5220 üzenetére

    Computexről: With respect to the Radeons, more than 8 months after launch, availability is still problematic. Even at entry level, some smaller partners are complaining that they still can’t supply demand. While for the Radeon HD 5700s the situation remains difficult, though there has been a good deal of improvement especially for larger partners who are given priority, all partners agree that AMD is unable to supply enough Radeon HD 5800s, which is creating a lot of difficulties.

    Egyelőre a 3D az eladásokban annyit ér, mint az Eyefinity három monitoros támogatás. Van, de komoly pénzt nem nagyon hoz.

    A legnagyobb supportja a DDD-nek és az iZ3D-nek van. Persze ezeknek könnyű, mert már évek óta elérhetőek, a fő előny, hogy az OpenGL-es programokat is támogatják.

    (#5219) HSM: A gondolatmeneteddel egyetértek, de a gyártónak bele kell kalkulálni a hasznot, különben az egész nem éri meg. Ettől válik nehézzé a piaci szereplés.

    A gigabájt kérdésre ott a HD 5970 válaszként. 1 GB van rajta GPU-nként, és a leggyorsabb VGA a világon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5223 üzenetére

    Mert miben különbözik a 3D Vision és az iZ3D vagy a DDD? Ugyanolyan szoftver mindhárom, amiknek van konkrét támogatási körük. Kevés ember vált 3D-s szolgáltatást, de aki 3D Visionről átállt annak a legfőbb oka nem a support volt, hanem az aktív szemüveg mellőzése. Mivel a 3D-s keretrendszer teljesen szabályzott a drivereken belül, így a jelenleg elérhető három keretprogram szoftveres alapokban ugyanazt nyújtja. Extra a DDD és az iZ3D-nél, hogy van OpenGL támogatás, a 3D Visionnél pedig a DX11 működik.
    Az NV-nek és az AMD-nek csak a Quad Bufferes driver biztosítása a fontos a keretprogramokhoz, ezt mindketten megteszik.

    A Bit Cauldron elsősorban technológiákat készít, és azt felhasználva gyárthatnak a cégek szemüveget. Persze itt gond lesz, hogy aktív szemüvegek lesznek, így aki villogásmentes élményt akar, az továbbra is a Zalman és az iZ3D felé fordul. Persze az iZ3D és a DDD elérhető aktív szemüveggel is, csak a két cég nem hisz ebben, hiszen az emberek nem szeretnék újra a 60 Hz-es CRT hatást, ami érthető. De nyilván akinek ez az igénye, annak lesz szemüvege hozzá, és használhatja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz dz1 #5225 üzenetére

    A 3D és az Eyefinity az két különböző dolog. A 3D az NV-nél a 3D VISION és az iZ3d/DDD megoldásokból ered. Az AMD az iZ3D és a DDD-t támogatja. Az iZ3D-nél annyi a különbség, hogy az AMD ingyenes licencet ad DLP Driverhez, ami a nem Radeon kártyák esetében 50 dollárba kerül, valamint integrált Quad Buffer driver van OpenGL-hez, így nem kell megvenni az eszközillesztőjét.
    A technológiák integrálása mindkét oldalon szoftveres és már ott van a driverben. Az NV-nél az OpenGL támogatás még hiányzik, de majd lesz valami ezzel kapcsolatban.

    Az Eyefinity a Surround ellenfele. Itt annyi a különbség, hogy az Eyefinity 3 egy kártyával elérhető, és hardveres framelock mellett működik. A Surround SLI-vel érhető el és szoftveres szinkronizálást használ 2+1 monitorhoz. Gyakorlati eltérés itt annyi lesz, hogy a Eyefinity 3 teljesítménye a többletmunkával arányosan csökken, míg a Surround esetében az egykártyás teljesítmény fele lesz elérhető a szoftvere megvalósítás következtében.

    Nyilván a 3D-t lehet vegyíteni az Eyefinity és a Surround mellett, de alapvető probléma, hogy a teljesítmény iszonyatosat esik. Például egy 3D Vision Surround mellett a GeForce GTX 480 teljesítményének a negyede érhető el a játékokban a GeForce GTX 480 SLI konfiggal.
    Az ATI-nál a 3D szintén felezi a tempót, az Eyefinity pedig levesz annyit, amennyit az arányaiben elvégzendő munka követel. Ez általában -30-40%.

    (#5227) 9950es: Bit Cauldron az NV Vision megoldását másolja, vagyis aktív szemüveget kínál a piacon bármihez. Ha ez az irány felesleges, akkor az egész 3D-s irány az.

    Az egész Eyefinity, 3D, Surround nem teszi ki a diszkrét kártyás bevételek 1%-át sem. Az AMD nem az asztali piacra fejlesztette ezt az Eyefinityt, hanem a professzionális szintre. Az asztalon csak azért jelenik meg, mert olcsó az adoptálás, és összességében abból a kevés bevételből is megtérül, de itt nem kell százmilliókra gondolni. Ez a szint továbbra is luxuskategória, már csak az extra költségek miatt. A professzionális szinten a 6 monitoros verzió, illetve a kiterjesztett 24 monitoros, hozhat rengeteg pénzt, amint felfalják a Matrox piacát.
    A Surroundot is csak azért hozza az NV, mert az egész presztízscsatává nőtte ki magát, egyébként sose próbálkoznának három monitoros vezérlést szoftverből megcsinálni, mert framelock nélkül nem lehet normális eredményt alkotni. Azért csúszik a Surround driver, mert csúszik a monitorok közötti szinkronizáció, így a három monitorok nem ugyanazt a képkockát látod, Nyilván ezt javítani kell.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 9950es #5230 üzenetére

    Ez az egész nem erről szól. Az AMD a marketingből a multi-monitorra gyúr, míg az NV a 3D-re. Persze ez nem azt jelenti, hogy az AMD nem áll a 3D mellett, és az NV is ott van a multi-monitornál, csak ezek egységesen kevesebb figyelmet kapnak.

    Az egésznek a marketing az alapja, mert anyagilag komoly pénz nem jön belőlük. Van a luxusszint, ahol ennek értelme van, és kész. A nagy pénz nem itt van. A lényeg, hogy ott legyen az AMD-nél az Eyefinity, mint exkluzívnak hirdetett technológia, és az NV-nél a 3D VISION szintén ilyen szerepkörben. Persze az világos, hogy az exkluzív, az alapvetően nem helytálló a multi-monitor és a 3D esetén, de a látszat fenntartható, mert az Eyefinity-re és a 3D Visionre írják rá az exkluzivitást.

    A Bit Claudron a saját technológiáival dolgozik, teljesen független a cég az AMD-től és az NV-től. Rajtuk kívül még több gyártó is kínál majd aktív szemüveget, akik szintén saját technológiára építenek. Valaki majd nyer. Persze a versenyhelyzetben a 3D is megfizethető szintre süllyedhet. Persze akkora nyilván jönnek az újítások, amik átveszik a csúcskategóriát és ezekért el lehet kérni újra egy kisebb vagyont. :D

    (#5231) 9950es: Külső Framelock modullal bárki megcsinálja. A Surroundban az a kihívás, hogy szoftveresen kell kivitelezni a dolgot. Egyébként ez nyilván baromi nehéz, és nem is csoda, hogy csúsznak a technológia bevezetésével.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HaZsolt #5233 üzenetére

    Ez témába vág. :)

    Először szét kell szedni a kártyád, hogy lásd, mennyi memóriachip van rajta. Ha GTX 470-ről van szó, akkor 10 lesz rajta. Ebben az esetben módosítható egy GTX 470-es BIOS-sal. Persze a gari oda lesz, és a stabilitás sem garantált. Az eredeti BIOS-t rakja el.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz losi73 #5250 üzenetére

    Vagy hardveres, vagy kompatibilitási probléma áll fenn. A fagyást az energiagazdálkodás idézi elő, ez megterhelő a kártyára és a gépre nézve is. Néhány alaplap alkalmaznak a PCI Express linkre is energiagazdálkodást. A kompatibilitási hibák zömét ez okozza. Érdemes a BIOS-ban ezt kikapcsolni. Ha ilyen beállítás nincs, vagy nem szűnik meg a probléma, akkor nagy az esélye, hogy a kártyával van a hiba. Ki kell próbálni egy másik gépben. Ha ott is gond van, akkor mehet a csere. Persze már az alapesetben is érdemes a csere felől érdeklődni, mert a kompatibilitásra nem mindig van gyógyír.
    Minden mérést bármiféle tuning nélkül csinálj, majd ha megvan a baj forrása, akkor vissza lehet emelni az órajeleket. Addig is érdemes kizárni a nyilvánvaló lehetőségeket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz SSJPeter #5255 üzenetére

    Kipróbálhatja, de másnál működik az utolsó WHQL-es driver, így nála is működnie kell. Ha nem megy, akkor az már alapból valami egyedi hibára utal. Ha konkrétan a driverrel lenne gond, akkor már sokan jelezték volna a problémát, de ez még nem történt meg.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz losi73 #5278 üzenetére

    Akkor az egyértelmű, hogy kártyahiba.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cwn #5294 üzenetére

    Akkor miért panaszkodnak, NV-sek, hogy akad a CS, amikor NV kártyájuk van? Édes álomvilágban élsz. ;)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #5296 üzenetére

    [link]
    Csupán arra akartam célozni, hogy nincs tökéletes program. Aki azt hiszi álomvilágban él. :) Értem, hogy elfogytak a GeForce mellől tényszerű érvek, de legendákat nem kell kreálni. Alapvetően jelentősége sincs, mert megbélyegeznek, hogy fan vagy.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #5298 üzenetére

    Szerinted én nem tudnék több hsz-t linkelni. :))
    A lényeget lenne érdemes látni. Álomvilág nem létezik, így nincs tökéletes szoftver. Hinni lehet benne, sőt érdemes is, mert ez a hit lényege.
    Én nem hiszek a tényekkel nem alátámasztható dolgokban, neked sem ajánlom, de nyilván nem kötelező megfogadnod a mondandóm.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz A.tessz #5300 üzenetére

    Nem is a te posztodra válaszoltam, hanem cwn-ére, aki "max látott olyat aki elment olyan mellett aki Radeon HD 5000 szériás kártyát használ!"
    "Ő papol az új Radeonokról, én meg minden nap használom!" :D
    Csupán felhívtam a figyelmet, hogy legendákat kreálunk, de a tények valahogy elmennek a fül mellett.

    (#5303) loree69: Köszi az infót. Akkor javítva lett, így kijelenthető, hogy tökéletes szoftver nem létezik. Bármennyire is szeretnénk ezt az álmot álmodni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kpal #5306 üzenetére

    Szvsz ez a hőmérséklet mizéria túl van egy kicsit misztifikálva. Kellemetlen érzés az embernek, ha a gépben van egy konkrét fűtőtest, de ez a hardver számára nem megterhelő. Ami probléma lehet az a gyors lehűlés és felmelegedés. De a notis botrány óta az NV is minőségibb kötéseket alkalmaz, ergo ennek sem lesz komoly következménye.
    Ezt egyébként sokan félreértik a kereskedelmi szinten is, és fosnak is tőle. Az NV nem azért ad 1 év garfit a GF100-ra, mert meleg és hamar elromlik, hanem azért, mert a chip piaci élettartama lesz kevés. Augusztusban már vissza is fogják a gyártást, és őszre ki is adják az EOL-t (persze a GT200-hoz hasonlóan azt kommunikálják majd, hogy gyártják). Nyilvánvaló, hogy egy alig fél évet élt chipre nem fognak két év garit adni a gyártópartnereknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Landon #5308 üzenetére

    Ez ellen semmit sem lehet tenni. Ki kell várni, míg vége lesz Az elmúlt hónapokban ez az egész azért harapózott el, mert a diszkrét kártyák piaca leszűkül, és nem lesz elég nagy, hogy két gyártót eltartson. Ezt mindenki látja, jövőre a legjövedelmezőbb 100 dollár alatti szegmensben minimum 30%-os forgalom-visszaeséssel lehet számolni. A Sapphire a Computexen beszélt erről, és ezért erősíti meg az alaplapgyártó üzletágát, mert valahonnan pótolni kell a kiesést. 2012-re a visszaesés mértéke elérheti a 60%-ot is, ami katasztrófa azokra nézva, akik csak videokártyát gyártanak. Nagyobb gond a notebookpiac, ami növekszik, és ez szintén pénzt szív el az asztali kártyák elől, hiszen kevesebb asztali gépet adnak majd el.
    Az AMD nyeregben érzi magát. Nekik van a leggyorsabb kártyájuk, a nyílt szabványok törnek előre, hamarosan kész lesz a Fusion, így nevezni tudnak a legtöbb pénzt hozó piacokra.
    Az NV problémába van, de erre egy stratégiát dolgoztak ki az elmúlt években. A hardver fejlesztéseit elviszik a HPC irányba, mert nem ezen fog múlni a PC-s nyereség. Ez az AMD sebességbeli előnyét hozta mára, amit nem lehet befogni, de nem is ez a lényeg, hanem a piaci szabványok lezárása. Elkészült a CUDA, a 3D VISION és a PhysX. Mind zárt és csak azért van, hogy te a gépedbe vegyél egy GeForce-ot is. Az NV nem tud APU-t gyártani, őket érinti a legjobban, hogy a diszkrét kártyák piaca szűkül. A mobil piacon az MXM modulok eladása drámaian visszaesik. Ez kiemelten fontos szempont, mert az CPU-ba integrált GPU fogyasztás/teljesítmény hányadosával nem lehet versenyezni, és ez az ami számít a mobil rétegnél. Az egész alapötlet a zárt szabványozás, és a programok készítése a zárt rendszerekre. Ergo, ha kellő program lesz a piacon a CUDA-ra alapozva, akkor neked nem elég olyan notebookot venni, ami egy szimpla APU, hanem az integrált GPU ellenére kell venned egy GeForce-ot is. Természetesen mindkettő technikát kifizeted. A mobil vonalon ezért kerülhet előtérbe a külső grafikus kártya, ami már régóta a levegőben lóg, de egy szabványos és gyors felület kellene rá. Nyilván a gyártók számára ez egy fontos szempont lenne, hiszen a diszkrét kártyák mintájára erre a piacra lehetne a partnereknek nevezni, így a szűkölő asztali igényeket némileg ellensúlyozni lehetne.
    Egy a lényeg. Minden átalakul. A zsíros piacokat az Intel és az AMD már támadja, de 2011-ben indul el a valós ütközet, amikor a rendszerszintű integráció első normális verziója megszületik mindkét oldalon. A GPU frontja mind az AMD-nek, és mind az NV-nek beáldozható. Anyagilag nem jelentős ez a terület, csak akkor, ha egyedül tudják uralni. Éppen ezért egy gyártó marad. Az AMD abban látja a győzelem kulcsát, hogy olcsón gyártható gyors rendszereket fejleszt, és állandóan a konkurencia alá áraz. Az NV a HPC-s irányvonal mellett kénytelen árversenybe keveredni, ami a gyártópartnereknek és az NV-nek sem jó, de a szoftver lesz a lényeg, és ha sikerül lezárni a piacot, akkor onnantól kezdve meg van mentve. Mivel a CUDA az NV kezében van, így többet senki sem fog versenyre kelni velük. Természetesen egy gyártó esetén az árak felszöknek, de ez a piac szűkülése mellett amúgy is elkerülhetetlen folyamat. Már most is látható, hogy az előző évekhez képest lényegesen több pénzért kapsz megfelelő teljesítményt ... és ez csak a kezdet, a helyzet rosszabb lesz.
    Nyilván az NV fel van arra is készülve, hogy nem sikerül lezárni a piacot, vagy valami probléma csúszik be. A mostani elég komoly, mert a gyártópartnerek isszák meg a stratégia levét. Konkrétan nincs meg a megfelelő haszon, és ott a kiszállás lehetősége. Erre a pontra fekszik most rá az AMD a Radeonokkal. Egyszerűen olyan árat szabnak meg, ami fáj az NV partnereinek és várják, hogy lépegessenek le. Az XFX-et és a BFG-t már meggyőzték a körülmények, és 2010-ből is sok idő van még hátra. Nyilván mindkét koncepció életképes, de világos, hogy ilyen körülmények között csak egy maradhat.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák