Új hozzászólás Aktív témák

  • ddekany

    veterán

    A CUDA hivatalosan csak nVidia hardveren használható, és nyilván minden "nagy" kell rendelkezzen alternatívával hardver téren, hogy az nVidia ne legyen túl erős zsaroló pozícióban. Tehát a "nagyok" terméke (mint valami AI megoldás) szükséges, hogy működjön nem-nVidia, és így nem-CUDA alapon is. De ez egy komplikált, sok komponenses játék, hogy akkor ezt a szoftver stack-et hogyan lehetne ezt gyártó semlegesre csinálni. Amennyire látom, az a módi, hogy AI framework szintjén definiálod a modellt, valószínűleg Python segítségével, és aztán azt le lehet "fordítani" nVidia, AMD, Cerebrass, Tenstorrent, Groq, stb. hardverre is. Főleg az utolsó 3 erősen különbözik az nVidia hardvertől, úgyhogy tán nem is feküdne nekik a CUDA amúgy sem. És ekkor nVidia esetén sem használnak már talán CUDA-t, hanem kapásból egyel alacsonyabb szintre, PTX-re fordítanak.

    [ Szerkesztve ]

Új hozzászólás Aktív témák