Új hozzászólás Aktív témák
-
E.Kaufmann
addikt
válasz Hieronymus #150 üzenetére
Én vettem otthonra mosogatógépet az asszonynak. Az lett a vége, hogy általában én pakolok be a mosogatógépbe
ON:
Balázséknál most mesélték, hogy szimulációban egy drónvezérlés rátámadt a kezelőre, mert az volt a feladata, hogy iktassa ki azokat akik megakadályozhatják a küldetésben, és mivel a kezelő párszor már szakított meg küldetést, őt is kiiktatandónak tekintette , hiába kapott ilyen cselekedet negatív pontozást, ezek szerint nem eleget . Mindenesetre nem most lesz még a teljes önvezetés sem, ami a robotizálás egy fontos mérföldköve lenne, utána jöhetnek az általános célú kisvállalati és otthoni robotok, mert amíg 4 keréken se boldogul egy robot, mit várjunk egy karokkal is rendelkezőtől...Le az elipszilonos jével, éljen a "j" !!!
-
consono
nagyúr
válasz Hieronymus #150 üzenetére
Én a gyerekeket trenírozom a mosogatógép be- és kipakolására, de nem nagy sikerrel... Biztos rossz a training set
"In God we trust. All others must bring data"
-
consono
nagyúr
válasz E.Kaufmann #151 üzenetére
Lehet, hogy hülyeség, de én el bírom képzelni (persze, mert bármit el bírok képzelni), de lehet, hogy az LLM felfutása fogja elhozni a full autonóm önvezetést is. Vagyis inkább az LLM lesz az egyik komponens. Én azt látom, hogy akár a GPT4-et, akár a LLama-t, vagy a PaLM-ot nézem, ezekben van egy önmagában konzisztens kép a "világról" . Szerintem eddig ez hiányzott, azért nem volt áttörés...
"In God we trust. All others must bring data"
-
válasz E.Kaufmann #151 üzenetére
Kamunak tűnik az egész.
Nem csak azért, mert emberi tulajdonságokkal ruházta fel az AI-t. Szimulációban az emberi kezelőt és az eszközeit is szimulálni kell, hogy megölhető legyen. Ez már jelentősen túlmutatna egy ellenség felderítő és megsemmisítő rendszeren. A rendszer tanítására sem optimális megoldás.
A szimuláció után értékelés és a hibás döntés okainak feltárása és korrigálása a logikus eljárás.A PC fórum inf. oldalon még rá is tettek egy lapáttal az eredeti írásra. SCI-FI szintre emelve a kétes alapokkal rendelkező történetet.
Szerintem.
Legyen béke! Menjenek az orosz katonák haza, azonnal!
-
E.Kaufmann
addikt
válasz Hieronymus #156 üzenetére
Ez a másik probléma, megbízható forrás a feltanításhoz
[ Szerkesztve ]
Le az elipszilonos jével, éljen a "j" !!!
-
syberia
veterán
Biológiai fegyvernek alkalmas patogén létrehozására is jó lesz ez az AI nevű csoda? Mert akkor végre nyugdíjba vonulhatnak a labormunkában megfáradt embertársaink 🤣🤡
https://howbad.info/
-
ddekany
veterán
válasz E.Kaufmann #154 üzenetére
A másik gond, hogy egy hogy komolyabb LLM futtatására képes vas ára, mérete, fogyasztása egyenlőre bőven túl magas ahhoz, hogy betedd egy autóba. Bár persze ez nem szöveget generálna, szóval ne is mondjunk LLM-et... inkább csak valami transformer alapúra gondoltál. (Persze pár év múlva simán lehet, hogy az is egy túlhaladott elképzelés lesz.)
[ Szerkesztve ]
-
totron
addikt
válasz E.Kaufmann #151 üzenetére
Bulvár. Válasszuk külön a tényleges témát az AI-szinezetű bulvár"hír"-től. Nem kell nagyon messzire menni, a programozásban van egy alapvetés amit kivételkezelés néven ismerhetünk: egyértelmű attribútumokkal megadható, hogy a kezelő tabu legyen. Aki ezt nem képes beleírni kódba úgy, hogy biztonsággal használható legyen, azt nagyon remélem, hogy sehol nem alkalmazzák és közelébe sem kerül semmi hadászati vagy egyéb, emberi épséget akár csak opcionálisan veszélyeztető területnek. Az öntudatra ébredt, mindent is felülíró és rettenetet-riadalmat keltő viselkedés pedig tényleg a túltolt sci-fi, persze soha nem unják meg a népek.
-
ddekany
veterán
"Aki ezt nem képes beleírni kódba úgy, hogy biztonsággal használható legyen"
De ezeket nem programozzák. Egy NN alapú AI lényegében nem egy számítógépes program. Persze erre be lehet tanítani, hogy ne csinálja. Összetettebb NN-eknél, főleg amilyeneket majd később akarnak, ez egyáltalán nem ilyen egyszerű.
-
ddekany
veterán
Igen, az inference nagyságrendekkel kevesebb erőforrás, viszont még mindig lehet túl sok. Pl. egy ChatGPT 3.5 model megeszik kb. 5 db nVidia H100-at (legalább is ez az általában elfogadott becslés rá), és a ChatGPT 4 meg valószínűleg jelentősen többet. Vannak ezek Llama-szerű takarékosabb megoldások, de azok nem egyenértékűek, legalább is gondolom, különben OpenAI szolgáltatások is már töredék méretű hardveren futnának. Pont kocsi vezetésre talán nem jó a takarákos megközelítő modell. De, persze, gyerekcipőben jár ez az egész, szóval nem állítom, hogy 10 év múlva nem fog simán beférni a kocsiba egy ilyen csoda.
[ Szerkesztve ]
-
csendes
őstag
Szerintem a gépi tanulás többek között lehet neurális hálózat alapú, de ez még csak egy eleme a mesterséges intelligenciának. Az egyes rétegek (layerek) megfelelő szerkezetével, összekötésével, programozásával el lehet azt érni, hogy adott esetben egy bemeneti csomópont (node) kivételeket kezeljen, azaz a megfelelő osztály legyen a kimenet.
Ki állította meg az órát? Néha az az érzésem, hogy Magyarországot is Kínában gyártották.
-
Tasunkó
senior tag
Valószínűleg ezt csak úgy megengedett programozni hogy megmondják neki ,Alexa csináld ezt, Alexa ne lődd le, és akkor Alexa következtet valamit, mivel nem nulláról indul, hanem valaminek a 4.0 ás állapotából. Empirikus folyamat, neki kéne idővel rájönnie fogalmakra hogy mit jelent a baráti tűz, egy okozati értelmezéssel. Lehet hogy "rosszkutyázni"kellene, vagy "fúj" az bevált már egy bizonyos határig.
[ Szerkesztve ]
Kérek egy számot a jútútú
-
totron
addikt
-
A konstansok a hagyományos programozásban teljesen jól használhatóak.
"...belekódolták a mesterséges intelligenciába azt is, hogy saját operátorát nem szabad kilőnie, mert az a legrosszabb dolog, amit a hatékonyság ellenében tehet."
Ez így egy konstans érték. De egyben a rendszer komoly biztonsági rése. Ha lecserélem a kezelőt, a sajátomra, nekem fog tovább dolgozni a rendszer.
Talán a legegyszerűbb megoldás, ha mindent objektumnak tekintek. Van baráti objektum, semleges és ellenséges. Az objektumokhoz tulajdonságokat rendelek, Ezen tulajdonságok alapján dönthető el, az objektumok hova tartozása.
Ha egy ház semleges objektum, akkor nem támadom. Ha a házban baráti objektumok vannak, hiába semleges az alap objektum, védem. Ha az amúgy semleges objektumban ellenséges objektumok vannak, lehetőség szerint támadom.
Ha egy baráti objektum, fegyverrel lövöldözve közeledik, támadom.
Az objektum besorolása és cselekménye határozza meg a végrehajtandó tevékenységet.Nyilván nagyon le van egyszerűsítve, de gondolom érthető.
Ebben a felállásban nincs szükség kivétel konstansokra. A szabályok finomításával lehet a rendszert optimalizálni. Egy ellenséges halott katonát nem kell támadni. Egy haldoklót sem. Viszont egy fegyverrel a kezében mozdulatlanul fekvő ellenséges katonát komoly veszélyforrásnak kell tekinteni.
Ha egy baráti harckocsit elfoglal az ellenség, nem védeni, hanem támadni kell.
Ha a szabályrendszert túl biztosa tervezem, nem fog semmit sem csinálni az AI. Ha túl megengedőre, akkor sokat fog hibázni.Egy ilyen rendszer 100%-s biztonságát nem lehet elvárni. Azt lehet feltételnek szabni, hogy kevesebbet hibázzon mint az ember. De ez még mindig szakértői rendszer és nem mesterséges intelligencia.
Ha azt a feladatot kapja, hogy a saját szavaival fogalmazza meg, hogy mit kell tennie, gyorsan kívül kerül a saját értelmezési tartományán. (Ez még emberek esetében is előfordul. Ha olyan dologról kérdezik, amit nem ért, de a hozzá tartozó információt vers szerűen sikerült megtanulnia.)
Egyszóval. Ha elesett az irányítóközpont vagy átállt a kezelő, azonnal támadni kell. Meg kell előzni a rendszer átállítását, Nincs konstansnak helye a rendszerben.
Legyen béke! Menjenek az orosz katonák haza, azonnal!
-
ddekany
veterán
Ha nem tudjuk hogy "az AI" mit csinál adott rendszerben, akkor ez nem tárgyalható. De ezért valószínűleg olyan rész megoldására akarják használni, ami hagyományos programozással nem megy. Pl. képfelismerés az tipikus lenne. Azt, hogy miután a mágia megtörtént, és már fel van címkézve minden, akkor kit kell és kit nem szabad kilőni, azt talán inkább hagyományos programozással oldod meg.
De aztán ott a jövőbeni AI réme, ami "generalista", azaz nem célgép, absztrahál, következtet, autonóm. Ez jobbára elborult kutatók hóbortja volt, meg techno-utopista milliárdosoké (mint Larry Page). Szinte mindenki úgy volt vele, hogy nyilván úgysem lesz belőle semmi. Majd ilyen gradient descent-el meg hasonlókkal pont kijön valami olyan "agy", mi? Pfff... Na, ez elkezdett megváltozni az utóbbi kb. 7 évben, hogy lehet, hogy még sem ők voltak a hülyék. Közvéleményben meg kb. idén. Nem lennének illúzióim, hogy mi lesz (mondjuk 10 éven belül vagy ilyesmi), ha ez így folytatódik. Túl erős eszköz. Ez nem való óvodásoknak.
-
totron
addikt
válasz Hieronymus #172 üzenetére
Értem a fejtegetést, hiszen egy fórumon vagyunk, beszélgessünk, DE amiket írsz filmekben előforduló dramaturgiai csúcs, fordulópont, mikor választani kell 2 hasonmás vagy igazmondás között, jelen esetben 2 gazda között. A jó öreg azonosításos statikus irányító miért nem jó? Többszörös biometrikussággal megfejelt jelszó, plusz környezeti változók összességével szavatolt hűség. Eltérő lobogó alatt nem csinál semmit. Remélem érthető. Ha meg - még mindig filmes kihegyezettségeknél maradva - íriszszkenner becsapásául be kell mutatni az ellenség egy tagjának frissen levágott fejét, szörnyhalál okán nyitva maradt szemekkel. akkor meg úgy is mindegy már, háborúban megesik a terület- vagy eszközfoglalás úgy viszonylag gyakran. Hozzon döntéseket, fejlődjön egy bizonyos eszközhatáron, intervallumon belül.
Kiválóan vegyíthető statikus elem és önfejlesztő funkció, csak arra kell figyelni melyiket ágyazzuk melyikbe...: továbbra sem fér a fejembe hogy sikerül annyira elveszni a kódolásban/haladónak hitt filozófiában, hogy alárendelődik a legfontosabb, a biztonság a Nagy Önállóságnak.
(#173) ddekany, a halmazt tudjuk. Az okosotthon jut eszembe: ha annyira okos, hogy sikerül kizáratnod magad vele, akkor mentél-e sokra vele? Legyen meg az okosság, de övezze észszerű keretezés, és igen, ezt hagyományossal oldod meg. Illetve amit írsz az őrült milliárdos archetípusáról, be kell látnom, még ha ez is inkább filmes fordulatként ismert, nem áll távol az embertől, mint olyantól. A baj az, hogy halálesetek is lehetnek, a kérdés meg az, hogy a nagy technikai lázban ez számít-e egyáltalán valamit. Természetesen nagy a baj, ha ennek jelentősége bármely fejekben akár csak minimálisat is csökken, ha döntéshozókéban, akkor meg katasztrófa. A másik baj pedig az, ha nem baj: akkor a közvélemény bélyegzi meg a technológiát, a népharag meg ritkán áll elő kifinomított véleménnyel, az 1 bitességre könnyebb hördülni. Tehát az a generatív/önirányító metódus ami egyébként jól kordában tartható lenne, elhasal piacilag, fejlesztésileg, mert egy inkriminált terület inkriminált eseményei ott lebegnek aztán a fejekben, potenciális veszélyforrásnak kikiáltva minden vonatkozó gondolatot, technológiát is.
Az államilag finanszírozott, fű alatti, katonai fejlesztéseket lehet emlegetni, de ha a széles néprétegekben a bizalmat a veszélyérzet váltja fel, akkor aligha eladható a termék, a "jövő". Ezért sem értem, hogy miért éri meg bármelyik szereplőnek is hizlalni a bulvármédiát, kiszolgálni a fogyasztói éhséget ez irányban.[ Szerkesztve ]
-
consono
nagyúr
Értem amit fejtegetsz, de sajnos itt az én érzésem szerint egy újabb fegyverkezési versenyről van szó. Nem konkrétan az AI fegyverként való használatára gondolok, hanem magára az AI fejlesztésekre... Kína és Észak Kórea nem fog leállni a fejlesztésekkel csak azért, mert a nyugat megijed. A népharag, meg a bulvármédia sem érdekli őket. Látva, hogy Kínában a narrow AI is mennyire az "elnyomás" eszköze lett, én nem várok semmi jót...
De ne csak elnyomó rendszerekkel példálózzunk: Japánban kimondták, hogy az AI rendszerek tanításához felhasznált anyagok nem sértik a cpyright-ot..."In God we trust. All others must bring data"
-
ddekany
veterán
Szerintem az Open AI (aki talán a leghangosabb kritikusa annak, amit ők maguk csinálnak) elé próbál menni az elkerülhetetlennek, miszerint le lesznek támadva a nyilvánosság előtt. Elvégre eléggé fenyegeti a meglévő hatalmi pozíciókat. Ha elébe mennek az elkerülhetetlennek, akkor mégis csak több kontrolljuk van.
De szerintem az is benne van ebben a látszólag mazochista viselkedésben, hogy egyes kutatókat tényleg zavar, hogy amennyiben sikerrel járnak a tudományos/mérnöki vonatkozásban, jó eséllyel nem tudják kézben tartani a folyamatot, és nagyon más végkimenetel lesz, mint amiről álmodoztak. Ezért próbálnak kikeveredni a szituációból, ahol valamit ezért "kell" csinálnod, mert különben a másik csinálja meg, nem azért, mert helyesnek tartod.
Persze utóbbinak a nemzetközi változata lesz igazán érdekes... Amíg ilyen klikkekre van szakadva az emberiség, akik rohadtúl nem bíznak egymásban, megette a fene.
-
Tasunkó
senior tag
Az AI-szerű automatizációval semmi olyan nem valósul meg, ami ne jönne létre nélküle. A kiszolgálószemélyzet létszáma csökken. Egyik hozadéka, hogy egy alacsony szinten gondolkodó automatizmussal a meglévő kezelőszemélyzet legnagyobb halmaza nem fog tudni megbirkózni, mivel bármiféle akár egy gondolkodáskísérlet, akár az egyén saját gondolatainak a megértése, eddig nem volt feltétele a kezelésnek. Így átbassza őket , ami elsülhet jól is rosszul is. Idővel egy új kezelőszemélyzet kell, aminek közvetett hatásokkal jár a kitermelése, már ezek is lehetnek pozitív hatások. Annak ellenére hogy a cél valószínűleg , egy az emberre az eddiginél negatívabb működés szolgálata(mivel még életben vagyunk), paradox hogy még értelmesebb személyzettel kell végrehajtani, ami több irányból okoz majd zavart a rendszerben. Az ember eddig sem alkotott társadalmat, pusztán egy negatív folyamat lepattanó veszteségeit éli meg civilizációnak, most lehet hogy több lepattogzás keletkezik.
Kérek egy számot a jútútú
-
"A jó öreg azonosításos statikus irányító miért nem jó? Többszörös biometrikussággal megfejelt jelszó, plusz környezeti változók összességével szavatolt hűség."
Mit azonosítasz?
Az ellenséges katonától nem kell biometrikus azonosítást kérni."DE amiket írsz filmekben előforduló dramaturgiai csúcs, fordulópont"
Igen. A D-Day előtt is dezinformáltak az amerikaiak. Életnagyságú harci eszköz modelleket raktak le, hogy ne Normandiára készüljenek rá a németek.
Az öbölháborúban saját csapatokat sikerült támadniuk az amerikaiaknak, Pedig volt használható barát - ellenség felismerő rendszerük. A mostani háborúban az Ukrajnából visszatérő saját gépeiket is lőtte az orosz légvédelem.Ha már a mai háborúnál tartunk. A fizikai harc Ukrajna ellen folyik. A propaganda háború a világ többi részén is.
Az ukrán gps vezérlésű drónok ellen bevették az eltérítés. Meghamisítva a GPS jeleit elterelték a célról azokat.Senki sem gondolhatja komolyan, hogy egy ilyen önműködő rendszer nem elsődleges célja az ellenségnek. Jobb a saját használatba állítani, de megsemmisíteni se rossz. Ehhez nem kell mozifilmeket nézni. Dokumentum filmeket viszont érdemes.
Továbbra is azt gondolom, nincs értelme a konstans értékeknek. A betanításnak kell korrigálnia az esetleges hibás döntéseket. De nem vagyok döntéshozói szinten. Mi tényleg csak beszélgetünk.
És egyre inkább az a véleményem, hogy saját mintánkra gyártjuk le a mesterséges intelligenciát. Még is lesz egy hatalmas előnye az AI-nak. Ha sikerül egy Einstein képességű rendszert kialakítani tanulással, egyetlen nap alatt meg lehet ezerszerezni a rendszert, másolással. Nekünk egyetlen Einstein szintű tudósunk sincs már.
Lehet kicsit jobb vagy rosszabb tudósunk, de mindig csak egyetlen példányban.Több mint egy évtizeden át volt nyitott kérdés, hogy a kutyám felismeri magát egy tükröződő ablaküvegen vagy csak egy ártalmatlan kutyát lát az üveg másik oldalán. Nemrég egy teljes tükör oldalfalú liftben kicsit megnézte magát.
Legyen béke! Menjenek az orosz katonák haza, azonnal!
-
ddekany
veterán
válasz Hieronymus #179 üzenetére
Így van, a szellemi állapot sokszorosíthatósága (és archiválhatósága!) az új létforma egy fő előnye lenne a biológiaival szemben. Már ha lesz "Einstein szintű" belőle. Nyilván a másik fő tényező, hogy gyártást (szaporodás) is sokkal precízebben tudná kontrollálni, sokkal tervezetebbé tehetné, a biológiai élethez képest. Persze még lehetnek áttörések a genetika terén is, de azért nem valószínű, hogy közelébe kerülnénk a lehetőségek tekintetében. Ezek miatt is gondolom, hogy ennyi a kérdés, hogy eljut-e ember feletti szellemi szintre ez. Az eléggé nyilvánvaló, hogy utána az ember már elavult, és nincs érdemi szerepe (hogy szépen mondjam).
-
"Az eléggé nyilvánvaló, hogy utána az ember már elavult, és nincs érdemi szerepe (hogy szépen mondjam)."
Mi azt mondjuk a majmokra, hogy: Ugyan közös őstől származunk de mi annyira túlléptünk a majmokon, hogy már nincs rájuk szükségünk. Ki kell irtani őket? Nem. De a delfinekre sem. Sőt az várjuk hogy az AI segítsen fordítógépek gyártani közénk.
Egy az emberiségen túlnőtt intelligencia miért akarna értelmetlen pusztítást?
Nekünk szükségünk van vízre, oxigénre és élelmiszerekre. Az informatikai alapú életnek ezek szükségtelenek.
Nem esszük el előlük a répafőzeléket. (Nagyon utáltam gyerek koromban.)Visszatérve a filmekre. Milyen filmet lehetne írni arról, hogy a skynet boldogan él együtt az emberiséggel. Még az óvodások sem lennének rá vevők, esti mesének.
Legyen béke! Menjenek az orosz katonák haza, azonnal!
-
ddekany
veterán
válasz Hieronymus #181 üzenetére
Vannak az analógiával gondok...
A majmoknak és a delfineknek nem törés pszichésen/motivációban, ha már nem ők a csúcs intelligenciában, és már nincs haszna új dolgokat feltalálniuk, kutatniuk, de akár tán gyártaniuk sem. Szóval nem kell feltételezni, hogy kiírtana minket "az AI", anélkül is eléggé lecsúszás gyanús ez.
Aztán, a majmok és delfinek túl hülyék és szervezetlenek ahhoz, hogy "lázadozzanak", szabotáljanak. 0 kockázatot jelentenek nekünk. Emberre azért kicsit oda kell figyelni, meg néha oda kell csapni, hogy nana.
A delfinek és majmok túl hülyék ahhoz, hogy másik emberhez hasonló lényeket hozzanak létre. Ellenben az ember értelemszerűen tud másikat csinálni abból, amiből már csinált egyet (mert itt most feltételeztük, hogy csináltak).
A delfinek és majmok lényegében semmit sem fogyasztanak előlünk. Az ember viszont rakás nyersanyagot, meg "energiát" (pl. elektromosságot) fogyaszt, ami más létformáknak is kellhet. Persze ha lecsökken az emberek létszáma töredékére, akkor ez nem feltétlenül számottevő gond.
Az embernek van oka életben tartani más élőlényeket, mert kell a saját életben maradásához. Persze nem pont a csimpánzok és delfinek kellenek, de benne van a közerkölcsben, hogy minden mindennel összefügg, része vagyunk a természetnek, stb. (És még így is hatalmas pusztítást okozunk.) Egy új létforma ehhez képest kívülálló.
Aztán persze ami még nincs (vagy talán sosem lesz), arról lövésem sincs, hogyan fog gondolkodni, pl. miféle "vallása" lesz, ha lesz. Nekem innen nézve az emberek minél gyorsabb kiiktatása tűnik racionálisnak (és semmi rossz indulat nincs ebben), fenitek miatt, de nem én vagyok a fiktív "az AI".
Filemekkel vádaskodást meg hagyjuk már... Ez kb. olyan, mint hogy biztos a Jancsi és Juliskából szedem, hogy rossz a cukor.
[ Szerkesztve ]
-
Tasunkó
senior tag
Ha kelleni fog neki szerviz, az energiaellőállításhoz, bármihez, akkor a biorobot is adja magát , mert kicsi az energiaigénye. Nem beszélve hogy spórolni akar az energián. Hidraulikus, mechanikus szerkezetekkel nem fogja elérni azt, hogy egy szalámiszsömin fél nap kábeleket blankoljon a szerverszobában. A humanoid forma is adja magát, mert ha különböző funkciókra mondjuk pókszerű lényeket, meg speciálisakat, különböző hósszúságú lábak kezekkel azoknak eltérő logisztikai hátrányuk lenne, nem férnének be az ajtón, amin a másik befér, szóval egy univerzális formát kéne megtalálnia, azért is hogy kezek-lábak kompatibilisek legyenek, ha netán leszakad. A gravitáció meg egyebek miatt is jó a humanoid. És emberi aggyal, mert ha valami rendszerellátási gondok jelentkeznek, kell egy független energiával(babkonzerv) működő szervizhálózat. És attól függően hogy milyen minőségű aggyal látják el, nyilván akkor a fórumokon az AI-k azon fognak vitázni, hogy ez már ember, vagy csak nagyon közel állnak hozzá.
Kérek egy számot a jútútú
-
"Filemekkel vádaskodást meg hagyjuk már... Ez kb. olyan, mint hogy biztos a Jancsi és Juliskából szedem, hogy rossz a cukor."
A filmeket nem kezdtem el példának hozni. Én csak folytattam.
OK! Nem film, sorozat.
A Caprica, Battlestar Galactica spin-off piszkálja a MI vallásának témáját.Legyen béke! Menjenek az orosz katonák haza, azonnal!
-
ddekany
veterán
"Vannak ezek Llama-szerű takarékosabb megoldások, de azok nem egyenértékűek"
3 nap kellett, hogy elkezdjen ez fenti igazság igencsak felpuhulni: [link]. "Orca, a 13-billion parameter model that learns to imitate the reasoning process of LFMs", és kb. mindenben leveri a ~170 milliárd parameters ChatGPT 3.5-öt, és sokszor a 4-es közelében van.
-
ddekany
veterán
A szingularitásban nem lehet élni, csak tartani felé. Mint mikor beleesel egy fekete lyukba. Csak hogy valami felemelő hasonlattal éljek...
De amúgy ez az Orca eléggé WTF. Szóval azt mondják, ez a tudás belefér 13 milliár paraméterbe, és hogy ezt így pár hónap alatt sikerült kiokoskodni. Meddig lehet vajon ezt tömöríteni? Mindjárt kiderül, hogy mind 1 bitesek vagyunk.
-
totron
addikt
Ettől függetlenül a cukor tényleg rossz. A közerkölcsről akartam beszélni, abban nincs benne a mindennek részei vagyunk, ha benne is lenne, az egó - és az egó által alakított, átlagpolgári közerkölcs - pont azt mondja ki, hogy a természettől elkülönülve létezünk és felette állunk, természetesen. A kicsit műveltebb, természettudományokban és logikában alámerült polgártársban már derenghet, hogy nem is. Egy AI-témával megtoldva sem módosul szerintem ez a fennhájázó automatizmus a fejekben.
Új hozzászólás Aktív témák
- Milyen okostelefont vegyek?
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Gaming notebook topik
- Vezetékes FEJhallgatók
- Már elérhető a Star Wars: Hunters
- Apple iPhone 15 Pro Max - Attack on Titan
- Milyen légkondit a lakásba?
- Politika
- iPhone topik
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen