Új hozzászólás Aktív témák

  • ddekany

    veterán

    válasz beyruth82 #49 üzenetére

    Azt hagyjuk, hogy ezt meg azt "nem lehet", mert technikailag nyilván lehet. (Pl. nem kell hozzá kémia, hiszen az is csak egy logikát valósít meg, mint az elektronika is.)

    Önmaga létezésével tisztában lenni egy intelligenciának meg triviális, ha van annyira fejlett, hogy AGI-nak nevezhessük.

    A kérdés inkább, hogy ha ezeket az intelligenciákat mi hozzuk létre, és nem evolúciósan alakulnak ki, de viszont az emberi gondolkodás elemeire építjük fel (mint most az LLM-eket), akkor milyenre fognak sikeredni. Nem tudjuk. De most is csak próbálkoznak, és csak utólag tapasztalják meg, hogyan viselkedik a végeredmény. Ezért is gáz a verseny, ahol a legfontosabb, hogy te legyél a legelső.

    Továbbá amikor valami embert szolgáló célt adsz neki, az is elsülhet balul. Szinte minden cél elérésében segít ha "életben" maradsz, és ha több erőforráshoz férsz hozzá, ha hatalmad van. Aztán még ott vannak olyanok, hogy nem mindig az a valódi célja egy rendszernek, mint amit adtál neki (lásd pl. mesa-optimiser). Alignment... sok anyag van róla.

    Aztán, az AGI létrehozásának nem feltétlenül az emberek szolgálása a célja, hanem egy embert leváltó magasabb rendű életforma létrehozása (még mielőtt kihalunk más miatt). Akkor szándékosan kap olyan célokat, amit inkább egy élőlénytől várnál. Ezt persze a rosszindulatú felhasználás esetének mondanák sokan, de ez árnyaltabb kérdés. A fanatikus AGI kutató vajon egy az ostoba tömegeket kiszolgáló gépet akar csak csinálni, vagy szeretné ha "gyereke" kibontakozhasson?

    De persze, ha sikerülne ilyen AGI irányba elmenni, valószínűleg a domináns gond az lenne, hogy egymást írtjuk ki vele... Nem való ez gyarló ember kezébe.

    [ Szerkesztve ]

Új hozzászólás Aktív témák