A Google szerint rossz ötlet érzékeny adattal etetni az AI-t

A Google az AI-fejlesztések egyik legnagyobb úttörője és támogatója, de a saját dolgozóit a chatbotok nagy veszélyeire figyelmezteti.

Négy jól értesült forrás szerint az Alphabet és a Google arra figyelmezteti a dolgozóit, hogy nem használhatják akárhogyan az AI-alapú chatbotokat, még a cég saját Bard megoldását sem.

Miközben a vállalat az AI-fejlesztések egyik úttörője és támogatója, és jelenleg is a Bard népszerűsítésén dolgozik (több mint 180 országban és 40 nyelven indul el), a dolgozóknak azt javasolják, ne adjanak meg bizalmas és érzékeny adatokat az AI-nak információbiztonsági okokból.

A jelentések szerint emberek ellenőrizhetik, olvashatják a chatbotos beszélgetéseket, kutatók szerint pedig a tanulási folyamatból összeszedett adatokat felhasználja az AI, így bármi kiszivároghat, és jogvédett tartalmak kapcsán is gyakoriak a problémák. Az Alphabet szerint a mérnökök számára sem jó ötlet a chatbotok által generált kód közvetlen felhasználása. Ennek ellenére segíthet a programozóknak, a Google pedig igyekszik átlátható lenni a technológiai korlátok kapcsán.

A szakértők szerint a Google szeretné elkerülni az esetleges üzleti károkat (lásd a Samsung példáját), miközben a ChatGPT-vel és a Microsofttal versenyezve a reklámpiac új területeit hódítaná meg, nagy bevételeket generálva az AI-ból, kapcsolódó felhős és keresős megoldásokból.

Mostanra úgy tűnik, a cégek mind figyelmeztetik a chatbotok használatával kapcsolatban a dolgozókat. Így tett például a Samsung, az Amazon, az Apple és a Deutsche Bank is. A Microsoft egyes vezetői is jelezték, ők is tiltják az ilyesmit. Erre szükség is lehet: amerikai felmérések szerint a szakemberek 43 százaléka már januárban AI-eszközöket használt, úgy, hogy a főnökét általában nem értesítette erről (megoldható e-mailek, dokumentumok, szoftverkódok készítése is például). Egyes cégek az érzékeny adatok áramlását blokkolnák belső hálózaton, a Cloudflare is próbálkozik. A Google és a Microsoft pedig felárért ad a cégeknek olyan eszközöket, amelyek meggátolják az adatok nyilvános AI-modellekbe kerülését. Vagyis a szigorúbb irányelveket csak a fizetős/drágább, üzleti vonalon alkalmazzák.

A Google folyamatosan egyeztet az írországi DPC adatvédelmi hatósággal, hogy megoldják a felmerülő kérdéseket.

Azóta történt

Előzmények