Ką tik išleistas AI saugos indeksas įvertino šešias pirmaujančias dirbtinio intelekto bendroves pagal jų rizikos vertinimo pastangas ir saugos procedūras… o klasėje aukščiausia buvo Anthropic, kurios bendras balas C. Kitos penkios įmonės – Google DeepMind, Meta, OpenAI, xAI ir Zhipu AI – gavo D+ arba žemesnius įvertinimus, o Meta visiškai nepavyko.
„To tikslas nėra niekam padaryti gėdos“, – sako Maxas Tegmarkas, MIT fizikos profesorius ir „Future of Life Institute“ prezidentas, kuris paskelbė ataskaitą. „Tai skatina įmones tobulėti. Jis tikisi, kad įmonių vadovai žiūrės į indeksą taip, kaip universitetai žiūri į US News ir World Reports reitingus: jiems gali nepatikti būti vertinamiems, bet jei pažymiai bus ten ir sulauks dėmesio, jie jausis skatinami kitais metais siekti geresnių rezultatų.
Jis taip pat tikisi padėti tų įmonių saugos komandose dirbantiems mokslininkams. Jei įmonė nejaučia išorinio spaudimo laikytis saugos standartų, Tegmark sako,„Tuomet kiti įmonės žmonės žiūrės į jus kaip į nemalonų žmogų, bandantį sulėtinti darbus ir mėtyti žvyrą į mašinas. Tačiau jei tie saugos tyrinėtojai staiga bus atsakingi už įmonės reputacijos gerinimą, jie gaus išteklių, pagarbą ir įtaką.
„The Future of Life Institute“ yra ne pelno siekianti organizacija, kurios tikslas – padėti žmonijai apsisaugoti nuo tikrai blogų galingų technologijų padarinių, o pastaraisiais metais daugiausia dėmesio skyrė dirbtiniam intelektui. 2023 m. grupė paskelbė tai, kas buvo žinoma kaip „pauzės laiškas“, kuriame AI laboratorijos buvo raginamos šešiems mėnesiams pristabdyti pažangių modelių kūrimą ir panaudoti tą laiką saugos standartams kurti. Laišką pasirašė tokios didelės pavardės kaip Elonas Muskas ir Steve’as Wozniakas (ir iki šiol iš viso pasirašė 33 707), tačiau įmonės nesustojo.
Šios naujos ataskaitos taip pat gali nepaisyti atitinkamos įmonės. IEEE Spektras susisiekė su visomis įmonėmis dėl komentarų, tačiau tik „Google DeepMind“ atsakė pateikdama tokį pareiškimą: „Nors indeksas apima kai kurias „Google DeepMind“ AI saugos pastangas ir atspindi pramonės priimtus etalonus, mūsų visapusiškas požiūris į AI saugą apima ne tik tai, kas užfiksuota. . Mes ir toliau esame įsipareigoję nuolat tobulinti savo saugos priemones kartu su technologine pažanga.
Kaip AI saugos indeksas įvertino įmones
Indeksas įvertino įmones, kaip gerai sekasi, šešiose kategorijose: rizikos įvertinimas, dabartinė žala, saugos sistemos, egzistencinė saugos strategija, valdymas ir atskaitomybė bei skaidrumas ir komunikacija. Jis rėmėsi viešai prieinama informacija, įskaitant susijusius mokslinius tyrimus, politikos dokumentus, naujienų straipsnius ir pramonės ataskaitas. Recenzentai taip pat išsiuntė klausimyną kiekvienai įmonei, tačiau tik xAI ir Kinijos bendrovė Zhipu AI (kuri šiuo metu turi pajėgiausią LLM kinų kalba) užpildė savo klausimyną, padidindama šių dviejų įmonių balus dėl skaidrumo.
Įvertinimus skyrė septyni nepriklausomi apžvalgininkai, įskaitant tokius garsius vardus kaip UC Berkeley profesorius Stuartas Russellas ir Turingo premijos laureatas Yoshua Bengio, kurie teigė, kad superinteligentiškas dirbtinis intelektas gali kelti egzistencinį pavojų žmonijai. Recenzentai taip pat apėmė dirbtinio intelekto lyderius, kurie daugiausia dėmesio skyrė trumpalaikei AI žalai, pavyzdžiui, algoritminiam šališkumui ir toksiška kalba, pvz., Carnegie Mellon universiteto Atoosa Kasirzadeh ir Sneha Revanur, „Encode Justice“ įkūrėjas.
Ir apskritai apžvalgininkai nebuvo sužavėti. „Dauginio intelekto saugos indekso projekto išvados rodo, kad nors dirbtinio intelekto įmonėse vyksta daug veiklos, susijusios su sauga, ji dar nėra labai efektyvi“, – sako Russellas.„Ypač nė viena iš dabartinių veiklos rūšių nesuteikia jokių kiekybinių saugumo garantijų; taip pat neatrodo įmanoma suteikti tokių garantijų, atsižvelgiant į dabartinį požiūrį į dirbtinį intelektą, naudojant milžiniškas juodąsias dėžes, kuriose naudojamas neįsivaizduojamas didžiulis duomenų kiekis. Ir tai bus tik dar sunkiau, nes šios AI sistemos taps didesnės. Kitaip tariant, gali būti, kad dabartinė technologijų kryptis niekada nepalaikys būtinų saugos garantijų, o tokiu atveju tai tikrai aklavietė.
„Anthropic“ gavo geriausius balus bendrai ir geriausią konkrečią balą, už darbą dėl dabartinės žalos gavo vienintelį B. Ataskaitoje pažymima, kad Anthropic modeliai gavo aukščiausius balus pagal pirmaujančius saugos etalonus. Bendrovė taip pat taiko „atsakingo mastelio keitimo politiką“, įpareigojančią, kad įmonė įvertins savo modelius, ar jie gali sukelti katastrofišką žalą, ir nenaudos modelių, kuriuos bendrovė laiko pernelyg rizikingais.
Visos šešios bendrovės ypač blogai įvertino savo egzistencinės saugos strategijas. Recenzentai pažymėjo, kad visos įmonės paskelbė apie ketinimus kurti dirbtinį bendrąjį intelektą (AGI), tačiau tik Anthropic, Google DeepMind ir OpenAI suformulavo bet kokią strategiją, užtikrinančią, kad AGI išliktų suderinta su žmogiškosiomis vertybėmis. „Tiesa ta, kad niekas nežino, kaip suvaldyti naują rūšį, kuri yra daug protingesnė už mus“, – sako Tegmarkas. „Peržiūros grupė manė, kad net tos (įmonės), kurios turėjo tam tikras ankstyvojo etapo strategijas, nebuvo tinkamos.
Nors ataskaitoje nepateikiama jokių rekomendacijų nei dirbtinio intelekto įmonėms, nei politikos formuotojams, Tegmark tvirtai mano, kad jos išvados aiškiai rodo, kad reikia reguliavimo priežiūros – vyriausybės subjektas, lygiavertis JAV maisto ir vaistų administracijai, kuris patvirtintų dirbtinio intelekto produktus prieš jiems patenkant į rinką. .
„Jaučiu, kad šių įmonių vadovai yra įstrigę lenktynėse dėl dugno, iš kurio nė vienas iš jų negali išeiti, kad ir kokie geraširdžiai jie būtų“, – sako Tegmarkas. Šiandien, anot jo, įmonės nenori sulėtinti saugos bandymų, nes nenori, kad konkurentai jas įveiktų rinkoje. „Tuo tarpu, jei yra saugos standartai, tada atsiranda komercinis spaudimas išsiaiškinti, kas pirmas gali atitikti saugos standartus, nes tada jie pirmiausia turi parduoti ir pirmiausia uždirbti pinigų.
Iš jūsų svetainės straipsnių
Susiję straipsniai visame internete