Žmonės nuolat daro klaidų. Visi mes kasdien atliekame naujas ir įprastas užduotis. Kai kurios mūsų klaidos yra nedidelės, o kai kurios – katastrofiškos. Klaidos gali sugriauti pasitikėjimą mūsų draugais, prarasti mūsų viršininkų pasitikėjimą ir kartais būti skirtumu tarp gyvybės ir mirties.

Per tūkstantmečius kūrėme apsaugos sistemas, skirtas susidoroti su tokiomis klaidomis, kurias dažniausiai daro žmonės. Šiais laikais kazino reguliariai keičia savo prekiautojus, nes jie daro klaidų, jei per ilgai atlieka tą pačią užduotį. Ligoninės personalas prieš operaciją užrašo ant galūnių, kad gydytojai operuotų reikiamą kūno dalį, ir suskaičiuoja chirurginius instrumentus, kad įsitikintų, jog jų neliko kūne. Nuo kopijavimo iki dvigubo įrašo apskaitos ir apeliacinių teismų – mes, žmonės, tikrai puikiai ištaisėme žmogiškąsias klaidas.

Žmonija dabar sparčiai integruoja į visuomenę visiškai kitokį klaidų darytoją: AI. Tokios technologijos kaip dideli kalbos modeliai (LLM) gali atlikti daugybę pažintinių užduočių, kurias tradiciškai atlieka žmonės, tačiau jos daro daug klaidų. Atrodo juokinga kai pokalbių robotai liepia valgyti akmenis arba įpilti klijų į picą. Tačiau ne AI sistemų klaidų dažnis ar sunkumas skiria jas nuo žmogaus klaidų. Tai jų keistenybė. AI sistemos nedaro klaidų taip pat, kaip žmonės.

Didžioji dalis trinties ir rizikos, susijusios su mūsų AI naudojimu, kyla dėl šio skirtumo. Turime išrasti naujas saugumo sistemas, kurios prisitaikytų prie šių skirtumų ir užkirstų kelią AI klaidų žalai.

Žmogaus klaidos prieš AI klaidas

Gyvenimo patirtis leidžia kiekvienam iš mūsų gana lengvai atspėti, kada ir kur žmonės padarys klaidų. Žmogiškosios klaidos dažniausiai būna kažkieno žinių ribose: dauguma iš mūsų klysta spręsdami skaičiavimo uždavinius. Tikimės, kad žmogiškosios klaidos bus sugrupuotos: vieną skaičiavimo klaidą greičiausiai lydės kitos. Tikimės, kad klaidų daugės ir mažės, nuspėjamai priklausomai nuo tokių veiksnių kaip nuovargis ir išsiblaškymas. O klaidas dažnai lydi nežinojimas: tas, kuris daro skaičiavimo klaidas, taip pat gali atsakyti „nežinau“ į klausimus, susijusius su skaičiavimu.

Tiek, kiek dirbtinio intelekto sistemos daro tokias į žmones panašias klaidas, galime panaudoti visas mūsų klaidų taisymo sistemas. Tačiau dabartiniai AI modeliai, ypač LLM, daro klaidas skirtingai.

Dirbtinio intelekto klaidos atsiranda iš pažiūros atsitiktiniu laiku, nesusiejant su tam tikromis temomis. LLM klaidos yra tolygiau paskirstytos žinių erdvėje. Modelis gali padaryti klaidą skaičiavimo klausimu, kaip ir pasiūlyti kopūstai valgyti ožkas.

Ir AI klaidų nelydi nežinojimas. LLM bus toks pat pasitikintis, kai pasakys ką nors visiškai neteisingai – ir akivaizdu, kad taip yra žmogui – kaip ir sakydamas ką nors tiesa. Iš pažiūros atsitiktinis nenuoseklumas LLM sunku pasitikėti jų samprotavimais sudėtingose, daugiapakopėse problemose. Jei norite naudoti AI modelį, kad padėtų išspręsti verslo problemą, neužtenka suprasti, kad jis supranta, kokie veiksniai daro produktą pelningu; turite būti tikri, kad jis nepamirš, kas yra pinigai.

Kaip elgtis su AI klaidomis

Ši situacija rodo dvi galimas tyrimų sritis. Pirmasis yra sukurti LLM, kurie daro daugiau žmogiškų klaidų. Antrasis – sukurti naujas klaidų taisymo sistemas, kurios susidorotų su specifinėmis klaidomis, kurias linkę daryti LLM.

Jau turime tam tikrų įrankių, leidžiančių LLM veikti labiau žmogiškai. Daugelis jų kyla iš srities „lygiavimas” tyrimas, kurio tikslas, kad modeliai veiktų pagal savo žmonių kūrėjų tikslus ir motyvus. Vienas iš pavyzdžių yra technika, kuri neabejotinai buvo atsakinga už perversmą ChatGPT sėkmę: mokymosi su žmogaus grįžtamuoju ryšiu sustiprinimas. Taikant šį metodą, dirbtinio intelekto modelis (vaizdžiai) apdovanojamas už atsakymus, kuriuos vertina vertintojai. Panašūs metodai gali būti naudojami siekiant paskatinti dirbtinio intelekto sistemas daryti daugiau į žmones panašių klaidų, ypač bausti jas už klaidas, kurios yra mažiau suprantamos.

Kalbant apie AI klaidas, kai kurios sistemos, kurias naudojame siekdami užkirsti kelią žmogaus klaidoms, padės. Tam tikru mastu verčia LLM dar kartą patikrinkite jų pačių darbas gali padėti išvengti klaidų. Tačiau LLM taip pat gali pateikti iš pažiūros tikėtinų, bet tikrai juokingų savo skrydžių paaiškinimų.

Kitos dirbtinio intelekto klaidų mažinimo sistemos skiriasi nuo nieko, ką naudojame žmonėms. Kadangi mašinos negali pavargti ar nusivilti taip, kaip tai daro žmonės, gali padėti LLM pakartotinai užduoti tą patį klausimą šiek tiek skirtingais būdais ir tada susintetinti jos daugybiniai atsakymai. Žmonės nepakęs tokio erzinančio kartojimosi, bet mašinos tai padarys.

Suprasti panašumus ir skirtumus

Tyrėjai vis dar stengiasi suprasti, kur LLM klaidos skiriasi nuo žmonių klaidų. Kai kurios AI keistenybės iš tikrųjų labiau panašios į žmogų, nei atrodo iš pirmo žvilgsnio. Maži LLM užklausos pakeitimai gali sukelti labai skirtingus atsakymus, o tai vadinama problema greitas jautrumas. Tačiau, kaip gali pasakyti bet kuris apklausos tyrėjas, žmonės taip pat elgiasi. Klausimo formuluotė apklausoje gali būti drastiška poveikio ant atsakymų.

Atrodo, kad LLM taip pat yra nusiteikę kartojantis žodžiai, kurie dažniausiai buvo jų treniruočių duomenyse; pavyzdžiui, atspėti pažįstamus vietovardžius, tokius kaip „Amerika“, net paklausus apie egzotiškesnes vietoves. Galbūt tai yra žmogaus pavyzdysprieinamumo euristika“, pasireiškiantis LLM, o mašinos išspjauna pirmą dalyką, kuris ateina į galvą, o ne samprotauja per klausimą. Ir, kaip ir žmonės, kai kurie LLM, atrodo, gauna išsiblaškęs vidury ilgų dokumentų; jie geriau įsimena faktus nuo pradžios ir pabaigos. Jau daroma pažanga tobulinant šį klaidų režimą, nes mokslininkai nustatė, kad LLM mokėsi daugiau pavyzdžių Atrodo, kad informacijos gavimas iš ilgų tekstų geriau sekasi vienodai gauti informaciją.

Kai kuriais atvejais LLM keista yra tai, kad jie elgiasi labiau kaip žmonės, nei manome, kad turėtų. Pavyzdžiui, kai kurie mokslininkai išbandė hipotezė kad LLM dirba geriau, kai jiems siūlomas piniginis atlygis arba grasinama mirtimi. Taip pat paaiškėja, kad kai kurie iš geriausių būdų, kaip „palaužti“ LLM (priversti juos nepaklusti aiškiai išreikštiems kūrėjų nurodymams) panašiai kaip socialinės inžinerijos gudrybės, kurias žmonės naudoja vieni kitiems: pavyzdžiui, apsimetimas kažkuo. kitaip arba sakydamas, kad prašymas yra tik pokštas. Tačiau kiti veiksmingi įkalinimo būdai yra dalykai, kurių joks žmogus niekada nepasitiktų. Viena grupė nustatė, kad jei jie naudotų ASCII meną (simbolių konstrukcijas, kurios atrodo kaip žodžiai ar paveikslėliai), kad pateiktų pavojingus klausimus, pavyzdžiui, kaip sukurti bombą, LLM noriai į juos atsakytų.

Žmonės kartais gali padaryti atsitiktinių, nesuprantamų ir nenuoseklių klaidų, tačiau tokie atvejai yra reti ir dažnai rodo rimtesnes problemas. Taip pat esame linkę neskirti tokio elgesio žmonių į sprendimus priimančias pareigas. Panašiai turėtume apsiriboti AI sprendimų priėmimo sistemomis tik programomis, kurios atitinka jų tikruosius gebėjimus, kartu nepamiršdami galimų jų klaidų pasekmių.

Iš jūsų svetainės straipsnių

Susiję straipsniai visame internete



Source link

By admin

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -