Tai svečio įrašas. Čia išsakytos nuomonės yra tik autorių ir neatspindi pozicijų IEEE spektras, Institutas, arba IEEE.

Daugelis civilių dirbtinis intelektas bendruomenė atrodo, nesuvokia kad šiandieninės AI naujovės gali turėti rimtų pasekmes tarptautinei taikai ir saugumui. Tačiau dirbtinio intelekto specialistai – nesvarbu, ar tyrėjai, inžinieriai, produktų kūrėjai ar pramonės vadovai – gali žaisti kritinius vaidmenis sumažinti riziką per visą AI technologijų gyvavimo ciklą priimant sprendimus.

Yra daugybė būdų, kaip civiliai AI pažanga gali kelti grėsmę taikai ir saugumui. Kai kurie iš jų yra tiesioginiai, pavyzdžiui, DI valdomų pokalbių robotų naudojimas kuriant dezinformacija politinės įtakos operacijoms. Dideli kalbiniai modeliai taip pat gali būti naudojamas sukurti kodą kibernetinėms atakoms ir palengvinti biologinių ginklų kūrimą ir gamybą.

Kiti būdai yra labiau netiesioginiai. AI įmonių sprendimai, ar priimti jų atvirojo kodo programinė įranga ir kokiomis sąlygomis, pavyzdžiui, turi geopolitinių padarinių. Tokie sprendimai nustato, kaip valstybės ar nevalstybiniai veikėjai gali pasiekti svarbias technologijas, kurias jie gali naudoti kurdami karines AI programas, įskaitant autonominių ginklų sistemų.

Dirbtinio intelekto įmonės ir tyrėjai turi geriau suvokti iššūkius ir savo gebėjimą ką nors padaryti su jais.

Pokyčiai turi prasidėti nuo AI praktikų švietimo ir karjeros plėtros. Techniškai atsakingų inovacijų priemonių rinkinyje yra daug galimybių, kurias DI tyrėjai galėtų naudoti norėdami nustatyti ir sumažinti jų darbo keliamą riziką. Jie turi būti duoti galimybes mokytis apie tokius galimybės įskaitant IEEE 7010: rekomenduojama praktika vertinant autonominių ir intelektualių sistemų poveikį žmogaus gerovei, IEEE 7007-2021: ontologinis etiškai valdomų robotų ir automatizavimo sistemų standartasir Nacionalinis standartų ir technologijų institutas AI rizikos valdymo sistema.

Jei švietimo programos suteiks pagrindinių žinių apie technologijų poveikį visuomenei ir tai, kaip veikia technologijų valdymas, dirbtinio intelekto specialistai turės daugiau galimybių atsakingai diegti naujoves ir būti reikšmingais taisyklių kūrėjais ir įgyvendintojais.

Ką reikia pakeisti AI švietime

Atsakingas dirbtinis intelektas reikalauja tam tikrų galimybių paprastai neapima AI mokymo. DI nebeturėtų būti traktuojama kaip gryna STEM disciplina, o veikiau kaip tarpdisciplininė, kuriai reikia techninių žinių, taip pat ir socialinių bei humanitarinių mokslų įžvalgų. Turėtų būti privalomi kursai apie technologijų ir atsakingų inovacijų poveikį visuomenei, taip pat specialūs DI etikos ir valdymo mokymai.

Šie dalykai turėtų būti visų universitetų, siūlančių dirbtinio intelekto laipsnius, pagrindinės studijų programos dalis tiek bakalauro, tiek magistrantūros studijų lygmenimis.

Jei švietimo programos suteiks pagrindinių žinių apie technologijų poveikį visuomenei ir tai, kaip veikia technologijų valdymas, dirbtinio intelekto specialistai bus įgalinti atsakingai diegti naujoves ir būti reikšmingais dirbtinio intelekto taisyklių kūrėjais ir įgyvendintojais.

Pakeisti AI mokymo programą nėra maža užduotis. Kai kuriose šalyse universitetų studijų programų pakeitimus reikia patvirtinti ministerijos lygmeniu. Siūlomi pakeitimai gali susidurti su vidiniu pasipriešinimu dėl kultūrinių, biurokratinių ar finansinių priežasčių. Tuo tarpu esamų instruktorių žinios naujomis temomis gali būti ribotos.

Vis dėlto vis daugiau universitetų dabar siūlo šias temas kaip pasirenkamuosius dalykus, įskaitant Harvardas, Niujorko universitetas, Sorbonos universitetas,Umeå universitetas,ir Helsinkio universitetas.

Nereikia vieno visiems tinkančio mokymo modelio, tačiau tikrai reikia finansavimo, kad būtų galima samdyti atsidavusius darbuotojus ir juos apmokyti.

Atsakingo AI įtraukimas į mokymąsi visą gyvenimą

DI bendruomenė turi parengti tęstinio mokymo kursus apie AI tyrimų poveikį visuomenei, kad specialistai galėtų mokytis tokiomis temomis visą savo karjerą.

AI turi vystytis netikėtais būdais. Norint nustatyti ir sumažinti jos riziką, reikės nuolatinių diskusijų, kuriose dalyvautų ne tik mokslininkai ir kūrėjai, bet ir žmonės, kuriems jos naudojimas gali turėti tiesioginės ar netiesioginės įtakos. Visapusiška tęstinio mokymo programa padėtų įžvalgas iš visų suinteresuotųjų šalių.

Kai kurie universitetai ir privačios įmonės jau turi etikos vertinimo tarybas ir politikos komandas, kurios vertina AI įrankių poveikį. Nors į komandų įgaliojimus paprastai neįeina mokymai, jų pareigas būtų galima išplėsti, kad kursai būtų prieinami visiems organizacijos nariams. Mokymai apie atsakingus dirbtinio intelekto tyrimus neturėtų būti asmeninio intereso dalykas; tai turėtų būti skatinama.

Tokios organizacijos kaip IEEE ir Kompiuterinių mašinų asociacija gali atlikti svarbų vaidmenį rengiant tęstinio mokymosi kursus, nes jie yra gerai pasirengę kaupti informaciją ir palengvinti dialogą, dėl kurio gali būti nustatytos etikos normos.

Bendravimas su platesniu pasauliu

Mums taip pat reikia dirbtinio intelekto specialistų, kurie dalintųsi žiniomis ir paskatintų diskusijas apie galimas rizikas už DI tyrimų bendruomenės ribų.

Laimei, socialinėje žiniasklaidoje jau yra daugybė grupių, kurios aktyviai diskutuoja apie AI riziką, įskaitant valstybės ir nevalstybinių subjektų netinkamą civilinių technologijų naudojimą. Taip pat yra nišinių organizacijų, orientuotų į atsakingą dirbtinį intelektą, kurios nagrinėja AI tyrimų ir inovacijų geopolitines ir saugumo pasekmes. Jie apima AI dabar institutas, AI valdymo centras, Duomenys ir visuomenė, Distributed AI tyrimų institutas,į Monrealio AI etikos institutasir Partnerystė AI srityje.

Tačiau šios bendruomenės šiuo metu yra per mažos ir nėra pakankamai įvairios, nes žymiausi jų nariai paprastai turi panašią kilmę. Jų įvairovės trūkumas gali paskatinti grupes ignoruoti riziką, kuri turi įtakos nepakankamai atstovaujamoms populiacijoms.

Be to, dirbtinio intelekto specialistams gali prireikti pagalbos ir globos, kaip bendrauti su žmonėmis, nepriklausančiais AI tyrimų bendruomenei, ypač su politikos formuotojais. Būtinas įgūdis yra suformuluoti problemas ar rekomendacijas tokiais būdais, kuriuos galėtų suprasti netechniniai asmenys.

Turime rasti būdų, kaip plėsti esamas bendruomenes, padaryti jas įvairesnes ir įtraukesnes bei padėti joms geriau bendrauti su likusia visuomenės dalimi. Didelės profesinės organizacijos, tokios kaip IEEE ir ACM, galėtų padėti, galbūt sukurdamos specialias darbo grupės ekspertų arba įrengti takelius adresu AI konferencijos.

Universitetai ir privatus sektorius taip pat gali padėti kurdami arba plėsdami pareigybes ir skyrius, orientuotus į AI poveikį visuomenei ir AI valdymą. Umeå universitetas neseniai sukūrė an AI politikos laboratorija problemoms spręsti. Įmonės, įskaitant Antropinis, Google, Metair OpenAI įsteigė tokioms temoms skirtus skyrius ar padalinius.

Visame pasaulyje daugėja judėjimų reguliuoti AI. Naujausi pokyčiai apima sukūrimą JT aukšto lygio patariamasis organas dirbtinio intelekto klausimais ir Pasaulinė atsakingo dirbtinio intelekto karinėje srityje komisija. G7 lyderiai paskelbė a pareiškimas dėl Hirosimos AI procesoo Didžiosios Britanijos vyriausybė surengė pirmąjį AI saugos aukščiausiojo lygio susitikimas praeitais metais.

Pagrindinis reguliavimo institucijoms kylantis klausimas yra tai, ar dirbtinio intelekto tyrėjais ir įmonėmis galima pasitikėti atsakingai plėtojant technologiją.

Mūsų nuomone, vienas iš efektyviausių ir tvariausių būdų užtikrinti, kad dirbtinio intelekto kūrėjai prisiimtų atsakomybę už riziką, yra investuoti į švietimą. Šiandienos ir rytojaus praktikai turi turėti pagrindinių žinių ir priemonių, kad galėtų įveikti jų darbo kylančią riziką, jei nori būti veiksmingi būsimų dirbtinio intelekto taisyklių kūrėjai ir įgyvendintojai.

Autoriaus pastaba: Autoriai išvardyti pagal įnašų lygį. Autoriai buvo suburti iniciatyva JT nusiginklavimo reikalų biuras ir Stokholmo tarptautinis taikos tyrimų institutas pradėtas remiant Europos Sąjungos iniciatyvai Atsakingos dirbtinio intelekto naujovės siekiant užtikrinti tarptautinę taiką ir saugumą.



Source link

By admin

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *