Naująjį OpenAI saugos komitetą sudaro visi viešai neatskleista informacija
OpenAI suformavo naują komitetą, kuris prižiūrėtų „kritinius“ saugos ir saugumo sprendimus, susijusius su įmonės projektais ir veikla. Tačiau tokiu žingsniu, kuris neabejotinai pakels etikų pyktį, OpenAI pasirinko, kad komitete dirbtų įmonės atstovai, įskaitant Samą Altmaną, OpenAI generalinį direktorių, o ne stebėtojus iš išorės.
Altmanas ir kiti saugos ir saugumo komiteto nariai – „OpenAI“ valdybos nariai Bretas Tayloras, Adamas D'Angelo ir Nicole Seligman, taip pat vyriausiasis mokslininkas Jakubas Pachockis, Aleksandras Madry (vadovaujantis „OpenAI“ pasirengimo komandai), Lilian Weng (saugos skyriaus vadovė). sistemos), Mattas Knightas (saugumo vadovas) ir Johnas Schulmanas („derinimo mokslo” vadovas) – bus atsakingi už OpenAI saugos procesų ir apsaugos priemonių įvertinimą per ateinančias 90 dienų, teigiama įraše įmonės tinklaraštyje. Tada komitetas pasidalins savo išvadomis ir rekomendacijomis su visa „OpenAI“ direktorių taryba, kad būtų galima peržiūrėti, „OpenAI“ teigia, kad tada jis paskelbs atnaujintą informaciją apie visus priimtus pasiūlymus „taip, kad būtų laikomasi saugos ir saugumo reikalavimų“.
„OpenAI neseniai pradėjo mokyti savo kitą pasienio modelį ir tikimės, kad sukurtos sistemos paves mus į kitą pajėgumų lygį mūsų kelyje į [artificial general intelligence,]“, – rašo OpenAI. „Nors mes didžiuojamės galėdami kurti ir išleisti modelius, kurie yra pirmaujanti pramonėje tiek pajėgumų, tiek saugos požiūriu, šiuo svarbiu momentu sveikiname rimtas diskusijas.
„OpenAI“ per pastaruosius kelis mėnesius pastebėjo kelis aukšto lygio techninės komandos saugos nukrypimus, o kai kurie iš šių buvusių darbuotojų išreiškė susirūpinimą dėl to, ką jie suvokia kaip tyčinį AI saugos prioritetų panaikinimą.
Danielis Kokotajlo, dirbęs OpenAI valdymo komandoje, atsistatydino balandį po to, kai prarado pasitikėjimą, kad OpenAI „elgsis atsakingai“, kai bus išleistas vis labiau pažangus AI, kaip rašė savo asmeninio tinklaraščio įraše. O Ilja Sutskeveris, OpenAI įkūrėjas ir buvęs įmonės vyriausiasis mokslininkas, gegužę išvyko po užsitęsusios kovos su Altmanu ir Altmano sąjungininkais – pranešama, kad iš dalies dėl Altmano skubėjimo paleisti dirbtiniu intelektu varomus produktus saugos darbų sąskaita.
Visai neseniai Janas Leike'as, buvęs „DeepMind“ tyrėjas, dirbdamas „OpenAI“, buvo susijęs su „ChatGPT“ ir „ChatGPT“ pirmtako „InstructGPT“ kūrimu, atsistatydino iš savo pareigų saugos tyrinėtojams, sakydamas, kad jis mano, kad „OpenAI“ „nebuvo“. trajektorijoje“, kad problemos, susijusios su AI saugumu ir sauga, būtų „teisinga“. AI politikos tyrinėtoja Gretchen Krueger, praėjusią savaitę palikusi OpenAI, pakartojo Leike pareiškimus, ragindama bendrovę didinti atskaitomybę ir skaidrumą bei „rūpestingumą, su kuriuo [it uses its] savo technologija“.
Quartz pažymi, kad, be Sutskeverio, Kokotajlo, Leike ir Krueger, nuo praėjusių metų pabaigos pasitraukė arba buvo atstumti mažiausiai penki labiausiai saugai besirūpinantys OpenAI darbuotojai, įskaitant buvusias OpenAI valdybos nares Helen Toner ir Tasha McCauley. Sekmadienį paskelbtame „The Economist“ pranešime Toneris ir McCauley rašė, kad su Altmanu priešakyje jie netiki, kad OpenAI gali būti atsakinga už save.
“[B]Remdamiesi savo patirtimi, manome, kad savivalda negali patikimai atlaikyti pelno paskatų spaudimo“, – sakė Toneris ir McCauley.
Tonerio ir McCauley teigimu, „TechCrunch“ anksčiau šį mėnesį pranešė, kad „OpenAI Superalignment“ komandai, atsakingai už „superintelektinių“ AI sistemų valdymo ir valdymo būdų kūrimą, buvo pažadėta 20% įmonės skaičiavimo išteklių, tačiau retai gaudavo dalį to. Nuo to laiko Superalignment komanda buvo išformuota, o didžioji jos darbo dalis buvo priskirta Schulmanui ir gruodį įkurtai saugos patarėjų grupei OpenAI.
OpenAI pasisakė už AI reguliavimą. Tuo pat metu ji dėjo pastangas formuoti šį reglamentą, pasamdydama vidaus lobistą ir lobistus vis daugiau advokatų kontorų ir išleisdama šimtus tūkstančių JAV lobizmui vien 2023 m. ketvirtąjį ketvirtį. Neseniai JAV Tėvynės saugumo departamentas paskelbė, kad Altmanas bus vienas iš savo naujai suformuotos Dirbtinio intelekto saugos ir saugumo tarybos narių, kuri pateiks rekomendacijas dėl „saugaus ir saugaus dirbtinio intelekto kūrimo ir diegimo“ visose JAV kritinėse infrastruktūrose.
Siekdama išvengti, kad Saugos ir saugumo komitetas, kuriam dominuoja vadovybė, nepasirodytų etiška, „OpenAI“ įsipareigojo pasamdyti trečiųjų šalių „saugos, saugos ir techninius“ ekspertus, kurie remtų komiteto darbą, įskaitant kibernetinio saugumo veteraną Robą Joyce'ą ir buvęs JAV teisingumo departamento pareigūnas Johnas Carlinas. Tačiau, be Joyce'o ir Carlin, bendrovė nenurodė šios išorės ekspertų grupės dydžio ar sudėties, taip pat neatskleidė grupės galios ir įtakos komitetui ribų.
Pranešime apie X „Bloomberg“ apžvalgininkas Parmy Olsonas pažymi, kad įmonių priežiūros tarybos, tokios kaip Saugos ir saugos komitetas, panašios į „Google“ dirbtinio intelekto priežiūros tarybas, tokias kaip Pažangiųjų technologijų išorės patariamoji taryba.[do] praktiškai niekas netrukdo vykdyti tikrosios priežiūros. „OpenAI“ teigia, kad per komitetą ji siekia atsakyti į „pagrįstą kritiką“ dėl savo darbo – „pagrįsta kritika“, žinoma, yra žiūrinčiojo akyse.
Altmanas kartą pažadėjo, kad pašaliniai asmenys vaidins svarbų vaidmenį OpenAI valdyme. 2016 m. leidinyje „New Yorker“ jis sakė, kad „OpenAI“[plan] būdas leisti plačiam pasaulio sluoksniui išrinkti atstovus į … valdymo tarybą. Tai niekada neįvyko – ir atrodo, kad šiuo metu tai mažai tikėtina.