Ši savaitė AI: ar galime (ir ar galėtume kada nors) pasitikėti OpenAI?
Neatsilikti nuo tokios sparčiai besivystančios pramonės kaip AI yra sudėtinga užduotis. Taigi, kol dirbtinis intelektas gali tai padaryti už jus, pateikiame patogią naujausių mašininio mokymosi pasaulio istorijų apibendrinimą kartu su reikšmingais tyrimais ir eksperimentais, kurių mes patys neapėmėme.
Beje, „TechCrunch“ planuoja birželio 5 d. išleisti AI informacinį biuletenį. Sekite naujienas. Tuo tarpu mes didiname savo pusiau įprasto AI stulpelio, kuris anksčiau buvo du kartus per mėnesį (arba tiek), kadenciją iki savaitės, todėl laukite daugiau leidimų.
Šią savaitę dirbtinio intelekto srityje OpenAI pristatė nuolaidų planus ne pelno organizacijoms ir švietimo klientams ir atitraukė uždangą nuo naujausių pastangų neleisti blogiems veikėjams piktnaudžiauti AI įrankiais. Nėra daug ką kritikuoti – bent jau ne šio rašytojo nuomone. Bet aš valios pasakyti, kad pranešimų antplūdis atrodė skirtas atremti blogą bendrovės spaudą.
Pradėkime nuo Scarlett Johansson. „OpenAI“ pašalino vieną iš savo dirbtinio intelekto valdomo pokalbių roboto „ChatGPT“ balsų po to, kai vartotojai nurodė, kad jis skambėjo klaikiai panašiai kaip Johansson. Vėliau Johansson paskelbė pareiškimą, kuriame teigė, kad ji pasamdė advokatą, kad paklaustų apie balsą ir gautų tikslią informaciją apie tai, kaip jis buvo sukurtas, ir kad ji atsisakė pakartotinių OpenAI prašymų licencijuoti savo balsą ChatGPT.
Dabar „The Washington Post“ gabalas rodo, kad „OpenAI“ iš tikrųjų nesiekė klonuoti Johanssono balso ir kad bet kokie panašumai buvo atsitiktiniai. Bet kodėl tuomet OpenAI generalinis direktorius Samas Altmanas susisiekė su Johansson ir paragino ją persvarstyti dvi dienas prieš įspūdingą demonstracinę versiją, kurioje skambėjo panašus balsas? Tai šiek tiek įtariama.
Tada yra OpenAI pasitikėjimo ir saugos problemos.
Kaip pranešėme anksčiau šį mėnesį, nuo tada išformuotai „OpenAI Superalignment“ komandai, atsakingai už „superprotingų“ AI sistemų valdymo ir valdymo būdų kūrimą, buvo pažadėta 20 % įmonės skaičiavimo išteklių, tačiau tik visada (ir retai) gavo dalį tai. Dėl to (be kitų priežasčių) atsistatydino du komandų vadovai Janas Leike ir Ilja Sutskeveris, buvęs OpenAI vyriausiasis mokslininkas.
Per pastaruosius metus „OpenAI“ paliko beveik tuzinas saugos ekspertų; kai kurie, įskaitant Leike, viešai išreiškė susirūpinimą, kad įmonė teikia pirmenybę komerciniams projektams, o ne saugumo ir skaidrumo pastangoms. Reaguodama į kritiką, OpenAI sudarė naują komitetą, kuris prižiūrės su įmonės projektais ir veikla susijusius saugos ir saugumo sprendimus. Tačiau komitete dirbo įmonės atstovai, įskaitant Altmaną, o ne išorės stebėtojai. Pranešama, kad OpenAI svarsto galimybę atsisakyti savo ne pelno struktūros ir naudoti tradicinį pelno modelį.
Tokie incidentai apsunkina pasitikėjimą OpenAI – įmone, kurios galia ir įtaka kasdien auga (žr.: jos sandorius su naujienų leidėjais). Nedaug korporacijų, jei tokių yra, vertos pasitikėjimo. Tačiau OpenAI rinką ardančios technologijos daro pažeidimus dar labiau nerimą keliančius.
Nesvarbu, kad pats Altmanas nėra tikras tiesos švyturys.
Kai pasklido naujienos apie OpenAI agresyvią taktiką buvusių darbuotojų atžvilgiu – taktika, kuri apėmė grasinimą darbuotojams prarasti jiems priklausantį kapitalą arba akcijų pardavimo prevenciją, jei jie nepasirašys ribojančių neatskleidimo susitarimų, Altmanas atsiprašė ir tvirtino, kad nieko nežinojo. politiką. Tačiau, anot Vox, Altmano parašas yra ant steigimo dokumentų, kuriais buvo priimta politika.
Ir jei tikėti buvusia OpenAI valdybos nare Helen Toner – viena iš buvusių valdybos narių, praėjusių metų pabaigoje mėginusių pašalinti Altmaną iš savo posto – Altmanas slėpė informaciją, klaidingai išdėstė dalykus, kurie vyko OpenAI, ir kai kuriais atvejais atvirai melavo. prie lentos. Toneris teigia, kad valdyba apie „ChatGPT“ išleidimą sužinojo per „Twitter“, o ne iš Altmano; kad Altmanas pateikė klaidingą informaciją apie oficialią OpenAI saugos praktiką; ir kad Altmanas, nepatenkintas akademiniu darbu, kurio bendraautorius Toner, kuris kritiškai nušvietė OpenAI, bandė manipuliuoti valdybos nariais, kad nustumtų Tonerį nuo lentos.
Niekas nieko gero nežada.
Štai keletas kitų įdomių AI istorijų iš pastarųjų dienų:
- Balso klonavimas yra paprastas: Naujoje Skaitmeninės neapykantos kovos su skaitmenine neapykanta centro ataskaitoje nustatyta, kad dirbtinio intelekto valdomos balso klonavimo paslaugos politiko pareiškimo klastojimą daro gana nereikšmingu.
- „Google“ AI apžvalgų kova: AI apžvalgos – dirbtinio intelekto sugeneruoti paieškos rezultatai, kuriuos „Google“ pradėjo platinti anksčiau šį mėnesį „Google“ paieškoje, reikia šiek tiek padirbėti. Bendrovė tai pripažįsta, bet teigia, kad tai greitai kartojasi. (Pamatysime.)
- Paulas Grahamas apie Altmaną: Keliuose įrašuose apie X startuolių greitintuvo „Y Combinator“ įkūrėjas Paulas Grahamas atmetė teiginius, kad Altmanas 2019 m. buvo spaudžiamas atsistatydinti iš „Y Combinator“ prezidento posto dėl galimų interesų konfliktų. (Y Combinator turi nedidelį OpenAI akcijų paketą.)
- xAI pritraukia 6 mlrd. USD: Elono Musko dirbtinio intelekto startuolis xAI surinko 6 milijardų dolerių finansavimą, nes Muskas padidino kapitalą, kad agresyviai konkuruotų su konkurentais, įskaitant OpenAI, Microsoft ir Alphabet.
- „Perplexity“ nauja AI funkcija: Naudodamas naują funkciją „Perplexity Pages“, AI startuolis „Perplexity“ siekia padėti vartotojams kurti ataskaitas, straipsnius ar vadovus vizualiai patrauklesniu formatu, praneša Ivanas.
- Mėgstamiausi AI modelių skaičiai: Devinas rašo apie skaičius, kuriuos pasirenka skirtingi AI modeliai, kai jiems pavesta pateikti atsitiktinį atsakymą. Kaip paaiškėja, jie turi favoritus – tai atspindi duomenis, kuriais remdamiesi kiekvienas buvo apmokytas.
- „Mistral“ išleidžia „Codestral“: „Microsoft“ remiamas prancūzų dirbtinio intelekto startuolis „Mistral“, kurio vertė siekia 6 mlrd. Tačiau jo negalima naudoti komerciniais tikslais dėl gana ribojančios „Mistral“ licencijos.
- Pokalbių robotai ir privatumas: Natasha rašo apie Europos Sąjungos „ChatGPT“ darbo grupę ir apie tai, kaip ji siūlo pirmą kartą pažvelgti į AI pokalbių roboto privatumo atitiktį.
- „ElevenLabs“ garso generatorius: Balso klonavimo startuolis „ElevenLabs“ pristatė naują įrankį, pirmą kartą paskelbtą vasarį, kuris leidžia vartotojams generuoti garso efektus naudojant raginimus.
- AI lustų jungtys: Technikos gigantai, įskaitant „Microsoft“, „Google“ ir „Intel“, bet ne „Arm“, „Nvidia“ ar „AWS“, sudarė pramonės grupę „UALink Promoter Group“, kad padėtų kurti naujos kartos AI lustų komponentus.