Oprah ką tik turėjo specialųjį AI su Samu Altmanu ir Billu Gatesu – štai svarbiausi dalykai
Vėlų ketvirtadienio vakarą Oprah Winfrey parodė specialų AI laidą, pavadintą „AI ir mūsų ateitis“. Tarp svečių buvo OpenAI generalinis direktorius Samas Altmanas, technologijų influenceris Marquesas Brownlee ir dabartinis FTB direktorius Christopheris Wray'us.
Dominavo skepticizmo ir atsargumo tonas.
Oprah savo parengtose pastabose pažymėjo, kad dirbtinio intelekto džinas iškrito iš butelio, geriau ar blogiau, ir kad žmonija turės išmokti gyventi su pasekmėmis.
„AI vis dar mūsų nekontroliuoja ir didžiąja dalimi… mūsų nesuprantama“, – sakė ji. „Bet tai yra čia, ir mes gyvensime su technologijomis, kurios gali būti mūsų sąjungininkės ir varžovės… Mes esame šios planetos tvariniai, kurie labiausiai prisitaiko. Vėl prisitaikysime. Tačiau stebėkite, kas yra tikra. Statos negali būti didesnės“.
Samas Altmanas per daug žada
Altmanas, pirmasis Oprah interviu naktį, pateikė abejotiną atvejį, kad šiandieninis AI mokosi sąvokų, remdamasis duomenimis, kuriuos jis moko.
„Mes rodome sistemai tūkstantį žodžių iš eilės ir prašome nuspėti, kas bus toliau“, – sakė jis Oprah. „Sistema išmoksta numatyti, o tada ji išmoksta pagrindines sąvokas.
Daugelis ekspertų nesutiktų.
AI sistemos, tokios kaip „ChatGPT“ ir „o1“, kurias „OpenAI“ pristatė ketvirtadienį, iš tiesų numato tikriausius kitus sakinio žodžius. Bet tai tiesiog statistinės mašinos – jos mokosi duomenų šablonų. Jie neturi sąmoningumo; jie tik daro pagrįstus spėjimus.
Nors Altmanas galbūt pervertino šiandieninių AI sistemų galimybes, jis pabrėžė, kaip svarbu išsiaiškinti, kaip saugiai patikrinti tas pačias sistemas.
„Vienas iš pirmųjų dalykų, kuriuos turime padaryti – ir tai vyksta dabar – yra priversti vyriausybę pradėti aiškintis, kaip atlikti šių sistemų saugos bandymus, kaip tai darome orlaiviams ar naujiems vaistams“, – sakė jis. „Aš asmeniškai turbūt kas kelias dienas kalbuosi su kuo nors iš vyriausybės.
Altmano siekis reguliuoti gali būti savanaudiškas. OpenAI nepritarė Kalifornijos AI saugos įstatymo projektui, žinomam kaip SB 1047, sakydamas, kad jis „užslopins naujoves“. Tačiau buvę „OpenAI“ darbuotojai ir dirbtinio intelekto ekspertai, tokie kaip Geoffrey Hintonas, pritarė įstatymo projektui, teigdami, kad jis sukurs reikiamas apsaugos priemones AI plėtrai.
Oprah taip pat ragino Altmaną apie jo, kaip OpenAI lyderio, vaidmenį. Ji paklausė, kodėl žmonės turėtų juo pasitikėti, ir jis dažniausiai vengė šio klausimo, sakydamas, kad jo įmonė laikui bėgant bando sukurti pasitikėjimą.
Anksčiau Altmanas labai tiesiai pasakė, kad žmonės neturėtų pasitikėti juo ar niekuo kitu asmeniu, kad įsitikintų, jog dirbtinis intelektas yra naudingas pasauliui.
Vėliau „OpenAI“ generalinis direktorius sakė, kad buvo keista išgirsti Oprah klausiant, ar jis yra „galingiausias ir pavojingiausias žmogus pasaulyje“, kaip teigiama naujienų antraštėje. Jis nesutiko, bet teigė jaučiantis atsakomybę nukreipti AI teigiama linkme žmonijai.
Oprah apie gilius padirbinius
Kaip ir turėjo atsitikti specialiame leidinyje apie AI, iškilo giliųjų klastotės.
Siekdamas parodyti, kaip įtikinama sintetinė laikmena, Brownlee palygino filmuotą medžiagą iš Sora, OpenAI AI varomą vaizdo generatorių, su dirbtinio intelekto sukurta medžiaga iš mėnesių senumo AI sistemos. „Sora“ pavyzdys buvo mylių į priekį – tai iliustruoja sparčią lauko pažangą.
„Dabar vis tiek galite pažvelgti į to dalis ir pasakyti, kad kažkas ne taip“, – sakė Brownlee apie Soros filmuotą medžiagą. Oprah sakė, kad jai tai atrodė tikra.
Deepfakes vitrina buvo pokalbis su Wray interviu, kuris papasakojo akimirką, kai pirmą kartą susipažino su AI deepfake technologija.
„Buvau konferencijų salėje ir būrys (FTB) susirinko parodyti man, kaip galima sukurti dirbtinio intelekto patobulintus padirbinius“, – sakė Wray. „Ir jie sukūrė vaizdo įrašą, kuriame aš sakau tai, ko niekada anksčiau nesakiau ir nesakysiu.
Wray kalbėjo apie didėjantį dirbtinio intelekto skatinamo sekso iškraipymo paplitimą. Kibernetinio saugumo bendrovės ESET duomenimis, 2022–2023 m. sekso piktnaudžiavimo atvejų padaugėjo 178 proc., iš dalies lėmė dirbtinio intelekto technologijos.
„Kažkas, pozuojantis kaip bendraamžis, nusitaiko į paauglį, – sakė Wray, – tada naudoja (DI) kompromituojančias nuotraukas, kad įtikintų vaiką mainais siųsti tikras nuotraukas. Tiesą sakant, tai kažkoks vaikinas už klaviatūros Nigerijoje ir, gavęs vaizdus, grasina vaiką šantažuoti ir pasakyti: jei nesumokėsite, mes pasidalinsime šiais vaizdais, kurie sugadins jūsų gyvenimą. “
Wray taip pat palietė dezinformaciją apie artėjančius JAV prezidento rinkimus. Teigdamas, kad „ne laikas panikai“, jis pabrėžė, kad „visi Amerikoje“ privalo „suteikti didesnį susikaupimo ir atsargumo jausmą“ naudojant AI ir atminkite, kad AI „gali naudoti blogi vaikinai prieš mus visus“.
„Per dažnai pastebime, kad kažkas socialinėje žiniasklaidoje, panašu į Billą iš Topekos ar Mary iš Deitono, iš tikrųjų, žinote, yra koks nors Rusijos ar Kinijos žvalgybos pareigūnas Pekino ar Maskvos pakraštyje“, – sakė Wray.
Iš tiesų, „Statista“ apklausa parodė, kad daugiau nei trečdalis JAV respondentų 2023 m. pabaigoje matė klaidinančios informacijos – arba, jų manymu, klaidingą informaciją – pagrindinėmis temomis. Šiais metais DI sukurti klaidinantys kandidatų viceprezidento Kamala Harris ir buvusio prezidento vaizdai. Donaldas Trumpas socialiniuose tinkluose, įskaitant X, sulaukė milijonų peržiūrų.
Billas Gatesas apie AI sutrikimą
Siekdama technooptimistinio pokyčio, Oprah pakalbino „Microsoft“ įkūrėją Billą Gatesą, kuris išreiškė viltį, kad dirbtinis intelektas papildys švietimo ir medicinos sritis.
„AI yra tarsi trečiasis asmuo, sėdintis (medicinos paskyroje), daro nuorašą ir siūlo išrašyti receptą“, – sakė Gatesas. „Taigi, vietoj to, kad gydytojas žiūrėtų į kompiuterio ekraną, jie bendrauja su jumis, o programinė įranga užtikrina, kad būtų tikrai geras nuorašas.
Tačiau Gatesas nepaisė galimo šališkumo dėl prasto AI mokymo.
Vienas neseniai atliktas tyrimas parodė, kad pirmaujančių technologijų įmonių kalbos atpažinimo sistemos dvigubai dažniau neteisingai perrašys garsą iš juodųjų garsiakalbių, o ne iš baltųjų garsiakalbių. Kiti tyrimai parodė, kad dirbtinio intelekto sistemos sustiprina ilgalaikius, neteisingus įsitikinimus, kad tarp juodaodžių ir baltųjų žmonių yra biologinių skirtumų – netiesos, dėl kurių gydytojai klaidingai diagnozuoja sveikatos problemas.
Geitsas sakė, kad klasėje dirbtinis intelektas gali būti „visada pasiekiamas“ ir „suprasti, kaip jus motyvuoti… kad ir koks būtų jūsų žinių lygis“.
Tai nėra tiksliai tiek, kiek klasių tai mato.
Praėjusią vasarą mokyklos ir kolegijos suskubo uždrausti ChatGPT dėl plagiato ir dezinformacijos baimės. Nuo tada kai kurie panaikino savo draudimus. Tačiau ne visi yra įsitikinę, kad GenAI gali duoti naudos, nurodydami tokias apklausas, kaip JK saugesnio interneto centras, kurios parodė, kad daugiau nei pusė vaikų teigia matę, kaip jų amžiaus žmonės naudoja GenAI neigiamai, pavyzdžiui, kuria tikėtiną klaidingą informaciją ar naudojamus vaizdus. ką nors nuliūdinti.
JT Švietimo, mokslo ir kultūros organizacija (UNESCO) praėjusių metų pabaigoje paragino vyriausybes reguliuoti GenAI naudojimą švietime, įskaitant vartotojų amžiaus apribojimų ir duomenų apsaugos bei vartotojų privatumo apribojimų įgyvendinimą.