Silicio slėnio lyderiai, įskaitant Baltųjų rūmų dirbtinį intelektą ir kriptovaliutų carą Davidą Sacksą ir OpenAI vyriausiąjį strategijos pareigūną Jasoną Kwoną, šią savaitę sukėlė ažiotažą internete dėl savo komentarų apie grupes, propaguojančias AI saugumą. Atskirais atvejais jie teigė, kad kai kurie dirbtinio intelekto saugos šalininkai nėra tokie dorybingi, kaip atrodo, ir veikia savo arba milijardierių lėlių meistrų užkulisiuose interesais.
AI saugos grupės, kalbėjusios su „TechCrunch“, teigia, kad „Sacks“ ir „OpenAI“ kaltinimai yra naujausias Silicio slėnio bandymas įbauginti kritikus, bet tikrai ne pirmasis. 2024 m. kai kurios rizikos kapitalo įmonės paskleidė gandus, kad Kalifornijos dirbtinio intelekto saugos įstatymo projektas SB 1047 startuolių steigėjus nusiųs į kalėjimą. Brookingso institutas pavadino gandą vienu iš daugelio „klaidinančių pristatymų“ apie įstatymo projektą, tačiau gubernatorius Gavinas Newsomas galiausiai jį vetavo.
Nesvarbu, ar „Sacks“ ir „OpenAI“ ketino įbauginti kritikus, ar ne, jų veiksmai pakankamai išgąsdino keletą dirbtinio intelekto saugos gynėjų. Daugelis ne pelno organizacijų lyderių, su kuriais „TechCrunch“ susisiekė praėjusią savaitę, paprašė pasikalbėti su anonimiškumo sąlyga, kad apsaugotų savo grupes nuo keršto.
Ginčai pabrėžia didėjančią Silicio slėnio įtampą tarp atsakingo dirbtinio intelekto kūrimo ir kūrimo, kad jis būtų didžiulis plataus vartojimo produktas – šią temą mano kolegos Kirsten Korosec, Anthony Ha ir aš išpakuojame šios savaitės renginyje. Nuosavas kapitalas podcast’as. Taip pat pasineriame į naują Kalifornijoje priimtą AI saugos įstatymą, reglamentuojantį pokalbių robotus, ir OpenAI požiūrį į erotiką ChatGPT.
Antradienį Sacksas parašė įrašą apie X, teigdamas, kad Anthropic, kuris sukėlė susirūpinimą dėl dirbtinio intelekto gebėjimo prisidėti prie nedarbo, kibernetinių atakų ir katastrofiškos žalos visuomenei, tiesiog baiminasi, kad būtų priimti įstatymai, kurie būtų naudingi jam pačiam ir paskandintų smulkesnes naujas įmones. Anthropic buvo vienintelė didelė DI laboratorija, kuri patvirtino Kalifornijos Senato įstatymo projektą 53 (SB 53), įstatymo projektą, nustatantį saugos ataskaitų teikimo reikalavimus didelėms DI įmonėms, kuris buvo pasirašytas praėjusį mėnesį.
Sacksas atsakė į virusinę Anthropic įkūrėjo Jacko Clarko esė apie jo baimes dėl AI. Clarkas pasakė esė kaip kalbą Curve AI saugos konferencijoje Berklyje prieš kelias savaites. Sėdėdamas tarp žiūrovų, tai tikrai atrodė kaip tikras technologo abejonių dėl savo gaminių pasakojimas, tačiau Sacksas to nematė taip.
Sacksas teigė, kad „Anthropic“ vykdo „sudėtingą reguliavimo fiksavimo strategiją“, tačiau verta paminėti, kad tikrai sudėtinga strategija tikriausiai neapimtų federalinės vyriausybės priešo. Tolesniame įraše apie X Sacksas pažymėjo, kad „Anthropic“ „nuolat save laiko Trumpo administracijos priešu“.
Techcrunch renginys
San Franciskas
|
2025 m. spalio 27-29 d
Taip pat šią savaitę OpenAI vyriausiasis strategijos pareigūnas Jasonas Kwonas parašė įrašą apie X, paaiškindamas, kodėl bendrovė siunčia šaukimus dirbtinio intelekto saugos ne pelno organizacijoms, tokioms kaip „Encode“, ne pelno organizacija, pasisakanti už atsakingą AI politiką. (Šaukimas yra teisinė tvarka, reikalaujanti dokumentų ar liudijimų.) Kwonas teigė, kad Elonui Muskui pateikus į teismą OpenAI dėl susirūpinimo, kad ChatGPT kūrėjas pasitraukė nuo savo ne pelno misijos, OpenAI pasirodė įtartinas, kaip kelios organizacijos taip pat prieštarauja jos restruktūrizavimui. „Encode“ pateikė amicus trumpą pareiškimą, palaikydama Musko ieškinį, o kitos ne pelno organizacijos viešai pasisakė prieš „OpenAI“ restruktūrizavimą.
„Tai iškėlė skaidrumo klausimų apie tai, kas juos finansavo ir ar buvo koks nors koordinavimas“, – sakė Kwonas.
„NBC News“ šią savaitę pranešė, kad „OpenAI“ išsiuntė „Encode“ ir šešioms kitoms ne pelno organizacijoms plačius šaukimus, kurie kritikavo įmonę, prašydami jų pranešimų, susijusių su dviem didžiausiais „OpenAI“ priešininkais – Musku ir „Meta“ generaliniu direktoriumi Marku Zuckerbergu. OpenAI taip pat paprašė Encode ryšių, susijusių su SB 53 palaikymu.
Vienas garsus dirbtinio intelekto saugos lyderis sakė „TechCrunch“, kad „OpenAI“ vyriausybės reikalų komanda ir jos tyrimų organizacija vis labiau skiriasi. Nors OpenAI saugos tyrėjai dažnai skelbia ataskaitas, kuriose atskleidžiama AI sistemų rizika, OpenAI politikos skyrius lobizavo prieš SB 53, sakydamas, kad verčiau turėtų vienodas taisykles federaliniu lygiu.
OpenAI misijų derinimo vadovas Joshua Achiam šią savaitę X paskelbtame pranešime kalbėjo apie savo įmonę, siunčiančią šaukimus ne pelno organizacijoms.
„Tai, kas gali kelti pavojų visai mano karjerai, pasakysiu: tai neatrodo puiku“, – sakė Achiamas.
Brendanas Steinhauseris, AI saugos ne pelno organizacijos „Alliance for Secure AI“ generalinis direktorius (kuris nebuvo iškviestas OpenAI), sakė „TechCrunch“, kad OpenAI atrodo įsitikinęs, kad jos kritikai yra Musko vadovaujamo sąmokslo dalis. Tačiau jis teigia, kad taip nėra ir kad didžioji AI saugos bendruomenės dalis gana kritiškai vertina xAI saugos praktiką arba jos nebuvimą.
„OpenAI tai yra skirta nutildyti kritikus, juos įbauginti ir atgrasyti kitas ne pelno organizacijas nuo to paties“, – sakė Steinhauseris. „Manau, kad Sacksui rūpi, kad (AI saugos) judėjimas auga ir žmonės nori, kad šios įmonės būtų atsakingos.
Sriramas Krishnanas, Baltųjų rūmų vyresnysis patarėjas politikos klausimais dirbtinio intelekto klausimais ir buvęs a16z generalinis partneris, šią savaitę įsitraukė į pokalbį savo socialinėje žiniasklaidoje, ragindamas dirbtinio intelekto saugos šalininkus be ryšio. Jis paragino dirbtinio intelekto saugos organizacijas pasikalbėti su „realaus pasaulio žmonėmis, naudojančiais, parduodančiais ir priimančiais dirbtinį intelektą savo namuose ir organizacijose“.
Neseniai atliktas Pew tyrimas parodė, kad maždaug pusė amerikiečių yra labiau susirūpinę, nei jaudinasi dėl dirbtinio intelekto, tačiau neaišku, kas jiems kelia nerimą. Kitame neseniai atliktame tyrime buvo atlikta išsamiau ir nustatyta, kad Amerikos rinkėjams labiau rūpi darbo praradimas ir klastojimas, o ne katastrofiška AI sukelta rizika, į kurią daugiausia dėmesio skiria AI saugos judėjimas.
Šių saugos problemų sprendimas gali būti susijęs su spartaus AI pramonės augimo sąskaita – tai kompromisas, keliantis nerimą daugeliui Silicio slėnio gyventojų. Didelę Amerikos ekonomikos dalį skatinant dirbtinio intelekto investicijoms, suprantama baimė dėl per didelio reguliavimo.
Tačiau po daugelio metų nereglamentuojamos dirbtinio intelekto pažangos AI saugumo judėjimas, atrodo, įgauna tikrą pagreitį ir artėja prie 2026 m. Silicio slėnio bandymai kovoti su į saugumą orientuotomis grupėmis gali būti ženklas, kad jos dirba.