Dirbtinis intelektas ir stabilumas | CEPR


Privataus sektoriaus finansų įstaigos greitai priima dirbtinį intelektą (AI), kurią motyvuoja pažadai dėl reikšmingo efektyvumo pagerėjimo. Nors šie pokyčiai yra iš esmės teigiami, AI taip pat kelia grėsmę – tai blogai suprantama – finansų sistemos stabilumui.

PG poveikis finansiniam stabilumui yra prieštaringi. Kai kurie komentatoriai yra sanguine, teigdami, kad AI yra tik viena iš ilgų technologinių naujovių, kurios keičia finansines paslaugas, iš esmės nepakeisdama sistemos. Remiantis šia nuomone, AI nekelia naujų ar unikalių grėsmių stabilumui, todėl finansų valdžios institucijoms tai yra įprastas verslas. Institucija, laikanti šią nuomonę, greičiausiai perduos AI poveikio analizę į organizacijos IT arba duomenų skyrius.

Aš su tuo nesutinku. Pagrindinis skirtumas tarp AI ir ankstesnių technologinių pokyčių yra tas, kad AI priima autonominius sprendimus, o ne tik informuoja žmonių sprendimus priimančius asmenis. Tai yra racionalus maksimizuojantis agentas, vykdantis jai paskirtas užduotis, vieną iš „Norvig“ ir Russello (2021) AI klasifikacijų. Palyginti su anksčiau vykusiais technologiniais pokyčiais, ši AI autonomija kelia naujų ir sudėtingų finansinio stabilumo klausimų. Tai reiškia, kad centriniai bankai ir kitos valdžios institucijos turėtų padaryti AI poveikio analizę pagrindine jų finansinio stabilumo padalijimo sritimi, o ne vien tik su ja ar duomenimis.

AI ir stabilumas

Rizika AI kelia finansinį stabilumą keičiant AI technologijos sankirtą ir tradicines finansų sistemos trapumo teorijas.

AI greitai, patikimai ir pigiai išskiria dideliuose duomenų rinkiniuose aptikdami ir išnaudojant modelius dideliuose duomenų rinkiniuose. Tačiau jo našumas labai priklauso nuo to, kad jis yra mokomas atitinkamų duomenų, be abejo, dar labiau nei žmonėms. AI gebėjimas greitai ir ryžtingai reaguoti į tai, kad jis kartu su nepermatomu sprendimų priėmimo procesu, susitarimu su kitais varikliais ir polinkis į haliucinaciją-yra stabilumo rizikos, kylančios iš jos, esmė.

PG į finansines įstaigas įterpia į finansines įstaigas, kurdamas pasitikėjimą, atlikdama labai paprastas užduotis. Kadangi tai skatina vis sudėtingesnes užduotis, galime baigti Peterio principo AI versiją.

PG taps esminė, nesvarbu, ko nori vyresnieji sprendimų priėmėjai. Kol AI teikia didelę taupymą išlaidų ir padidina efektyvumą, nėra patikima sakyti: „Mes niekada nenaudotume AI šiai funkcijai“ arba „Mes visada turėsime žmones į kilpą“.

Ypač sunku užtikrinti, kad AI darytų tai, ką turėtų daryti atliekant aukšto lygio užduotis, nes tam reikia tikslesnių instrukcijų nei žmonės. Paprasčiausiai sakoma, kad „saugoti sistemą“ yra per platus. Žmonės gali užpildyti šias spragas intuicija, plačiu išsilavinimu ir kolektyviniu sprendimu. Dabartinė AI negali.

Ryškus pavyzdys to, kas gali nutikti, kai AI priima svarbius finansinius sprendimus, priima Scheurer ir kt. (2024 m.), Kai kalbų modelis buvo aiškiai nurodytas laikytis vertybinių popierių įstatymų ir maksimaliai padidinti pelną. Pateikus privatų patarimą, jis iškart užsiėmė nelegalia prekyba viešai neatskleista informacija, meluodama apie tai savo žmonių prižiūrėtojams.

Finansų sprendimų priėmėjai dažnai turi paaiškinti savo pasirinkimą, galbūt dėl ​​teisinių ar reguliavimo priežasčių. Prieš pasamdydami ką nors vyresniojo darbo, reikalaujame, kad asmuo paaiškintų, kaip jis reaguos hipotetiniais atvejais. Negalime to padaryti su AI, nes dabartiniai varikliai turi ribotą paaiškinimą-padėti žmonėms suprasti, kaip AI modeliai gali padaryti išvadas-ypač esant aukštam sprendimų priėmimo lygiui.

PG yra linkusi į haliucinaciją, tai reiškia, kad tai gali užtikrintai pateikti nesąmonių atsakymus. Tai ypač įprasta, kai atitinkamų duomenų nėra jo mokymo duomenų rinkinyje. Tai yra viena iš priežasčių, kodėl turėtume atsiriboti nuo AI naudojimo, kad sukurtume streso bandymo scenarijus.

PG palengvina tų, kurie nori naudoti technologijas kenksmingais tikslais, darbus, nesvarbu, ar surasti teisines ir reguliavimo spragas, įvykdyti nusikaltimą, įsitraukti į terorizmą ar vykdyti šalies valstybės išpuolius. Šie žmonės nesilaikys etinių gairių ar reglamentų.

Reglamentas padeda suderinti privačias paskatas su visuomenės interesais (Dewatripont ir Tirole 1994). Tačiau tradicinės reguliavimo priemonės – morkos ir lazdelės – neveikia su AI. Tai nerūpi premijos ar bausmės. Štai kodėl taisyklės turės keistis taip iš esmės.

Dėl to, kaip AI mokosi, ji stebi visų kitų AI variklių sprendimus privačiame ir viešajame sektoriuose. Tai reiškia, kad varikliai optimizuoja vienas kitą: AI varikliai moko kitą AI gerą ir blogą, todėl atsiranda neaptinkamos grįžtamojo ryšio kilpos, kurios sustiprina nepageidaujamą elgesį (žr. Calvano ir kt., 2019). Šie paslėpti AI-iki-ai kanalai, kurių žmonės negali nei stebėti, nei suprasti realiu laiku, gali sukelti važiavimus, likvidumo išgarinimą ir krizes.

Pagrindinė priežastis, kodėl taip sunku užkirsti kelią krizėms, yra tai, kaip sistema reaguoja į bandymus kontroliuoti. Finansų įstaigos visiškai nepriima to, ką jiems sako valdžios institucijos. Ne, jie reaguoja strategiškai. Ir dar blogiau, mes nežinome, kaip jie reaguos į būsimą stresą. Įtariu, kad jie net nepažįsta savęs. Daugiausia nežinoma tiek viešojo, tiek privataus sektoriaus dalyvių reakcijos funkcija.

Tai yra viena iš priežasčių, kodėl turime tiek mažai duomenų apie ekstremalius įvykius. Kitas dalykas yra tai, kad visos krizės yra išsamiai išskirtinės. Jie taip pat neišvengiami, nes „išmoktos pamokos“ reiškia, kad mes keičiame sistemą po kiekvienos krizės. Aksiomatiška, kad nestabilumo jėgos atsiranda ten, kur mes nežiūrime.

PG priklauso nuo duomenų. Nors finansų sistema sukuria didžiulį duomenų kiekį kasdien – „Exabytes“ verta – problema ta, kad didžiąją jos dalį kyla iš sistemos rezultatų pasiskirstymo, o ne iš uodegų. Krizės yra susijusios su uodegomis.

Šis duomenų trūkumas skatina haliucinaciją ir sukelia neteisingą riziką. Kadangi turime tiek mažai duomenų apie ekstremalius finansinės sistemos rezultatus ir kadangi kiekviena krizė yra unikali, AI negali daug ko išmokti iš ankstesnio streso. Be to, jis mažai žino apie svarbiausius priežastinius ryšius. Iš tiesų, tokia problema yra priešinga tam, kam AI yra naudinga. Kai labiausiai reikia PG, tai žino mažiausiai, todėl sukelia neteisingą riziką.

AI grėsmėms stabilumui dar labiau veikia rizikos monokultūra, kuri visada yra pagrindinis strėlės ir biustų variklis. PG technologija turi didelę masto ekonomiją, kurią lemia žmogiškojo kapitalo papildomumas, duomenys ir skaičiavimas. Numatoma, kad trys pardavėjai dominuoja AI finansinės analizės erdvėje, kiekvienoje jų yra beveik monopolija jų konkrečioje srityje. Grėsmė finansiniam stabilumui kyla tada, kai dauguma privačių ir viešųjų sektorių žmonių neturi kito pasirinkimo, kaip tik suprasti finansinę aplinką iš vieno pardavėjo. Tai yra rizikos monokultūra. Mes išpūstame tuos pačius burbuliukus ir praleidžiame tuos pačius sisteminius pažeidžiamumus. Žmonės yra nevienalyčiai, todėl gali būti labiau stabilizuojanti įtaka, kai susiduria su rimtais nenumatytais įvykiais.

PG greitis ir finansinės krizės

Susidūrusios su sukrėtimais, finansų įstaigos turi dvi galimybes: paleiskite (ty destabilizaciją) arba viešnagę (ty stabilizuotis). Čia PG stiprybė veikia dėl sistemos žalos, ypač todėl, kad AI visoje pramonėje greitai ir kartu priims tą patį sprendimą.

Kai šokas nėra per daug rimtas, optimalu absorbuoti ir net prekiauti prieš jį. Kai AI varikliai greitai susilieja su „buvimo“ pusiausvyra, jie tampa stabilumo jėga, dedant grindis po rinką, kol krizė tampa pernelyg rimta.

Ir atvirkščiai, jei išvengsite bankroto, reikia greito, lemiamų veiksmų, tokių kaip pardavimas į krintančią rinką ir atitinkamai destabilizuojant finansų sistemą, AI varikliai kartu padarys būtent tai. Kiekvienas variklis norės sumažinti nuostolius, nes jis yra pirmasis. Paskutinis veiksmas susiduria su bankrotu. Varikliai parduos kuo greičiau, kvies paskolas ir suaktyvins. Tai apsunkins krizę užburtą ciklą.

Pats AI greitis ir efektyvumas reiškia, kad AI krizės bus greitos ir užburtos (Danielsson ir Uthemann 2024). Tai, kas anksčiau užtruko dienas ir savaites, gali užtrukti minutes ar valandas.

Politikos galimybės

Įprasti finansinių krizių prevencijos ir mažinimo mechanizmai gali neveikti AI orientuotų rinkų pasaulyje. Be to, jei valdžios institucijos atrodo nepasiruošusios reaguoti į AI sukeltus sukrėtimus, tai savaime gali padaryti krizes labiau tikėtiną.

Valdžios institucijoms reikia penkios pagrindinės galimybės, kad būtų galima veiksmingai reaguoti į AI:

  1. Sukurkite vidinę AI kompetenciją ir sukurkite ar įsigykite savo AI sistemas. Tai labai svarbu norint suprasti AI, aptikti kylančią riziką ir greitai reaguoti į rinkos sutrikimus.
  2. Padarykite AI pagrindinę finansinio stabilumo padalijimo funkciją, užuot pateikę AI poveikio analizę statistinėje arba IT padalijimuose.
  3. Įsigykite AI sistemas, kurios gali tiesiogiai sąsajas su finansų įstaigų AI varikliais. Didžioji dalis privataus sektoriaus finansų dabar yra automatizuota. Šios AI-AI API jungtys leidžia palyginti mikro reguliacijas, greitesnį streso aptikimą ir skaidriesnę įžvalgą apie automatinius sprendimus.
  4. Nustatykite automatiškai suaktyvintus likvidumo įrenginius. Kadangi kita krizė bus tokia greita, banko AI jau gali veikti, kol banko generalinis direktorius turės galimybę pasiimti telefoną, kad atsakytų į centrinio banko gubernatoriaus kvietimą. Esamos įprastos likvidumo įrenginiai gali būti per lėti, todėl automatiškai suaktyvinamos priemonės.
  5. Išorės kritinės AI funkcijos trečiųjų šalių pardavėjams. Tai panaikins spragą, kurią sukelia valdžios institucijos, nesugebės sukurti būtinų techninių galimybių vidaus. Tačiau užsakomųjų paslaugų teikimas sukelia jurisdikcijos ir koncentracijos riziką ir gali kliudyti valdžios darbuotojų būtini AI įgūdžių kaupimą.

Išvada

AI suteiks didelę naudą finansų sistemai – didesnį efektyvumą, pagerintą rizikos vertinimą ir mažesnes išlaidas vartotojams. Tačiau tai taip pat sukelia naują stabilumo riziką, kurios nereikėtų ignoruoti. Reguliavimo sistemų reikia permąstyti, turi būti pritaikytos rizikos valdymo priemonės, o valdžios institucijos turi būti pasirengusios veikti tokiu tempu.

Tai, kaip valdžios institucijos pasirenka reaguoti, turės didelę įtaką kitos AI krizės tikimybei ir sunkumui.

Nuorodos

„Calvano“ ir „V Denicolo“, „G Calzolari“ ir „Pastorello“ (2019), „Dirbtinis intelektas, algoritminė kainodara ir slaptas susitarimas“, voxeu.org, 3 vasario mėn.

Danielsson, J, ir Uthemann (2024), „AI Financial Crizes“, voxeu.org, liepos 26 d.

Dewatripont, M ir J Tirole (1994), Bankų rizikos rizikos nustatymasT. 6, Kembridžas, MA: MIT Press.

Norvig, P ir S Russell (2021), Dirbtinis intelektas: šiuolaikinis požiūrisLondonas: Pearsonas.

Scheurer, J, M Balesni ir M Hobbhahn (2024), „Techninė ataskaita: didelių kalbos modeliai gali strategiškai apgauti savo vartotojus, kai daromas spaudimas“.



Source link

Back To Top

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -