E se la prossima crisi finanziaria fosse causata dall’intelligenza artificiale?


Yuval Noah Harari, autore e storico israeliano (uno dei principali ispiratori del Wef di Davos) afferma che l’in telligenza artificiale ha il potenziale per causare una crisi finanziaria “catastrofica”. E lo fa facendo seguito alle affermazioni del capo della Sec (Securities and Exchange Commission degli Stati Uniti) Gary Gensler, che a fine ottobre aveva già avvertito che il crescente utilizzo dei sistemi di intelligenza artificiale quasi sicuramente farà crollare i mercati finanziari ad un certo punto nel prossimo decennio. Gensler ha detto al Financial Times che con l’attuale sviluppo dell’Ia un simile incidente è “quasi inevitabile” a meno che i regolatori non intervengano per controllare come viene utilizzata la tecnologia. Ha detto che non sarebbe la prima volta che i computer giocano allegramente ai mercati finanziari, come il flash crash del 2010 che ha spazzato via per un breve periodo quasi un trilione di dollari. Un commerciante britannico è stato accusato di aver causato il problema con ordini fasulli, che hanno poi innescato la vendita automatizzata di azioni prima che intervenissero gli esseri umani. Per evitare la prossima crisi, Gensler vuole che la Sec e altri regolatori americani diano un’occhiata al potenziale di un codice che induce un crash. Ma si tratta di un settore nuovo e incerto e lui teme che i progressi possano essere difficili: “È un problema di stabilità finanziaria difficile da affrontare perché la maggior parte della nostra regolamentazione riguarda singoli istituti, singole banche, singoli fondi del mercato monetario, singoli broker; è proprio nella natura di ciò che facciamo”. Tuttavia, Wall Street abbraccia l’intelligenza artificiale nonostante i rischi di catastrofe. A Wall Street, la corsa agli armamenti legati all’intelligenza artificiale si sta surriscaldando. Vanguard sta già utilizzando l’intelligenza artificiale per generare portafogli pensionistici. Morgan Stanley ha lanciato un assistente basato su ChatGpt per consulenti finanziari, affermando che l’intelligenza artificiale “rivoluzionerebbe le interazioni con i clienti”. JPMorgan Chase ha depositato un brevetto per un prodotto chiamato “IndexGPT” per aiutare i trader a decidere dove investire. L’intelligenza artificiale si sta già diffondendo in “ogni angolo delle banche”, compresi gli aspetti legali, le frodi, la sicurezza informatica, il commercio, i prestiti, i sinistri e persino la gestione della posta elettronica, sostiene Alexandra Mousavizadeh, un’economista che gestisce Evident “con sede a Londra, che analizza l’adozione dell'intelligenza artificiale nella comunità finanziaria.

L’entusiasmo di Wall Street

Wall Street - e le grandi banche statunitensi in particolare - hanno mostrato “enorme entusiasmo” e “nessuna reticenza” quando si tratta di intelligenza artificiale. E questo spiega anche la corsa ad assumere persone con esperienza con la tecnologia Ai: “Oggi non c’è lavoro in banca che non sia toccato dall’intelligenza artificiale. È solo questione di tempo prima che Wall Street ceda le redini a un sistema di intelligenza artificiale. Yuval Noah Harari, parimenti, afferma che la sofisticazione dell’intelligenza artificiale rende difficile prevedere i pericoli futuri poiché non esiste uno “scenario grande e pericoloso” che tutti comprendano, a differenza di quando si testano le armi nucleari. L’autore del Sapiens sostiene che ciò potrebbe causare una potenziale crisi finanziaria con “conse guenze catastrofiche”. Giorni fa si è tenuto a Bletchley Park il vertice globale sulla sicurezza dell’intelligenza artificiale, in cui i principali governi si sono riuniti e hanno fatto una dichiarazione multilaterale per fare qualcosa riguardo alle preoccupazioni che nutrono sull’intelli genza artificiale. “Penso che sia stato un segnale molto positivo”, afferma Harari, “Senza la cooperazione globale, sarà estremamente difficile, se non impossibile, tenere a freno il potenziale più pericoloso dell’intelligenza artificiale”. È stato stipulato un accordo tra 10 governi (tra cui Regno Unito e Stati Uniti, ma non la Cina), l’Ue e le principali società di intelligenza artificiale (tra cui lo sviluppatore di ChatGPT OpenAI e Google) per testare i futuri modelli di intelligenza artificiale prima e dopo il loro rilascio. Anche con i test di sicurezza, prevedere tutti i problemi che potrebbero sorgere sarebbe quasi impossibile. “Perché è la prima tecnologia che può prendere decisioni da sola, che può creare nuove idee da sola e che può apprendere e svilupparsi da sola” afferma Harari. Il settore finanziario potrebbe essere adatto all’ado zione di sistemi di intelligenza artificiale perché “sono solo dati”, ma Harari è preoccupato del fatto che le possa venir affidato un maggiore controllo sui sistemi finanziari del mondo e sul suo potenziale di creare sistemi che solo l’intelligenza artificiale può comprendere. Per questo Harari aggiunge il suo nome a coloro che chiedono una pausa di sei mesi nello sviluppo avanzato dell’intelligen za artificiale e rendono le aziende tecnologiche responsabili per eventuali danni che i loro prodotti potrebbero causare. Secondo lui l’attenzione dovrebbe spostarsi dalla creazione di regolamenti e leggi specifici che potrebbero risultare obsoleti nel momento in cui passeranno al parlamento (o al congresso) alla comprensione della tecnologia e alla capacità di reagire rapidamente alle nuove scoperte, legiferando in anticipo. Harari conclude sostenendo che una crisi finanziaria creata dall’intelligenza artificiale non distruggerebbe la civiltà umana – “almeno non direttamente”. Ha aggiunto: “Po trebbe, indirettamente, se innescasse certi tipi di guerre o conflitti. È un rischio catastrofico – economico, sociale, politico – ma di per sé non lo descriverei come esistenziale”Se le principali banche di investimento come JPMorgan Chase & Co. o Goldman Sachs Group Inc. che implementano tecniche di trading basate sull’intel ligenza artificiale andassero in tilt e perdessero centinaia di miliardi di dollari, le ripercussioni potrebbero rapidamente propagarsi al resto dell’economia. La crisi sarebbe inevitabilmente globale. Eppure le agenzie di investimento non ci rinunciano. Le capacità di trading rese possibili dall’intelligenza artificiale esistono da tempo e alcuni dei risultati delle aziende che abbracciano questa tecnologia nel trading sono stati davvero fantastici per i gestori. L’hedge fund del matematico Jim Simons, il Medallion Fund di Renaissance Technologies, attacca il mercato utilizzando tecniche di trading quantitativo alimentate da enormi quantità di dati e trading algoritmico. Tra il 1988 e il 2018, il Medallion Fund ha reso il 63,3% annuo. Un rendimento spettacolare. Anche Bridgewater Associates, il più grande hedge fund del mondo, utilizza complesse regole algoritmiche come base per molte delle sue decisioni di investimento. Regolarle è certamente complesso. Il mese scorso, sia il Regno Unito che la Casa Bianca hanno annunciato l’intenzione di istituire dei Safety Institutes per svolgere un ruolo chiave nel testare modelli avanzati di intelligenza artificiale. Già un articolo dello scorso 30 giugno 2023 pubblicato su UsNews rilanciava il problema. Gensler era infatti apertamente preoccupato fin dallo scorso maggio per il potenziale dell’intelli genza artificiale di indurre una crisi finanziaria. Altre minacce credibili incombono, come la violazione della crittografia (pensiamo all’online banking, all’e-commerce, alla messaggistica e a numerose attività quotidiane); a notizie false e rischio deepfake; a tentativi di phishing di massa; a sistemi di trading Ai suscettibili a errori o bug che, se non adeguatamente identificati e controllati, “possono portare a decisioni di trading errate che teoricamente potrebbero trasformarsi in un flash crash o contagio” commenta Michael Ashley Schulman, partner e chief investment officer di Running Point Capital Advisors, una società di gestione patrimoniale multifamiliare.

Raffaella Vitulano




Commenti

Post più popolari