Intelligenza artificiale e abusi di mercato, lo studio Consob

-
- Advertising -

La Consob ha pubblicato un interessante Quaderno giuridico sui possibili effetti dell’Intelligenza Artificiale sugli abusi di mercato.
Il lavoro si incentra sulla distinzione tra sistemi di AI deboli e sistemi di AI forti; mentre i primi dipendono dalle istruzioni prestabilite di produttori, programmatori o utenti, i secondi sono dotati di capacità di auto-apprendimento e producono outputs autonomi ed imprevedibili rispetto agli inputs iniziali.

La diffusione nel mercato finanziario di tali tecnologie, avvertita in misura maggiore nell’ambito del trading più che nell’ambito della formazione e circolazione delle informazioni privilegiate sollecita l’interprete a interrogarsi sulla tenuta del quadro normativo, con particolare riferimento all’imputazione degli illeciti finanziari realizzati con l’intervento dell’agente artificiale ed impone che si accerti, in particolare, se il Regolamento (UE) MAR sia o meno idoneo a ricomprendere le condotte illecite perfezionatesi con l’utilizzo di sistemi di intelligenza artificiale, la cui autonomia e imprevedibilità potrebbe dare luogo ad aree di non punibilità.

- Advertising -

Invero, mentre per i sistemi di AI deboli le regole giuridiche in vigore possano essere applicate estensivamente per contrastare tali condotte illecite, per i sistemi di AI forti è invece necessario adottare ex novo criteri di imputazione della responsabilità, che rendano effettivi i presidi che tutelano il regolare funzionamento degli scambi. La capacità dei sistemi di AI forti sembrerebbe incrinare l’applicazione del principio di neutralità tecnologica in sede di regolamentazione («same risk, same activity, same treatment») e il raggiungimento di un level playing field, cui tende peraltro l’intera disciplina in materia di intermediazione finanziaria.

Con l’intelligenza artificiale autonoma emergono inedite esigenze di tutela a fronte di un apparato normativo orientato unicamente sulla condotta (commissiva o omissiva) dell’uomo. Non sempre è possibile individuare, infatti, un apporto umano nella causazione di un danno, per cui la disciplina vigente non appare totalmente adeguata di fronte «ai rischi e alla rilevanza dei rischi» che le nuove modalità di trading dischiudono per la clientela in particolare e per il sistema finanziario in generale.
È stato rilevato, infatti, che i sistemi di AI forti sono in grado di manipolare il mercato, sia mediante inserimento di un quantitativo di ordini di esecuzione e cancellazione superveloci in intervalli temporali di millesimi di secondo, sia mediante dinamiche meno veloci ma comunque difficilmente comprensibili, data l’imperscrutabilità della black box algoritmica.

- Advertising -

L’eventuale consumazione di illeciti comporta conseguentemente difficoltà probatorie per l’individuazione del responsabile, l’accertamento della colpa o del dolo e la sussistenza del nesso causale. Tuttavia, specie con riguardo alle fattispecie di manipolazione operativa, le previsioni di MAR frenano (forse inconsapevolmente) l’utilizzo di sistemi di AI forti, richiedendo a tutti i soggetti che con le loro condotte incidano sul processo di formazione dei prezzi, di essere in grado di fornire le motivazioni che hanno portato alle stesse: richiesta che i sistemi di AI forti, essendo black box, non riescono paradossalmente a fornire.

Anche nella eventuale prospettiva di consentire l’utilizzo consapevole di tali sistemi, che sono potenzialmente forieri di benefici economici per la collettività, lo studio individua, in alternativa tra loro, tre possibili soluzioni dirette a reprimere le condotte dei sistemi di AI che, in modo autonomo e imprevedibile rispetto al produttore, al programmatore o all’utente, abbiano assunto comportamenti dannosi o più specificamente lesivi dell’integrità del mercato.
Tuttavia, ciascuna di queste soluzioni presenta peculiari profili di criticità a seconda dei settori dell’ordinamento che entrano in gioco in conseguenza della condotta illecita degli agenti non umani.

La prima proposta consiste nell’attribuire una soggettività giuridica ai sistemi di intelligenza artificiale più avanzati. Vanno però attentamente valutate, non solo le difficoltà insite nell’applicare la sanzione ad un agente artificiale, ma anche la circostanza che, con specifico riferimento alle sanzioni pecuniarie ed al risarcimento del danno, la configurazione di una personalità giuridica per i sistemi di AI richiederebbe in ogni caso l’individuazione dei soggetti tenuti a costituire un patrimonio separato a tal fine.

La seconda soluzione prospettata si propone di superare le difficoltà legate alla diretta attribuzione della responsabilità all’agente artificiale, riconducendo gli illeciti materialmente compiuti da quest’ultimo alla responsabilità oggettiva di colui il quale (produttore, programmatore, o financo utente), mettendo in servizio il sistema di AI, abbia creato il rischio – poi verificatosi – dell’illecito; e ciò a prescindere dalla consapevolezza di tale rischio.

La terza proposta configura un superamento del concetto stesso di responsabilità, incentrandosi essa sulla socializzazione del danno da porre a carico, non tanto del singolo individuo, quanto piuttosto della comunità nel suo insieme, con il vantaggio di non deprimere lo sviluppo dell’innovazione tecnologica e di favorire al contempo la realizzazione di un sistema economico complessivamente più efficiente.

In ambito UE una soluzione che non inibisca lo sviluppo tecnologico ma che prevenga la diffusione su larga scala di illeciti commessi dai sistemi di AI potrebbe essere quella già incorporata nella Proposta di Regolamento (UE) sull’intelligenza artificiale che cerca di contemperare l’utilizzazione dell’intelligenza artificiale con la tutela dei diritti fondamentali secondo un approccio basato sul rischio mediante la combinazione dell’applicazione del principio di precauzione e di prevenzione, rispettivamente per i sistemi di AI a rischio inaccettabile e i sistemi di AI a rischio alto.

Per imputare la responsabilità in capo a produttore, programmatore o utente non dovrebbe essere necessario che questi soggetti si rappresentino l’evento o la possibile verificazione del medesimo ma dovrebbe essere sufficiente unicamente la creazione di un rischio in grado di produrre l’evento. L’applicazione di questa regola in campo finanziario potrebbe portare ad un’estensione delle attività e dei servizi qualificabili “ad alto rischio”, tra cui potrebbe essere ricompresa anche l’attività di trading, con relativo obbligo da parte dei soggetti della filiera produttiva di osservare una serie di requisiti di conformità in mancanza dei quali sorgerebbe una responsabilità di natura amministrativa. Qualsiasi soluzione prescelta dovrà contemperare l’opportunità di non comprimere eccessivamente i margini di sviluppo tecnologico con l’esigenza di assicurare adeguati livelli di tutela del regolare funzionamento del mercato e, più in generale, la pari dignità di reintegrazione delle posizioni giuridiche lese dall’operato degli agenti artificiali.