OpenAI si oppone all’ordine di consegnare milioni di conversazioni di ChatGPT – il commento di Check Point
“La tutela dei dati non si esaurisce nella cifratura dei log, sia durante la trasmissione sia nello storage. È determinata anche dalle politiche di conservazione e dal contesto legale che può trasformarli in una fonte di rischio strutturale.
Le organizzazioni che adottano servizi basati sull’intelligenza artificiale devono valutare con attenzione non solo le capacità tecniche dei fornitori, ma anche il loro modello di governance, il quadro di responsabilità e le implicazioni legate alla gestione dei log.
L’episodio dimostra un punto essenziale: integrare sistemi di AI nei processi aziendali significa interrogarsi sul ciclo di vita delle conversazioni, su chi possa accedervi, su quali condizioni ne consentano la divulgazione e su come il fornitore affronti l’anonimizzazione e la mitigazione del rischio legale. Solo così è possibile sviluppare un programma di privacy realmente robusto.
In Check Point riteniamo che, con l’ampliarsi dell’adozione dell’AI nelle attività operative, le imprese debbano adottare un approccio multilivello: protezione degli endpoint dei servizi di AI, politiche chiare di gestione dei dati – inclusi conservazione e cancellazione dei log – valutazioni strutturate dei rischi dei fornitori e monitoraggio continuo dell’evoluzione normativa.
Il caso OpenAI conferma in modo tangibile che questi aspetti non sono più scenari teorici, ma elementi critici di una moderna sicurezza.”

LMF green
Mente e denaro
Sala Stampa