Anthropic, la falla nel modello AI che preoccupa gli esperti. Tremano Amazon, Microsoft, Apple
Anthropic, azienda leader nello sviluppo di intelligenza artificiale, sta conducendo un’indagine per verificare se un gruppo di utenti abbia ottenuto un accesso non autorizzato al modello Claude Mythos.

Il sistema, rilasciato solo a un numero limitato di aziende selezionate per le sue avanzate funzionalità di sicurezza informatica, sarebbe stato potenzialmente raggiunto tramite un’infrastruttura destinata a partner terzi che collaborano con la società.
Lo ha dichiarato martedì la stessa azienda, precisando di aver avviato verifiche dopo alcune segnalazioni relative a un possibile utilizzo improprio del modello da parte di soggetti non autorizzati.
Anthropic ha infatti reso disponibile Claude Mythos Preview solo a un ristretto gruppo di aziende tecnologiche selezionate, in ragione del potenziale utilizzo del sistema per condurre attacchi informatici su scala e velocità superiori a quelle umane. Il timore che la tecnologia possa finire nelle mani sbagliate alimenta ulteriormente le preoccupazioni attorno al progetto, già al centro del dibattito tra istituzioni finanziarie e autorità di regolamentazione internazionali.
Secondo quanto riportato da Bloomberg, una delle persone coinvolte avrebbe sfruttato le proprie credenziali di collaboratore esterno per Anthropic per accedere al sistema. L’azienda ha comunque precisato di non aver rilevato evidenze di attività al di fuori dell’ambiente del fornitore, utilizzato da terze parti per lo sviluppo e il test dei modelli.
L’impiego di appaltatori esterni per attività di collaudo è una pratica comune nel settore dell’intelligenza artificiale, anche se al momento non è stato reso noto quale fornitore sia coinvolto nell’incidente.
Claude Mythos è stato lanciato all’inizio del mese ed è destinato a grandi aziende tecnologiche tra cui Amazon, Microsoft, Apple, Cisco e CrowdStrike.






VIDEO INTERVISTE
Motori
REAL ESTATE
LMF crypto
LMF food
LMF private markets
LMF arte
Legal
LMF green