L’intelligenza artificiale generativa, capace di comprendere e agire in base alle nostre richieste, sta diventando sempre più avanzata. Le versioni future di ChatGPT, Gemini, Meta AI e altre, saranno in grado di memorizzare informazioni dettagliate, interpretare foto e video al volo, e integrarsi con il web, potenzialmente sostituendo i motori di ricerca in molte applicazioni. Secondo Marco Preuss, direttore europeo del Great di Kaspersky, nei prossimi cinque anni, le AI diventeranno così avanzate da essere parte integrante della nostra vita quotidiana. Dotate di videocamera, altoparlante e capacità di interpretare richieste vocali, queste AI personali saranno connesse a tutti i nostri servizi digitali, organizzando appuntamenti, gestendo bollette e rispondendo alle email.
Lo Sviluppo dell’AI: Opportunità e Rischi
Preuss vede lo sviluppo dell’AI come sbilanciato a favore dei grandi colossi tecnologici. “Dovrebbe essere una tecnologia quanto più democratica possibile, ma gli investimenti necessari e la difficoltà nel reperire l’hardware necessario la stanno rendendo disponibile solo a pochi,” afferma. Nonostante l’IA generativa abbia guadagnato rapidamente popolarità, la sua integrazione tra diversi ecosistemi richiederà anni. Questo ritardo offre ai cybercriminali il tempo per prepararsi a nuovi tipi di attacchi, più personali e mirati. Preuss ritiene che i criminali informatici sfrutteranno la nostra crescente dipendenza dalle AI personali per estorcere denaro, simile a quanto avviene oggi con il ransomware.
Minacce Future: Ricatti e Attacchi Personalizzati
Preuss spiega che i criminali potrebbero utilizzare le AI personali per estorcere denaro, bloccando l’accesso ai servizi digitali vitali. “Quando sei dipendente da un servizio, vuoi potervi accedere sempre. Se i criminali riescono a bloccarlo, sarai disposto a pagare,” dice. Oltre ai ricatti basati sul blocco dei servizi, potrebbero verificarsi estorsioni tramite furto di dati, con criminali che utilizzano informazioni compromettenti per minacciare le vittime. Un altro rischio è rappresentato dai deepfake, che i criminali potrebbero creare utilizzando dati rubati dalle AI personali. Questi falsi sofisticati potrebbero essere utilizzati per truffe, furto di identità o accesso non autorizzato a informazioni sensibili.
Sicurezza By Design: Una Necessità Imminente
Preuss critica le aziende tecnologiche per la loro lentezza nell’apprendere dalle esperienze passate in materia di sicurezza. Nonostante anni di discussioni sulla sicurezza “by design”, molte aziende continuano a lanciare prodotti con vulnerabilità significative. Un esempio recente è il dietrofront di Microsoft su Copilot + Recall, causato da un problema di sicurezza. “Progettare la sicurezza dall’inizio nello sviluppo di un prodotto costa denaro, ma soprattutto ne allunga i tempi di produzione. Questo spinge le aziende a prendere delle scorciatoie di cui, poi, si pentono,” osserva Preuss. La speranza è che, questa volta, le aziende comprendano l’importanza di implementare la sicurezza fin dall’inizio per proteggere i dati personali degli utenti.
Conclusioni: Un Futuro di Opportunità e Rischi
L’adozione di AI personali promette di rivoluzionare la nostra vita quotidiana, offrendo una comodità senza precedenti. Tuttavia, questa rivoluzione comporta anche rischi significativi. La sicurezza delle AI personali deve essere una priorità per evitare che diventino strumenti di cybercriminali. Marco Preuss ci avverte che, sebbene l’AI offra enormi potenzialità, è fondamentale che venga sviluppata e implementata con un’attenzione rigorosa alla sicurezza. Solo così potremo beneficiare appieno delle sue capacità senza esporci a pericoli inutili. Le AI personali rappresentano il futuro, ma devono essere sicure per essere davvero utili e affidabili.