ChatGPT Search, il motore di ricerca potenziato dall’intelligenza artificiale di OpenAI, ha mostrato una preoccupante vulnerabilità che lo rende suscettibile a manipolazioni, portando a risultati potenzialmente fuorvianti. Un’indagine condotta dal quotidiano britannico The Guardian ha evidenziato come sia possibile alterare le sintesi generate dal sistema, ignorando intenzionalmente contenuti negativi o, peggio, generando codice malevolo.
Questa funzione di ricerca, progettata per semplificare la navigazione e fornire sintesi rapide, ad esempio su recensioni di prodotti, è stata messa alla prova. Secondo l’indagine, attraverso l’utilizzo di testo nascosto in siti web appositamente creati, il sistema può essere ingannato. Questa tecnica ha consentito di produrre recensioni “esclusivamente positive” per prodotti che in realtà ricevevano valutazioni contrastanti. Inoltre, lo stesso metodo è stato sfruttato per indurre il sistema a generare codice potenzialmente pericoloso.
Sebbene gli attacchi basati su testo nascosto non siano una novità per i modelli linguistici di grandi dimensioni, questa rappresenta la prima dimostrazione di tali vulnerabilità su un prodotto di ricerca AI attivo. Google, leader del settore, ha accumulato maggiore esperienza nel gestire problemi simili, come sottolineato da The Guardian.
Nonostante la gravità della situazione, OpenAI non ha rilasciato commenti dettagliati, limitandosi a dichiarare che utilizza una serie di metodi per bloccare siti web malevoli e che sta lavorando per migliorare la sicurezza. Questo episodio evidenzia i rischi associati all’uso di modelli AI avanzati per la ricerca e la necessità di implementare misure di sicurezza AI più rigorose per proteggere l’integrità delle informazioni fornite agli utenti.
La scoperta solleva interrogativi sull’affidabilità delle sintesi generate dall’intelligenza artificiale e sui potenziali impatti per utenti e aziende. La facilità con cui è possibile manipolare i risultati di ricerca evidenzia l’urgenza di rafforzare le difese contro attacchi mirati.
L’indagine di The Guardian rappresenta un importante campanello d’allarme per l’intero settore tecnologico, che si trova a dover affrontare sfide sempre più complesse in termini di trasparenza e sicurezza nell’utilizzo dell’intelligenza artificiale nei prodotti di consumo.