l’analisi tecnica

AI e falsi ricordi: il problema della sicurezza nella memoria a lungo termine di ChatGPT



Indirizzo copiato

La capacità degli attaccanti di manipolare la memoria a lungo termine di ChatGPT attraverso tecniche di “prompt injection indiretta” apre scenari rilevanti per la sicurezza. Se l’AI può memorizzare informazioni false e agire basandosi su di esse, le implicazioni per chi si affida al servizio per attività mission-critical sono preoccupanti

Pubblicato il 1 ott 2024

Luca Sambucci

Esperto di AI Security, Consulente dell'Unione Europea



Vulnerabilità memoria a lungo termine ChatGPT

Un report del ricercatore di sicurezza Johann Rehberger ha evidenziato una grave vulnerabilità nel sistema di memoria a lungo termine di ChatGPT.

Continua a leggere questo articolo

Articoli correlati