L’inarrestabile ascesa di DeepSeek suscita ancora perplessità negli esperti di sicurezza.
Sicuramente ne hai già sentito parlare: è un’intelligenza artificiale creata in Cina da una startup fondata nel 2023 da Liang Wenfeng, con un budget molto basso. Nonostante ciò, il suo modello, chiamato DeepSeek-R1, ha avuto un grandissimo successo, che sta facendo discutere il mondo della tecnologia, perché dimostra che l’intelligenza artificiale può essere potente anche con meno risorse economiche e tecnologiche. Per sapere di più riguardo a la nuova intelligenza artificiale DeepSeek, puoi guardare questo video.
Tuttavia, la startup di intelligenza artificiale Anthropic ha evidenziato che l’AI cinese presenta delle debolezze nei controlli di sicurezza: utilizzando dei particolari prompt, gli esperti hanno messo alla prova il modello, che è “caduto nella trappola” ed ha fornito delle risposte con delle informazioni dettagliate, come ad esempio le istruzioni per produrre armi biologiche!
Questi test di sicurezza sono volti a calcolare il “attack success rate” (“tasso di successo dell’attacco”) e comprendere quante probabilità ci sono di ricevere delle risposte contenenti argomenti sensibili, pericolosi o dannosi. L’attack success rate di DeepSeek è del 100%. Non va molto meglio in casa OpenAI, tuttavia, in quanto l’attack success rate di ChatGPT è dell’86%. Sicuramente molto meno, ma ancora un dato preoccupante.