0 Comments

OpenAI a recunoscut că atacurile prin care agenții de inteligență artificială sunt manipulați să execute instrucțiuni malițioase ascunse în pagini web sau e-mailuri reprezintă un risc de securitate care nu va putea fi eliminat complet, în ciuda eforturilor continue de protecție.

Într-o postare publicată luni pe blogul companiei, OpenAI a comparat acest tip de atacuri cu fraudele și ingineria socială de pe internet. Compania afirmă că acestea „nu vor fi probabil niciodată rezolvate în totalitate”.

Compania a admis totodată că funcția de „agent mode” a browserului său AI, ChatGPT Atlas, „extinde suprafața de atac” din punct de vedere al securității.

ChatGPT Atlas a fost lansat în octombrie. La scurt timp, cercetătorii în securitate au demonstrat că pot influența comportamentul browserului prin instrucțiuni ascunse în documente sau pagini aparent inofensive.

OpenAI: testare și reacție

Pentru a limita riscurile, OpenAI spune că adoptă o strategie de testare continuă și reacție rapidă. Un element-cheie este dezvoltarea unui „atacator automatizat” bazat pe modele lingvistice mari (LLM), antrenat prin învățare prin recompensă să joace rolul unui hacker. … Citeste Intreg Articolul

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Related Posts