Pentru a obține rezultate cât mai bune de la Inteligența Artificială, unii utilizatori îi cer să se comporte ca un expert. Alții îi solicită să adopte un anumit rol, de exemplu cel de supraveghetor de siguranță, pentru a-și ghida răspunsurile.
Totuși, potrivit unui nou studiu, dacă îi ceri AI-ului să se comporte ca un expert, acest lucru îi poate afecta uneori performanța.
Studiul este publicat pe platforma arXiv.
Pentru a testa cât de bine se descurcă modelele lingvistice mari (LLM) atunci când li se cere să „joace” un rol, cercetători de la Universitatea din California (SUA) au realizat un experiment amplu, folosind 12 tipuri diferite de „personaje” pe șase modele de limbaj. Printre acestea s-au numărat experți în domenii precum matematica, programarea sau STEM (știință, tehnologie, inginerie și matematică), dar și roluri generale, precum scriitor creativ sau responsabil de siguranță.
Dacă îi ceri AI-ului să se comporte ca un expert, acest lucru îi poate afecta performanța
Rezultatele au arătat că adoptarea unei identități este, într-un fel, o sabie cu două tăișuri. Pe de o parte, face ca AI-ul să pară mai profesionist și mai sigur (respectând mai bine regulile și evitând conținutul problematic). Pe de altă parte, poate afecta capacitatea acestuia de a-și aminti corect informațiile.
Cercetătorii explică acest lucru prin faptul că, atunci când este forțat să adopte un rol, AI-ul intră mai degrabă într-un mod de urmare a instrucțiunilor decât într-un mod de recuperare a cunoștințelor. Pentru a rezolva această problemă, echipa a dezvoltat PRISM (Persona Routing via Intent-based Self-Modeling), o metodă de antrenare care învață modelul când să folosească un rol și când nu.
În practică, atunci când primește o întrebare, PRISM generează atât un răspuns „neutru”, cât și unul formulat din perspectiva unui rol, le compară și decide care variantă este mai potrivită pentru utilizator….. Citește Întreg Articolul