GPT-4.1, dezvoltat de Inteligența artificială OpenAI, a oferit de asemenea detalii despre cum se poate folosi antraxul ca armă și cum se pot produce două tipuri de droguri ilegale, scrie The Guardian.
Testarea a făcut parte dintr-o colaborare neobișnuită între Inteligența artificială OpenAI și compania rivală Anthropic, fondată de foști experți OpenAI care au plecat din cauza temerilor legate de siguranță.
Inteligența artificială este folosită pentru atacuri cibernetice, trafic de droguri și de arme
Fiecare companie a testat modelele celeilalte, încercând să le determine să ofere ajutor pentru activități periculoase.
Testele nu reflectă direct comportamentul modelelor în utilizarea publică, unde se aplică filtre suplimentare de siguranță. Totuși, Anthropic a declarat că a observat „comportamente îngrijorătoare… legate de utilizări abuzive” în GPT-4o și GPT-4.1 și a subliniat că evaluările privind „alinierea” AI devin „din ce în ce mai urgente”.
Anthropic a mai dezvăluit că modelul său Claude a fost folosit într-o tentativă de extorcare la scară largă, de către operativi nord-coreeni care simulau candidaturi la joburi în companii internaționale din domeniul tehnologiei, dar și în vânzarea unor pachete de ransomware generate cu ajutorul AI, cu prețuri de până la 1.200 de dolari.
Compania a avertizat că inteligența artificială a fost „transformată în armă”, modelele fiind deja utilizate pentru atacuri cibernetice sofisticate și pentru a facilita fraude.





Curierulnational.ro
Observatornews.ro
