Cum a învățat Anthropic că Mythos era prea periculos pentru utilizarea în libertate
Compania de inteligență artificială Anthropic a fost avertizată de propriii experți că modelul Mythos ar putea să compromită sistemele de bază ale majorității computației moderne. Băncile și agențiile guvernamentale se grăbesc să evalueze amenințarea, conform bloomberg.com.
👉 Testarea intensă a modelului Mythos de către expertul Nicholas Carlini
Într-o seară caldă de februarie, în Bali, Nicholas Carlini s-a retras între evenimentele de la o nuntă, și-a deschis laptopul și a început să cauzeze daune. Anthropic PBC tocmai făcuse disponibil pentru revizuire internă un nou model de inteligență artificială, numit Mythos, iar Carlini — un cercetător de renume în domeniul AI — intenționa să vadă ce tip de probleme ar putea provoca. Anthropic îi plătește lui Carlini pentru a testa în mod stresant modelele sale AI, pentru a determina dacă hackerii le-ar putea folosi pentru spionaj, furt sau sabotaj. Din Bali, unde Carlini și soția sa participau la o nuntă indiană, el a fost uluit de ceea ce modelul putea face.