Pe scurt
- Oficialii americani au avertizat băncile majore despre riscurile de securitate cibernetică legate de modelul AI Mythos de la Anthropic, raportează Bloomberg.
- Se raportează că sistemul poate identifica și exploata vulnerabilități în sistemele de operare și browsere.
- Anthropic a limitat accesul la model în timp ce evaluează potențialele riscuri de securitate.
Secretarul Trezoreriei SUA, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, ar fi convocat o întâlnire cu directorii executivi ai băncilor de pe Wall Street la începutul acestei săptămâni pentru a avertiza despre riscurile de securitate cibernetică legate de un nou model de inteligență artificială de la Anthropic.
Conform unui raport al Bloomberg, întâlnirea a inclus directori executivi de la Citigroup, Bank of America, Wells Fargo, Morgan Stanley și Goldman Sachs. Oficialii au discutat despre noul model AI Mythos de la Anthropic, care a stârnit recent îngrijorări ample din cauza capabilităților sale avansate aparente de securitate cibernetică.
Oficialii au convocat întâlnirea pentru a se asigura că băncile înțeleg riscurile reprezentate de sistemele capabile să identifice și să exploateze vulnerabilități software în sistemele de operare și browserele web, și pentru a încuraja instituțiile să întărească apărările împotriva potențialelor atacuri cibernetice asistate de AI care vizează infrastructura financiară.
Cercetătorii în securitate au avertizat că instrumentele capabile să descopere automat vulnerabilități ar putea accelera atât lucrările defensive de securitate, cât și hackingul rău intenționat în cazul utilizării abuzive.
Modelul Mythos de la Anthropic a apărut pentru prima dată online în martie, după ce materialele preliminare despre sistem au scăpat online, dezvăluind ceea ce compania a descris ca fiind cel mai capabil model AI al său până în prezent. În testare, sistemul ar fi găsit mii de vulnerabilități software necunoscute anterior, inclusiv defecte zero-day în sistemele de operare majore și browserele web.
Cercetătorii de la Anthropic au declarat într-un raport de la începutul acestei săptămâni că capabilitățile de descoperire a vulnerabilităților ale Mythos Preview nu au fost antrenate intenționat, ci au apărut din îmbunătățiri mai ample ale codificării, raționamentului și autonomiei modelului.
„Aceleași îmbunătățiri care fac modelul substanțial mai eficient la corectarea vulnerabilităților îl fac, de asemenea, substanțial mai eficient la exploatarea lor", a scris compania.
Din cauza acestor capabilități, Anthropic a restricționat accesul la un grup mic de organizații de securitate cibernetică.
„Având în vedere puterea capacităților sale, suntem deliberați cu privire la modul în care îl lansăm", a declarat Anthropic într-o declarație. „Conform practicii standard din industrie, lucrăm cu un grup mic de clienți cu acces timpuriu pentru a testa modelul. Considerăm acest model o schimbare majoră și cel mai capabil pe care l-am construit până în prezent."
Pentru a aborda acest risc, Anthropic testează Mythos prin Project Glasswing, o colaborare cu companii majore de tehnologie și securitate cibernetică care utilizează modelul pentru a identifica și corecta vulnerabilități în software-ul critic înainte ca atacatorii să le poată exploata.
„Project Glasswing este un punct de plecare. Nicio organizație nu poate rezolva singură aceste probleme de securitate cibernetică", a declarat compania într-o declarație. „Dezvoltatorii de AI de frontieră, alte companii software, cercetătorii în securitate, întreținătorii open-source și guvernele din întreaga lume au toate roluri esențiale de jucat."
Anthropic nu a răspuns imediat solicitării de comentarii a Decrypt.
Newsletter Daily Debrief
Începe fiecare zi cu cele mai importante știri ale momentului, plus articole originale, un podcast, videoclipuri și multe altele.
Sursă: https://decrypt.co/363927/powell-bessent-warn-banks-security-anthropic-mythos-ai







