Riscuri de la AI în consumabile software: nivel de alarmă roșu pentru companii!

Riscuri de la AI în consumabile software: nivel de alarmă roșu pentru companii!

Könnte nicht extrahiert werden, da der Text keine Adresse oder einen spezifischen Ort des Vorfalls enthält. - În lumea tehnologiei cu mișcare rapidă, securitatea este un subiect constant. Având în vedere răspândirea din ce în ce mai mare a inteligenței artificiale (AI) și a evoluțiilor progresive în industria software, devine din ce în ce mai dificilă gestionarea riscurilor. O scrisoare deschisă de la Patrick Opet, CISO de la JPMorgan Chase, ilustrează problemele de securitate presante din industrie. Subliniază că 30% din încălcările de securitate sunt cauzate de componente terțe în 2025, ceea ce reprezintă dublarea îngrijorătoare în comparație cu anul precedent. Numerele provin din Raportul de investigare a încălcării datelor Verizon 2025 și arată cât de important este să vă concentrați pe strategiile de siguranță care includ și interfețe externe.

În această eră digitală, AI se dezvoltă rapid în dezvoltarea de software. Conform estimărilor de marcă de nisip de piață, sectorul de codificare AI va crește de la USD de la aproximativ 4 miliarde de dolari la aproape 13 miliarde de dolari până în 2028. În acest moment, totuși, devine clar că câștigurile de eficiență pe care AI le poate oferi nu vor fi fără riscuri noi. Instrumente AI, cum ar fi Github Copilot și Amazon Q Dezvoltator, ajută dezvoltatorii, dar nu au judecată umană și pot reutiliza slăbiciunile istorice ale depozitelor de cod. Cyberscoop avertizează că aceste instrumente sunt instrumente de securitate clasice copleșitoare, cum ar fi Sast, DAS și SCA și nu sunt concepute pentru amenințări specifice AI.

riscuri în lanțul de aprovizionare software

Dar cum arată situația în lanțurile de aprovizionare software? Organizațiile care utilizează AI generative trebuie să-și adapteze strategiile de securitate cibernetică pentru a identifica riscurile neașteptate într-o etapă timpurie, raportează Alliance de securitate în cloud . Rămâneți nedetectați

Odată cu integrarea AI în procesele software, zona de atac crește. Modelele AI testate inadecvate pot genera cheltuieli incorecte care se dovedesc a fi un risc de securitate. Security Insider subliniază faptul că este un lucru pe care și îl asigură și se asigură că este un alt software componentă. Doar aproximativ 43% dintre companii efectuează scanări de securitate la nivel de cod și binar, ceea ce nu numai că ignoră riscurile potențiale, dar le consolidează și mai mult.

Strategii pentru reducerea riscurilor

Ce trebuie făcut? Organizațiile sunt obligate să își revizuiască fundamental strategiile de securitate și să le adapteze la noile provocări. Aceasta include verificarea integrității modelelor AI, validarea componentelor propuse de AI, precum și procesele de monitorizare care pot recunoaște potențialele intoxicații la date. Zonele de securitate cibernetică și dezvoltare software trebuie să fie legate mai îndeaproape pentru a îndeplini cerințele unui peisaj de amenințare în schimbare.

Un program de securitate cibernetică ar trebui să includă provocări viitoare, de exemplu prin autentificarea multi-factor și prin gestionarea continuă a expunerii la amenințări (CTEM). Implementarea unei arhitecturi de încredere zero ar putea servi ca un mecanism de protecție suplimentar. Echipele de securitate trebuie să își asume responsabilitatea pentru întregul lanț de aprovizionare software pentru a preveni atacurile asupra activelor din amonte și pentru a asigura integritatea datelor utilizate.

Integrarea AI în procesul de dezvoltare este inevitabilă. Cu toate acestea, provocarea este de a se asigura că aceste tehnologii sunt utilizate în siguranță și eficient - deoarece o revoluție tehnică fără securitate poate deveni rapid un mare pericol.

Details
OrtKönnte nicht extrahiert werden, da der Text keine Adresse oder einen spezifischen Ort des Vorfalls enthält.
Quellen

Kommentare (0)