Riski no AI programmatūras piegādēs: trauksmes līmenis Sarkanais uzņēmumiem!
Riski no AI programmatūras piegādēs: trauksmes līmenis Sarkanais uzņēmumiem!
Könnte nicht extrahiert werden, da der Text keine Adresse oder einen spezifischen Ort des Vorfalls enthält. - Ātrās tehnoloģiju pārvietošanās pasaulē drošība ir pastāvīga tēma. Ņemot vērā pieaugošo mākslīgā intelekta (AI) izplatību un progresīvo attīstību programmatūras nozarē, risku pārvaldīt arvien grūtāk kļūst arvien grūtāk. Patrika Opeta atklāta vēstule, JPMorgan Chase CISO, ilustrē aktuālas drošības problēmas nozarē. Tas uzsver, ka 30% drošības pārkāpumu 2025. gadā izraisa trešo personu komponenti, kas ir satraucoši divkāršoties salīdzinājumā ar iepriekšējo gadu. Skaitļi nāk no Verizon datu pārkāpumu izmeklēšanas ziņojuma par 2025. gadu un parāda, cik svarīgi ir koncentrēties uz drošības stratēģijām, kas ietver arī ārējās saskarnes.
Šajā digitālajā laikmetā AI strauji attīstās programmatūras izstrādē. Saskaņā ar tirgus smilmarku aplēsēm, AI kodēšanas nozare pieaugs no USD no aptuveni 4 miljardiem USD līdz gandrīz 13 miljardiem USD līdz 2028. gadam. Tomēr šajā brīdī kļūst skaidrs, ka efektivitātes ieguvumi, ko AI var piedāvāt, nebūs bez jauniem riskiem. AI rīki, piemēram, Github Copilot un Amazon Q izstrādātājs, palīdz izstrādātājiem, taču tiem nav cilvēku sprieduma, un tie var atkārtoti izmantot vēsturiskas vājās puses kodu krātuvēs. cybercoop brīdina, ka šie rīki ir milzīgi klasiski drošības instrumenti, piemēram, Sast, Das un SCA un nav paredzēts AI specifiskiem draudiem.
Riski programmatūras piegādes ķēdē
Bet kā situācija izskatās programmatūras piegādes ķēdēs? Organizācijām, kas izmanto ģeneratīvu AI, ir jāpielāgo savas kiberdrošības stratēģijas, lai agrīnā stadijā identificētu negaidītus riskus, ziņojiet Ar AI integrāciju programmatūras procesos uzbrukuma apgabals palielinās. Nepietiekami pārbaudīti AI modeļi var radīt nepareizus izdevumus, kas izrādās drošības risks. drošības insider uzsvērts, ka ir jāuzņemas. komponents. Tikai aptuveni 43% uzņēmumu veic drošības skenēšanu kodeksā un binārā līmenī, kas ne tikai ignorē iespējamos riskus, bet vēl vairāk tos pastiprina. Kas būtu jādara? Organizācijām tiek prasīts pamatīgi pārskatīt savas drošības stratēģijas un pielāgot tās jaunajiem izaicinājumiem. Tas ietver AI modeļu integritātes pārbaudi, AI ierosināto komponentu validāciju, kā arī uzraudzības procesus, kas var atpazīt potenciālo saindēšanos ar datiem. Kiberdrošības un programmatūras izstrādes jomām jābūt ciešāk saistītām, lai izpildītu mainīgās draudu ainavas prasības. Kiberdrošības programmā jāiekļauj nākotnes problēmas, piemēram, izmantojot vairāku faktoru autentifikāciju un nepārtrauktu draudu iedarbības pārvaldību (CTEM). Nulles uzticības arhitektūras ieviešana varētu kalpot par papildu aizsardzības mehānismu. Drošības komandām jāuzņemas atbildība par visu programmatūras piegādes ķēdi, lai novērstu uzbrukumus augšupējiem aktīviem un nodrošinātu izmantoto datu integritāti. AI integrācija attīstības procesā ir neizbēgama. Tomēr izaicinājums ir nodrošināt, ka šīs tehnoloģijas tiek izmantotas droši un efektīvi - jo tehniskā revolūcija bez drošības var ātri kļūt par lielām briesmām. Riska samazināšanas stratēģijas
Details Ort Könnte nicht extrahiert werden, da der Text keine Adresse oder einen spezifischen Ort des Vorfalls enthält. Quellen
Kommentare (0)