Kibertəhlükəsizlik üzrə mütəxəssis generativ süni intellekt vasitələrindən istifadə edərək təhdidləri təhlil edir.

Kibertəhlükəsizlikdə generativ süni intellektdən necə istifadə etmək olar?

Giriş

Yeni məzmun və ya proqnozlar yarada bilən süni intellekt sistemləri olan generativ süni intellekt kibertəhlükəsizlikdə transformativ qüvvə kimi ortaya çıxır. OpenAI-nin GPT-4 kimi alətləri mürəkkəb məlumatları təhlil etmək və insana bənzər mətn yaratmaq qabiliyyətini nümayiş etdirib və bu da kibertəhdidlərdən qorunmaq üçün yeni yanaşmalar yaradıb. Kibertəhlükəsizlik mütəxəssisləri və sənaye sahələrində biznes qərar qəbul edənlər generativ süni intellektinin inkişaf edən hücumlara qarşı müdafiəni necə gücləndirə biləcəyini araşdırırlar. Maliyyə və səhiyyədən tutmuş pərakəndə satışa və hökumətə qədər hər sektordakı təşkilatlar generativ süni intellektinin qarşı çıxmasına kömək edə biləcəyi mürəkkəb fişinq cəhdləri, zərərli proqram təminatı və digər təhdidlərlə üzləşirlər. Bu ağ sənəddə generativ süni intellektdən kibertəhlükəsizlikdə necə istifadə oluna biləcəyini , real tətbiqləri, gələcək imkanları və tətbiq üçün vacib mülahizələri vurğulayırıq.

Generativ süni intellekt ənənəvi analitik süni intellektdən yalnız nümunələri aşkar etməklə deyil, həm də yaratmaqla - istər hücumları təlim müdafiəsi üçün simulyasiya etmək, istərsə də mürəkkəb təhlükəsizlik məlumatları üçün təbii dildə izahatlar yaratmaq olsun. Bu ikili imkan onu ikiüzlü qılınc halına gətirir: güclü yeni müdafiə vasitələri təklif edir, lakin təhdid aktyorları da bundan istifadə edə bilərlər. Növbəti bölmələrdə kibertəhlükəsizlikdə generativ süni intellekt üçün fişinq aşkarlamasının avtomatlaşdırılmasından tutmuş insidentlərə cavabın artırılmasına qədər geniş istifadə halları araşdırılır. Həmçinin, bu süni intellekt innovasiyalarının vəd etdiyi faydaları, eləcə də təşkilatların idarə etməli olduğu riskləri (məsələn, süni intellekt "hallüsinasiyaları" və ya düşmənçilik sui-istifadəsi) müzakirə edirik. Nəhayət, müəssisələrə generativ süni intellektini qiymətləndirməyə və kibertəhlükəsizlik strategiyalarına məsuliyyətlə inteqrasiya etməyə kömək etmək üçün praktiki nəticələr təqdim edirik.

Kibertəhlükəsizlikdə generativ süni intellekt: Baxış

Kibertəhlükəsizlikdə generativ süni intellekt təhlükəsizlik tapşırıqlarına kömək etmək üçün anlayışlar, tövsiyələr, kod və ya hətta sintetik məlumatlar yarada bilən süni intellekt modellərinə - çox vaxt böyük dil modellərinə və ya digər neyron şəbəkələrinə aiddir. Təmiz proqnozlaşdırıcı modellərdən fərqli olaraq, generativ süni intellekt ssenariləri simulyasiya edə və təlim məlumatlarına əsasən insan tərəfindən oxuna bilən nəticələr (məsələn, hesabatlar, xəbərdarlıqlar və ya hətta zərərli kod nümunələri) yarada bilər. Bu qabiliyyət təhdidləri əvvəlkindən daha dinamik şəkildə proqnozlaşdırmaq, aşkar etmək və onlara cavab vermək Kibertəhlükəsizlikdə generativ süni intellekt nədir? - Palo Alto Şəbəkələri ). Məsələn, generativ modellər geniş jurnalları və ya təhdid kəşfiyyatı depolarını təhlil edə və qısa xülasə və ya tövsiyə olunan hərəkət yarada bilər, demək olar ki, təhlükəsizlik qruplarına süni intellekt "köməkçisi" kimi fəaliyyət göstərə bilər.

Kibermüdafiə üçün generativ süni intellektdən istifadənin erkən tətbiqləri ümidverici olduğunu göstərdi. 2023-cü ildə Microsoft təhlükəsizlik analitikləri üçün GPT-4 ilə işləyən köməkçi olan Security Copilot Microsoft Security Copilot kibertəhlükəsizlik üçün yeni GPT-4 süni intellekt köməkçisidir | The Verge ). Analitiklər bu sistemi təbii dildə işə sala bilərlər (məsələn, "Son 24 saat ərzində baş verən bütün təhlükəsizlik hadisələrini xülasə edin" ) və köməkçi süni intellekt faydalı bir hekayə xülasəsi hazırlayacaq. Eynilə, Google-un Təhdid Kəşfiyyatı süni intellektində Google-un geniş təhdid kəşfiyyatı verilənlər bazasında söhbət axtarışını təmin etmək, şübhəli kodu tez bir zamanda təhlil etmək və zərərli proqram ovçularına kömək etmək üçün tapıntıları ümumiləşdirmək üçün Gemini adlı generativ modeldən Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Bu nümunələr potensialı göstərir: generativ süni intellekt mürəkkəb, genişmiqyaslı kibertəhlükəsizlik məlumatlarını həzm edə və anlayışları əlçatan formada təqdim edə bilər, qərar qəbuletməni sürətləndirir.

Eyni zamanda, generativ süni intellekt yüksək realistik saxta məzmun yarada bilər ki, bu da simulyasiya və təlim üçün (və təəssüf ki, sosial mühəndislik hazırlayan hücumçular üçün) bir üstünlükdür. Xüsusi istifadə hallarına keçdikcə, generativ süni intellektinin həm sintez etmək , həm də təhlil etmək onun bir çox kibertəhlükəsizlik tətbiqlərinin əsasını təşkil etdiyini görəcəyik. Aşağıda, fişinqin qarşısının alınmasından tutmuş təhlükəsiz proqram təminatının hazırlanmasına qədər hər şeyi əhatə edən əsas istifadə hallarına nəzər salırıq və hər birinin müxtəlif sahələrdə necə tətbiq olunduğuna dair nümunələr təqdim edirik.

Kibertəhlükəsizlikdə generativ süni intellektdən istifadənin əsas tətbiqləri

Şəkil: Kibertəhlükəsizlikdə generativ süni intellekt üçün əsas istifadə hallarına təhlükəsizlik qrupları üçün süni intellekt kopilotları, kod zəifliyinin təhlili, adaptiv təhdid aşkarlanması, sıfır günlük hücum simulyasiyası, gücləndirilmiş biometrik təhlükəsizlik və fişinq aşkarlanması daxildir ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ).

Fişinqin aşkarlanması və qarşısının alınması

Fişinq ən geniş yayılmış kibertəhdidlərdən biri olaraq qalır və istifadəçiləri zərərli linklərə klikləməyə və ya etimadnamələrini açıqlamağa aldadır. Generativ süni intellekt həm fişinq cəhdlərini aşkar etmək , həm də uğurlu hücumların qarşısını almaq üçün istifadəçi təlimini gücləndirmək üçün istifadə olunur. Müdafiə tərəfində süni intellekt modelləri qayda əsaslı filtrlərin qaçıra biləcəyi fişinqin incə əlamətlərini aşkar etmək üçün e-poçt məzmununu və göndərən davranışlarını təhlil edə bilər. Qanuni və saxta e-poçtların böyük məlumat dəstlərindən öyrənərək, generativ model qrammatika və orfoqrafiya artıq özünü göstərməsə belə, fırıldaqçılığı göstərən tonda, sözdə və ya kontekstdə anomaliyaları qeyd edə bilər. Əslində, Palo Alto Networks tədqiqatçıları qeyd edirlər ki, generativ süni intellekt "əks halda aşkarlanmaya biləcək fişinq e-poçtlarının incə əlamətlərini" müəyyən edə bilər və bu da təşkilatlara fırıldaqçılardan bir addım öndə olmağa kömək edir ( Kibertəhlükəsizlikdə Generativ süni intellekt nədir? - Palo Alto Networks ).

fişinq hücumlarını simulyasiya etmək üçün generativ süni intellektdən də istifadə edirlər . Məsələn, Ironscales, təşkilatın işçilərinə uyğunlaşdırılmış saxta fişinq e-poçtlarını avtomatik olaraq yaradan GPT ilə işləyən fişinq simulyasiya alətini təqdim etdi ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Bu süni intellekt tərəfindən hazırlanmış e-poçtlar ən son hücum taktikalarını əks etdirir və işçilərə fişinq məzmununu aşkarlamaqda real təcrübə verir. Bu cür fərdiləşdirilmiş təlim, hücumçuların özləri daha inandırıcı cazibələr yaratmaq üçün süni intellektdən istifadə etdikləri üçün vacibdir. Xüsusilə, generativ süni intellekt çox cilalanmış fişinq mesajları yarada bilsə də (asanlıqla pozulmuş ingilis dilinin aşkarlandığı günlər geridə qalıb), müdafiəçilər süni intellektin məğlubedilməz olmadığını aşkar etdilər. 2024-cü ildə IBM Security tədqiqatçıları insan tərəfindən yazılmış fişinq e-poçtlarını süni intellekt tərəfindən yaradılan e-poçtlarla müqayisə edən bir təcrübə apardılar və "təəccüblüdür ki, süni intellekt tərəfindən yaradılan e-poçtları düzgün qrammatikasına baxmayaraq aşkar etmək hələ də asan idi" ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ nümunələr] ). Bu, süni intellektlə birləşdirilmiş insan intuisiyasının süni intellektlə yazılmış fırıldaqçılıqlarda incə uyğunsuzluqları və ya metaməlumat siqnallarını hələ də tanıya biləcəyini göstərir.

Generativ süni intellekt fişinqdən müdafiəyə başqa yollarla da kömək edir. Modellərdən avtomatlaşdırılmış cavablar və ya filtrlər . Məsələn, süni intellekt sistemi göndərənin legitimliyini yoxlamaq üçün müəyyən sorğularla bir e-poçta cavab verə bilər və ya e-poçtun linklərini və əlavələrini qum qutusunda təhlil etmək üçün LLM-dən istifadə edə, sonra isə hər hansı bir zərərli niyyəti ümumiləşdirə bilər. NVIDIA-nın təhlükəsizlik platforması Morpheus bu sahədə süni intellektin gücünü nümayiş etdirir - e-poçtları sürətlə təhlil etmək və təsnif etmək üçün generativ NLP modellərindən istifadə edir və ənənəvi təhlükəsizlik alətləri ilə müqayisədə 21% Kibertəhlükəsizlikdə Generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ). Morpheus hətta qeyri-adi davranışları (məsələn, istifadəçinin birdən çox xarici ünvana e-poçt göndərməsi) aşkar etmək üçün istifadəçi ünsiyyət nümunələrini profilləşdirir ki, bu da fişinq e-poçtları göndərən hesabı göstərə bilər.

Praktikada, müxtəlif sahələrdəki şirkətlər sosial mühəndislik hücumları üçün e-poçt və veb trafikini süni intellektdən istifadə etməyə başlayırlar. Məsələn, maliyyə şirkətləri elektron poçt fırıldaqçılığına səbəb ola biləcək təqlid cəhdlərini aşkar etmək üçün kommunikasiyaları skan etmək üçün generativ süni intellektdən istifadə edirlər, səhiyyə işçiləri isə xəstə məlumatlarını fişinqlə əlaqəli pozuntulardan qorumaq üçün süni intellektdən istifadə edirlər. Real fişinq ssenariləri yaratmaqla və zərərli mesajların əlamətlərini müəyyən etməklə, generativ süni intellekt fişinqin qarşısının alınması strategiyalarına güclü bir təbəqə əlavə edir. Nəticə: , hücum edənlər oyunlarını təkmilləşdirmək üçün eyni texnologiyadan istifadə etsələr belə, fişinq hücumlarını daha sürətli və daha dəqiq aşkar etməyə və zərərsizləşdirməyə kömək edə bilər

Zərərli Proqram Aşkarlanması və Təhdid Təhlili

Müasir zərərli proqram təminatı daim inkişaf edir - təcavüzkarlar antivirus imzalarını keçmək üçün yeni variantlar yaradır və ya kodu qarışdırırlar. Generativ süni intellekt həm zərərli proqram təminatının aşkarlanması, həm də onun davranışını anlamaq üçün yeni üsullar təklif edir. Bir yanaşma, zərərli proqram təminatının "pis əkizləri"ni yaratmaq istifadə etməkdir: təhlükəsizlik tədqiqatçıları məlum zərərli proqram nümunəsini generativ modelə daxil edərək həmin zərərli proqramın bir çox mutasiya olunmuş variantlarını yarada bilərlər. Bunu etməklə, onlar təcavüzkarın edə biləcəyi dəyişiklikləri effektiv şəkildə gözləyirlər. Bu süni intellekt tərəfindən yaradılan variantlar daha sonra antivirus və müdaxilə aşkarlama sistemlərini öyrətmək üçün istifadə edilə bilər ki, hətta zərərli proqramın dəyişdirilmiş versiyaları da təbiətdə tanınsın ( Kibertəhlükəsizlikdə Generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ). Bu proaktiv strategiya hakerlərin aşkarlanmadan yayınmaq üçün zərərli proqramlarını bir qədər dəyişdirdiyi və müdafiəçilərin hər dəfə yeni imzalar yazmaq üçün tələsməli olduqları dövrü pozmağa kömək edir. Bir sənaye podkastında qeyd edildiyi kimi, təhlükəsizlik mütəxəssisləri indi generativ süni intellektdən "şəbəkə trafikini simulyasiya etmək və mürəkkəb hücumları təqlid edən zərərli yüklər yaratmaq" üçün istifadə edirlər, müdafiələrini tək bir nümunə əvəzinə bütün təhdidlər ailəsinə qarşı stress testi edirlər. Bu adaptiv təhdid aşkarlanması, təhlükəsizlik vasitələrinin əks halda keçəcək polimorf zərərli proqramlara qarşı daha davamlı olması deməkdir.

Aşkarlamadan əlavə, generativ süni intellekt, ənənəvi olaraq təhdid analitikləri üçün əmək tələb edən vəzifələr olan zərərli proqram təhlili və tərs mühəndisliyə , potensial zərərli kodun təbii dil xülasələrini yaratmaq üçün generativ süni intellekt modelindən (Google-un Sec-PaLM) istifadə edən Google-ın VirusTotal xüsusiyyəti olan VirusTotal Code Insight- Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Bu, əslində "təhlükəsizlik kodlaşdırmasına həsr olunmuş bir ChatGPT növüdür" və insan analitiklərinə təhdidləri anlamağa kömək etmək üçün 24/7 işləyən süni intellekt zərərli proqram analitiki kimi çıxış edir ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ nümunələr] ). Tanış olmayan skript və ya ikili kodu araşdırmaq əvəzinə, təhlükəsizlik qrupu üzvü süni intellektdən dərhal izahat ala bilər - məsələn, "Bu skript XYZ serverindən bir fayl yükləməyə və sonra zərərli proqram davranışını göstərən sistem parametrlərini dəyişdirməyə çalışır." Bu, hadisələrə reaksiyanı əhəmiyyətli dərəcədə sürətləndirir, çünki analitiklər yeni zərərli proqramları əvvəlkindən daha sürətli şəkildə çeşidləyə və anlaya bilirlər.

kütləvi məlumat dəstlərindəki zərərli proqramları müəyyən etmək üçün də istifadə olunur . Ənənəvi antivirus mühərrikləri faylları məlum imzalar üçün skan edir, lakin generativ model faylın xüsusiyyətlərini qiymətləndirə və hətta öyrənilmiş nümunələrə əsasən zərərli olub olmadığını təxmin edə bilər. Milyardlarla faylın (zərərli və zərərsiz) atributlarını təhlil edərək, AI, açıq imza olmadığı yerlərdə zərərli niyyəti aşkarlaya bilər. Məsələn, generativ model, ikili fayl yeni olsa da, davranış profili "bənzədiyi" . Bu davranışa əsaslanan aşkarlama yeni və ya sıfır günlük zərərli proqramların qarşısını almağa kömək edir. Google-un Təhdid Kəşfiyyatı AI (Chronicle/Mandiant-ın bir hissəsi), potensial zərərli kodu təhlil etmək və "təhlükəsizlik mütəxəssislərinə zərərli proqram və digər təhdidlərlə mübarizədə daha səmərəli və effektiv şəkildə kömək etmək" üçün generativ modelindən istifadə etdiyi bildirilir. ( Generativ AI Kibertəhlükəsizlikdə Necə İstifadə Edə Bilər? 10 Real Dünya Nümunəsi ).

Digər tərəfdən, təcavüzkarların burada da generativ süni intellektdən istifadə edə biləcəyini - avtomatik olaraq özünü uyğunlaşdıran zərərli proqram təminatı yarada biləcəyini qəbul etməliyik. Əslində, təhlükəsizlik mütəxəssisləri xəbərdarlıq edirlər ki, aşkarlanması daha çətin olan zərərli proqram təminatı hazırlamağa kömək edə bilər Kibertəhlükəsizlikdə generativ süni intellekt nədir? - Palo Alto Networks ). Süni intellekt modelinə bütün məlum antivirus yoxlamalarından yayınana qədər zərərli proqram təminatının bir hissəsini dəfələrlə morflaşdırmaq (fayl strukturunu, şifrələmə metodlarını və s. dəyişdirmək) tapşırıla bilər. Bu düşmənçilik istifadəsi artan bir narahatlıqdır (bəzən "Süni intellektlə işləyən zərərli proqram" və ya xidmət kimi polimorfik zərərli proqram adlandırılır). Bu cür riskləri daha sonra müzakirə edəcəyik, lakin bu, generativ süni intellektin həm müdafiəçilər, həm də təcavüzkarlar tərəfindən istifadə edilən bu pişik-siçan oyununda bir vasitə olduğunu vurğulayır.

hücumçu kimi düşünməyə imkan verərək zərərli proqram təminatının müdafiəsini gücləndirir - yeni təhdidlər və həllər yaradır. İstər aşkarlama nisbətlərini artırmaq üçün sintetik zərərli proqram təminatı istehsal etsin, istərsə də şəbəkələrdə tapılan real zərərli proqram təminatını izah etmək və ehtiva etmək üçün süni intellektdən istifadə etsin, bu üsullar bütün sahələrdə tətbiq olunur. Bank elektron cədvəldəki şübhəli makronu tez bir zamanda təhlil etmək üçün süni intellektlə idarə olunan zərərli proqram təhlilindən istifadə edə bilər, istehsal şirkəti isə sənaye nəzarət sistemlərini hədəf alan zərərli proqram təminatını aşkar etmək üçün süni intellektdən istifadə edə bilər. Ənənəvi zərərli proqram təhlilini generativ süni intellektlə gücləndirməklə təşkilatlar zərərli proqram kampaniyalarına əvvəlkindən daha sürətli və daha proaktiv şəkildə cavab verə bilərlər.

Təhdid Kəşfiyyatı və Avtomatlaşdırma Təhlili

Hər gün təşkilatlar təhdid kəşfiyyatı məlumatları ilə bombardman edilir - yeni aşkar edilmiş güzəşt göstəricilərinin (IOC) yayımlarından tutmuş yeni haker taktikaları haqqında analitik hesabatlarına qədər. Təhlükəsizlik qrupları üçün çətinlik bu məlumat axınını süzmək və praktiki məlumatlar əldə etməkdir. Generativ süni intellekt təhdid kəşfiyyatı təhlili və istehlakının avtomatlaşdırılmasında . Onlarla hesabatı və ya verilənlər bazası girişlərini əl ilə oxumaq əvəzinə, analitiklər süni intellektdən istifadə edərək təhdid kəşfiyyatını maşın sürətində ümumiləşdirə və kontekstləşdirə bilərlər.

Konkret nümunələrdən biri, Google-ın Mandiant və VirusTotal-dan olan təhdid məlumatları ilə generativ süni intellektini (Gemini modeli) inteqrasiya edən Google- Threat Intelligence , istifadəçilərə təhdidlər haqqında təbii suallar verməyə və saxta cavablar almağa imkan verən "Google-ın geniş təhdid kəşfiyyatı anbarında söhbət axtarışı" Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Məsələn, bir analitik soruşa bilər: "Threat Group X ilə əlaqəli hər hansı bir zərərli proqram sənayemizi hədəf alan bir şey gördükmü?" və süni intellekt müvafiq məlumatı toplayacaq, bəlkə də qeyd edəcək: "Bəli, Threat Group X ötən ay Y zərərli proqramından istifadə edərək fişinq kampaniyası ilə əlaqələndirilib" və həmin zərərli proqramın davranışının xülasəsi. Bu, əks halda birdən çox alətə sorğu göndərməyi və ya uzun hesabatları oxumağı tələb edəcək məlumatlar toplamaq üçün vaxtı kəskin şəkildə azaldır.

təhlükə trendlərini əlaqələndirə və ümumiləşdirə bilər . O, minlərlə təhlükəsizlik bloq yazısını, sızma xəbərlərini və qaranlıq veb söhbətlərini araşdıra və sonra CISO-nun brifinqi üçün "bu həftənin ən yaxşı kiber təhdidləri"nin icra xülasəsini yarada bilər. Ənənəvi olaraq, bu səviyyədə təhlil və hesabat əhəmiyyətli insan səyi tələb edirdi; indi yaxşı tənzimlənmiş bir model onu saniyələr ərzində hazırlaya bilər, insanlar isə yalnız nəticəni təkmilləşdirirlər. ZeroFox kimi şirkətlər zərərli məzmun və fişinq məlumatları da daxil olmaqla , "böyük məlumat dəstləri arasında kəşfiyyatın təhlilini və ümumiləşdirilməsini sürətləndirmək" üçün xüsusi olaraq hazırlanmış generativ süni intellekt aləti olan FoxGPT-ni Generativ süni intellekt kibertəhlükəsizlikdə necə istifadə edilə bilər? 10 real dünya nümunəsi ). Məlumatların oxunması və çarpaz istinad edilməsinin ağır yükünü avtomatlaşdırmaqla süni intellekt təhdid kəşfiyyat qruplarına qərar qəbuletmə və cavab tədbirlərinə diqqət yetirməyə imkan verir.

Başqa bir istifadə halı söhbət təhdid axtarışıdır . Təsəvvür edin ki, təhlükəsizlik analitiki süni intellekt köməkçisi ilə qarşılıqlı əlaqədədir: “Son 48 saat ərzində məlumatların sızdırılması əlamətlərini mənə göstərin” və ya “Hücumçuların bu həftə istifadə etdiyi ən yeni zəifliklər hansılardır?” Süni intellekt sorğunu şərh edə, daxili qeydləri və ya xarici kəşfiyyat mənbələrini axtara və aydın cavab və ya hətta müvafiq hadisələrin siyahısı ilə cavab verə bilər. Bu, uzaqgörən deyil - müasir təhlükəsizlik məlumatları və hadisələrin idarə edilməsi (SIEM) sistemləri təbii dil sorğularını daxil etməyə başlayır. Məsələn, IBM-in QRadar təhlükəsizlik dəsti, analitiklərin hadisənin “[…] ümumiləşdirilmiş hücum yolu ilə bağlı konkret suallar verməsinə” “yüksək dərəcədə müvafiq təhdid kəşfiyyatını şərh edə və ümumiləşdirə” ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Əsasən, generativ süni intellekt texniki məlumatların dağlarını tələb üzrə söhbət ölçülü anlayışlara çevirir.

Bütün sənaye sahələrində bunun böyük nəticələri var. Səhiyyə xidməti göstərən şəxs, analitiki tam ştatlı tədqiqata həsr etmədən, xəstəxanaları hədəf alan ən son ransomware qrupları haqqında məlumatlı olmaq üçün süni intellektdən istifadə edə bilər. Pərakəndə satış şirkətinin SOC-u, mağaza İT işçilərinə brifinq verərkən yeni POS zərərli proqram taktikalarını tez bir zamanda ümumiləşdirə bilər. Müxtəlif agentliklərdən gələn təhdid məlumatlarının sintez edilməli olduğu hökumətdə isə süni intellekt əsas xəbərdarlıqları vurğulayan vahid hesabatlar hazırlaya bilər. Təhdid kəşfiyyatının toplanmasını və təfsirini avtomatlaşdırmaqla , generativ süni intellekt təşkilatların ortaya çıxan təhdidlərə daha sürətli reaksiya verməsinə kömək edir və səs-küydə gizlənmiş kritik xəbərdarlıqları qaçırma riskini azaldır.

Təhlükəsizlik Əməliyyatları Mərkəzinin (SOC) Optimallaşdırılması

Təhlükəsizlik Əməliyyatları Mərkəzləri xəbərdarlıq yorğunluğu və çoxlu məlumat həcmi ilə məşhurdur. Tipik bir SOC analitiki hər gün minlərlə xəbərdarlıq və hadisəni araşdıraraq potensial hadisələri araşdıra bilər. Generativ süni intellekt, gündəlik işləri avtomatlaşdırmaqla, ağıllı xülasələr təqdim etməklə və hətta bəzi cavabları təşkil etməklə SOC-larda güc vurucusu kimi çıxış edir. Məqsəd, insan analitiklərinin ən vacib məsələlərə diqqət yetirə bilməsi, süni intellekt ikinci pilotunun isə qalanlarını idarə etməsi üçün SOC iş axınlarını optimallaşdırmaqdır.

"Analitikin Kopilotu" kimi istifadə etməkdir . Daha əvvəl qeyd edildiyi kimi, Microsoft-un Təhlükəsizlik Kopilotu buna nümunədir: o, "təhlükəsizlik analitikinin işini əvəz etmək əvəzinə, ona kömək etmək üçün hazırlanmışdır", hadisə araşdırmalarına və hesabatlarına kömək edir ( Microsoft Security Copilot kibertəhlükəsizlik üçün yeni GPT-4 süni intellekt köməkçisidir | The Verge ). Praktikada bu o deməkdir ki, analitik xam məlumatları - firewall qeydlərini, hadisə zaman xəttini və ya hadisə təsvirini - daxil edə və süni intellektdən onu təhlil etməsini və ya ümumiləşdirməsini istəyə bilər. Kopilot "Görünür, saat 2:35-də IP X-dən şübhəli giriş Y Serverində uğurlu olub, ardınca qeyri-adi məlumat ötürülməsi baş verib ki, bu da həmin serverin potensial pozuntusunu göstərir" kimi bir hekayə çıxara bilər. Bu cür dərhal kontekstləşdirmə vaxt vacib olduqda əvəzsizdir.

Süni intellektlə işləyən ikinci dərəcəli sistemlər həmçinin 1-ci səviyyəli çeşidləmə yükünü azaltmağa kömək edir. Sənaye məlumatlarına görə, təhlükəsizlik qrupu həftədə 15 saat təxminən 22.000 xəbərdarlıq və yalançı pozitivləri çeşidləməyə sərf edə bilər ( Kibertəhlükəsizlikdə Generativ Süni İntellekt üçün 6 İstifadə Halları [+ Nümunələr] ). Generativ Süni İntellektlə bu xəbərdarlıqların çoxu avtomatik olaraq çeşidlənə bilər - süni intellekt açıq şəkildə zərərsiz olanları (məsləhət verilməklə) rədd edə və həqiqətən diqqətə ehtiyacı olanları vurğulaya, bəzən hətta prioriteti təklif edə bilər. Əslində, generativ süni intellektlə işləyən sistemlərin konteksti anlamaqdakı gücü, təcrid olunmuş şəkildə zərərsiz görünə bilən, lakin birlikdə çoxmərhələli hücumu göstərən xəbərdarlıqları çarpaz əlaqələndirə bilməsi deməkdir. Bu, "xəbərdarlıq yorğunluğu" səbəbindən hücumu qaçırma ehtimalını azaldır.

SOC analitikləri də ov və araşdırmaları sürətləndirmək üçün süni intellektlə təbii dildən istifadə edirlər. Məsələn, SentinelOne-un Purple AI platforması LLM əsaslı interfeysi real vaxt təhlükəsizlik məlumatları ilə birləşdirir və analitiklərə "mürəkkəb təhdid axtarışı suallarını sadə ingilis dilində verməyə və sürətli, dəqiq cavablar almağa" ( Kibertəhlükəsizlikdə Generativ Süni İntellektdən Necə İstifadə Etmək Olar? 10 Real Dünya Nümunəsi "Son bir ayda badguy123[.]com domeni ilə hər hansı bir son nöqtə əlaqə saxladımı?" yaza bilər və Purple AI cavab vermək üçün qeydlərdə axtarış aparacaq. Bu, analitiki verilənlər bazası sorğuları və ya skriptləri yazmaqdan xilas edir - süni intellekt bunu gizli şəkildə edir. Bu, həmçinin o deməkdir ki, gənc analitiklər əvvəllər sorğu dillərində təcrübəli bir mühəndis tələb edən tapşırıqları yerinə yetirə bilər və süni intellekt köməyi ilə komandanın bacarıqlarını effektiv şəkildə artıra bilərlər . Həqiqətən də, analitiklər bildirirlər ki, generativ süni intellekt rəhbərliyi "onların bacarıq və səriştəsini artırır" , çünki kiçik işçilər artıq süni intellektdən tələb üzrə kodlaşdırma dəstəyi və ya təhlil məsləhətləri ala bilirlər və bu da həmişə yüksək vəzifəli komanda üzvlərindən kömək istəməkdən asılılığı azaldır ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ).

Digər bir SOC optimallaşdırması avtomatlaşdırılmış hadisə xülasəsi və sənədləşdirilməsidir . Hadisə idarə edildikdən sonra kimsə hesabat yazmalıdır - bir çoxlarının yorucu hesab etdiyi bir iş. Generativ süni intellekt məhkəmə məlumatlarını (sistem qeydləri, zərərli proqram təhlili, tədbirlərin qrafiki) götürə və ilk layihə hadisə hesabatı yarada bilər. IBM bu qabiliyyəti QRadar-a qurur ki, "bir kliklə" hadisənin xülasəsi müxtəlif maraqlı tərəflər (icraçılar, İT qrupları və s.) üçün hazırlana bilsin ( Generativ süni intellekt kibertəhlükəsizlikdə necə istifadə edilə bilər? 10 real dünya nümunəsi ). Bu, yalnız vaxta qənaət etməklə yanaşı, həm də hesabatda heç bir şeyin nəzərdən qaçmamasını təmin edir, çünki süni intellekt bütün müvafiq məlumatları ardıcıl olaraq daxil edə bilər. Eynilə, uyğunluq və audit üçün süni intellekt hadisə məlumatlarına əsaslanaraq formaları və ya sübut cədvəllərini doldura bilər.

Real həyat nəticələri inandırıcıdır. Swimlane-ın süni intellektlə idarə olunan SOAR (təhlükəsizlik orkestrasiyası, avtomatlaşdırma və cavab) sistemlərinin ilk tətbiqçiləri böyük məhsuldarlıq artımları barədə məlumat verirlər - məsələn, Qlobal Məlumat Sistemləri SecOps komandasının daha böyük bir iş yükünü idarə etdiyini gördü; bir direktor dedi ki, "bu gün 7 analitiklə etdiyim iş, süni intellektlə idarə olunan avtomatlaşdırma olmadan, yəqin ki, 20 işçini alacaq" ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər ). Başqa sözlə, SOC-da süni intellekt tutumu artıra bilər . İstər bulud təhlükəsizlik siqnalları ilə məşğul olan bir texnologiya şirkəti, istərsə də OT sistemlərini izləyən bir istehsal zavodu olsun, SOC komandaları generativ süni intellekt köməkçilərini qəbul etməklə daha sürətli aşkarlama və cavab, daha az qaçırılmış insident və daha səmərəli əməliyyatlar əldə etmək üçün dayanırlar. Söhbət daha ağıllı işləməkdən gedir - maşınların təkrarlanan və məlumat baxımından ağır tapşırıqları yerinə yetirməsinə imkan verməklə, insanlar intuisiyalarını və təcrübələrini ən vacib yerlərdə tətbiq edə bilsinlər.

Zəifliyin İdarə Edilməsi və Təhdid Simulyasiyası

Təcavüzkarların istismar edə biləcəyi proqram təminatında və ya sistemlərdəki zəifliklərin müəyyən edilməsi və idarə edilməsi kibertəhlükəsizlik funksiyasının əsasını təşkil edir. Generativ süni intellekt aşkarlamanı sürətləndirməklə, yamaqların prioritetləşdirilməsinə kömək etməklə və hətta hazırlığı artırmaq üçün həmin zəifliklərə hücumları simulyasiya etməklə zəifliklərin idarə edilməsini gücləndirir. Əslində, süni intellekt təşkilatlara zirehlərindəki boşluqları daha tez tapmağa və düzəltməyə kömək edir və real təcavüzkarlardan əvvəl müdafiəni proaktiv şəkildə

avtomatlaşdırılmış kod nəzərdən keçirməsi və zəifliklərin aşkarlanması üçün generativ süni intellektdən istifadə etməkdir . Böyük kod bazalarında (xüsusən də köhnə sistemlərdə) tez-tez diqqətdən kənarda qalan təhlükəsizlik qüsurları olur. Generativ süni intellekt modelləri təhlükəsiz kodlaşdırma təcrübələri və ümumi səhv nümunələri üzrə təlim keçə bilər, sonra potensial zəiflikləri tapmaq üçün mənbə kodunda və ya kompilyasiya edilmiş ikili fayllarda istifadə edilə bilər. Məsələn, NVIDIA tədqiqatçıları köhnə proqram konteynerlərini təhlil edə və zəiflikləri "yüksək dəqiqliklə - insan mütəxəssislərindən 4 dəfə daha sürətli" müəyyən edə bilən generativ süni intellekt boru kəməri hazırlamışlar. Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ) . Süni intellekt əsasən təhlükəsiz olmayan kodun necə göründüyünü öyrənmiş və riskli funksiyaları və kitabxanaları qeyd etmək üçün onilliklər əvvəl mövcud olan proqram təminatını skan edə bilmiş, bu da adətən yavaş olan əl ilə kod yoxlama prosesini xeyli sürətləndirmişdir. Bu cür alətlər böyük, köhnə kod bazalarına əsaslanan maliyyə və ya hökumət kimi sahələr üçün oyun dəyişdiricisi ola bilər - süni intellekt işçilərin tapmaq üçün aylar və ya illər çəkə biləcəyi (əgər varsa) problemləri araşdıraraq təhlükəsizliyin modernləşdirilməsinə kömək edir.

Generativ Süni İntellekt həmçinin zəifliklərin skan edilməsi nəticələrini emal edərək və onları prioritetləşdirərək zəifliklərin idarə olunması iş axınlarına ExposureAI analitiklərin zəiflik məlumatlarını sadə dildə sorğulamasına və dərhal cavab almasına imkan vermək üçün generativ süni intellektdən istifadə edir ( Kibertəhlükəsizlikdə Generativ Süni İntellektdən Necə İstifadə Etmək Olar? 10 Real Dünya Nümunəsi ). ExposureAI, "tam hücum yolunu bir hekayədə ümumiləşdirə" və hücumçunun onu sistemi təhlükə altına almaq üçün digər zəifliklərlə necə əlaqələndirə biləcəyini izah edir. Hətta aradan qaldırmaq üçün tədbirlər tövsiyə edir və risklə bağlı sonrakı sualları cavablandırır. Bu o deməkdir ki, yeni bir kritik CVE (Ümumi Zəifliklər və Təsirlər) elan edildikdə, analitik süni intellektdən "Serverlərimizdən hər hansı biri bu CVE-dən təsirlənibmi və yamalamasaq, ən pis ssenari nədir?" deyə soruşa və təşkilatın öz skan məlumatlarından götürülmüş aydın bir qiymətləndirmə ala bilər. Zəiflikləri kontekstləşdirməklə (məsələn, bu, internetə və yüksək dəyərli serverə məruz qalır, buna görə də bu, əsas prioritetdir), generativ süni intellekt komandalara məhdud resurslarla ağıllı şəkildə yamamağa kömək edir.

Məlum zəiflikləri tapmaq və idarə etməklə yanaşı, generativ süni intellekt nüfuzetmə testinə və hücum simulyasiyasına - əsasən naməlum zəiflikləri aşkar etmək və ya təhlükəsizlik nəzarətini sınaqdan keçirmək. Generativ süni intellekt növü olan generativ rəqib şəbəkələri (GAN), gizli hücum nümunələrini də əhatə edə bilən real şəbəkə trafikini və ya istifadəçi davranışını təqlid edən sintetik məlumatlar yaratmaq üçün istifadə edilmişdir. 2023-cü ildə aparılan bir araşdırma, müdaxilə aşkarlama sistemlərini öyrətmək üçün real sıfır günlük hücum trafiki yaratmaq üçün GAN-lardan istifadə etməyi təklif etdi ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ nümunələr] ). IDS-i süni intellekt tərəfindən hazırlanmış hücum ssenariləri ilə təmin etməklə (istehsal şəbəkələrində faktiki zərərli proqramlardan istifadə riski olmayan), təşkilatlar müdafiələrini reallıqda onlara dəyməsini gözləmədən yeni təhdidləri tanımaq üçün öyrədə bilərlər. Eynilə, süni intellekt, bir təcavüzkarın sistemi araşdırdığını simulyasiya edə bilər - məsələn, hər hansı birinin uğurlu olub olmadığını görmək üçün təhlükəsiz mühitdə avtomatik olaraq müxtəlif istismar üsullarını sınayır. ABŞ Müdafiə Qabaqcıl Tədqiqat Layihələri Agentliyi (DARPA) burada ümidverici görünür: onun 2023-cü il Süni İntellekt Kiber Çağırışı müsabiqənin bir hissəsi olaraq "açıq mənbəli proqram təminatındakı zəiflikləri avtomatik olaraq tapmaq və düzəltmək" DARPA Döyüşçülərin Etibar Edə Biləcəyi Süni İntellekt və Muxtariyyət Tətbiqlərini İnkişaf Etdirməyi Məqsəd Edir > ABŞ Müdafiə Nazirliyi > Müdafiə Nazirliyinin Xəbərləri ). Bu təşəbbüs, süni intellektinin yalnız məlum boşluqları düzəltməyə kömək etmədiyini; o, aktiv şəkildə yenilərini aşkar etdiyini və düzəlişlər təklif etdiyini vurğulayır ki, bu da ənənəvi olaraq bacarıqlı (və bahalı) təhlükəsizlik tədqiqatçıları ilə məhdudlaşan bir işdir.

müdafiə üçün ağıllı bal qazanları və rəqəmsal əkizlər də yarada bilər "realları təqlid etmək və hakerləri cəlb etmək üçün rəqəmsal sistemləri klonlaşdıra" ( Kibertəhlükəsizlikdə Generativ süni intellekt üçün 6 istifadə halı [+ nümunələr] ). Bu süni intellektlə yaradılan bal qazanları real mühit kimi davranır (məsələn, normal telemetriya göndərən saxta IoT cihazı), lakin yalnız hücumçuları cəlb etmək üçün mövcuddur. Təcavüzkar aldatmanı hədəf aldıqda, süni intellekt onları metodlarını aşkar etməyə aldadır və müdafiəçilər daha sonra bu üsulları öyrənib real sistemləri gücləndirmək üçün istifadə edə bilərlər. Generativ modelləşdirmə ilə dəstəklənən bu konsepsiya, hücumçuları təhdid etmək .

Sənaye sahələrində daha sürətli və daha ağıllı zəifliklərin idarə edilməsi daha az pozuntu deməkdir. Məsələn, səhiyyə İT-də süni intellekt tibbi cihazda zəif köhnəlmiş kitabxananı tez bir zamanda aşkarlaya və hər hansı bir təcavüzkar onu istismar etməzdən əvvəl proqram təminatının düzəldilməsini tələb edə bilər. Bankçılıqda süni intellekt müştəri məlumatlarının bütün ssenarilərdə təhlükəsiz qalmasını təmin etmək üçün yeni bir tətbiqə qarşı daxili hücumu simulyasiya edə bilər. Beləliklə, generativ süni intellekt həm mikroskop, həm də təşkilatların təhlükəsizlik vəziyyəti üçün stress test cihazı kimi çıxış edir: davamlılığı təmin etmək üçün gizli qüsurları və təzyiq sistemlərini yaradıcı şəkildə işıqlandırır.

Təhlükəsiz Kod Yaradılması və Proqram Təminatının İnkişafı

Generativ süni intellektinin istedadları yalnız hücumları aşkar etməklə məhdudlaşmır - onlar həmçinin əvvəldən daha təhlükəsiz sistemlər yaratmağa . Proqram təminatının hazırlanmasında süni intellekt kod generatorları (məsələn, GitHub Copilot, OpenAI Codex və s.) kod parçaları və ya hətta bütün funksiyalar təklif etməklə tərtibatçılara kod daha sürətli yazmağa kömək edə bilər. Kibertəhlükəsizlik aspekti süni intellekt tərəfindən təklif olunan bu kod hissələrinin təhlükəsiz olmasını təmin etmək və kodlaşdırma təcrübələrini təkmilləşdirmək üçün süni intellektdən istifadə etməkdir.

Bir tərəfdən, generativ süni intellekt təhlükəsizlik sahəsində ən yaxşı təcrübələri tətbiq edən kodlaşdırma köməkçisi . Tərtibatçılar süni intellekt alətinə "Python-da parol sıfırlama funksiyası yaradın" və ideal olaraq yalnız funksional deyil, həm də təhlükəsiz qaydalara (məsələn, düzgün giriş təsdiqlənməsi, qeydiyyat, məlumat sızmadan səhvlərin idarə edilməsi və s.) əməl edən kodu geri ala bilərlər. Geniş təhlükəsiz kod nümunələri üzrə təlim keçmiş belə bir köməkçi, zəifliklərə səbəb olan insan səhvlərini azaltmağa kömək edə bilər. Məsələn, bir tərtibatçı istifadəçi girişini dezinfeksiya etməyi unudarsa (SQL inyeksiyasına və ya oxşar problemlərə qapı açırsa), süni intellekt bunu standart olaraq daxil edə və ya onları xəbərdar edə bilər. Bəzi süni intellekt kodlaşdırma alətləri artıq bu məqsədə xidmət etmək üçün təhlükəsizliyə yönəlmiş məlumatlarla təkmilləşdirilir - əsasən, süni intellekt təhlükəsizlik vicdanı ilə proqramlaşdırmanı birləşdirir .

Lakin bunun əks tərəfi də var: generativ süni intellekt düzgün idarə olunmazsa, eyni dərəcədə asanlıqla zəifliklər yarada bilər. Sophos təhlükəsizlik mütəxəssisi Ben Verschaeren-in qeyd etdiyi kimi, generativ süni intellektdən kodlaşdırma üçün istifadə "qısa, yoxlanıla bilən kod üçün yaxşıdır, lakin yoxlanılmamış kod istehsal sistemlərinə inteqrasiya edildikdə risklidir". Risk ondadır ki, süni intellekt qeyri-mütəxəssislərin fərqinə varmayacağı şəkildə məntiqi cəhətdən düzgün təhlükəsiz olmayan kod yarada bilər. Bundan əlavə, zərərli aktyorlar ictimai süni intellekt modellərinə həssas kod nümunələri (məlumat zəhərlənməsinin bir forması) səpərək qəsdən təsir göstərə bilərlər ki, süni intellekt təhlükəsiz olmayan kodu təklif etsin. Əksər tərtibatçılar təhlükəsizlik üzrə mütəxəssis deyillər , buna görə də süni intellekt rahat bir həll təklif edərsə, qüsurunun olduğunu dərk etmədən kor-koranə istifadə edə bilərlər ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ). Bu narahatlıq realdır - əslində, hazırda LLM-lər (böyük dil modelləri) üçün kodlaşdırma üçün süni intellektdən istifadədə bu kimi ümumi riskləri müəyyən edən OWASP Top 10 siyahısı mövcuddur.

Bu problemlərin qarşısını almaq üçün mütəxəssislər "generativ süni intellektlə generativ süni intellektlə mübarizə aparmağı" . Praktikada bu, kodu nəzərdən keçirmək və sınaqdan keçirmək . Süni intellekt insan kod nəzərdən keçirənindən daha sürətli yeni kodu skan edə və potensial zəiflikləri və ya məntiq problemlərini qeyd edə bilər. Artıq proqram təminatının inkişaf həyat dövrünə inteqrasiya olunan alətlərin ortaya çıxdığını görürük: kod yazılır (bəlkə də süni intellekt köməyi ilə), sonra təhlükəsiz kod prinsipləri üzrə təlim keçmiş generativ model onu nəzərdən keçirir və hər hansı bir narahatlıq barədə hesabat yaradır (məsələn, köhnəlmiş funksiyaların istifadəsi, identifikasiya yoxlamalarının olmaması və s.). NVIDIA-nın əvvəllər qeyd etdiyimiz və kodda zəifliklərin 4 dəfə daha sürətli aşkarlanmasına nail olan tədqiqatı, təhlükəsiz kod təhlili üçün süni intellektdən istifadənin nümunəsidir ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ nümunələr] ).

təhlükəsiz konfiqurasiyalar və skriptlər yaratmağa kömək edə bilər . Məsələn, bir şirkətin təhlükəsiz bulud infrastrukturunu yerləşdirməsi lazımdırsa, mühəndis süni intellektdən təhlükəsizlik nəzarətləri (düzgün şəbəkə seqmentasiyası, ən az imtiyazlı IAM rolları kimi) ilə konfiqurasiya skriptlərini (Kod kimi İnfrastruktur) yaratmasını istəyə bilər. Minlərlə belə konfiqurasiya üzrə təlim keçmiş süni intellekt, mühəndisin daha sonra dəqiqləşdirdiyi bir baza yarada bilər. Bu, sistemlərin təhlükəsiz quraşdırılmasını sürətləndirir və bulud təhlükəsizliyi hadisələrinin ümumi mənbəyi olan səhv konfiqurasiya səhvlərini azaldır.

Bəzi təşkilatlar təhlükəsiz kodlaşdırma nümunələri haqqında bilik bazasını qorumaq üçün generativ süni intellektdən də istifadə edirlər. Əgər bir geliştirici müəyyən bir xüsusiyyəti necə təhlükəsiz şəkildə tətbiq edəcəyindən əmin deyilsə, şirkətin keçmiş layihələrindən və təhlükəsizlik qaydalarından öyrənmiş daxili süni intellektdən sorğu edə bilər. Süni intellekt həm funksional tələblərə, həm də şirkətin təhlükəsizlik standartlarına uyğun tövsiyə olunan bir yanaşma və ya hətta kod parçası qaytara bilər. Bu yanaşma, ardıcıl və dəqiq cavabları təmin etmək (əsasən təhlükəsiz sənədlər yaratmaq) üçün şirkətin siyasətlərindən və keçmiş həllərindən cavablar götürən Secureframe-ın Anket Avtomatlaşdırması Kibertəhlükəsizlikdə Generativ Süni İntellekt Necə İstifadə Etmək Olar? 10 Real Dünya Nümunəsi ). Bu konsepsiya kodlaşdırmaya çevrilir: əvvəllər bir şeyi necə təhlükəsiz şəkildə tətbiq etdiyinizi "xatırlayan" və sizi yenidən bu şəkildə etməyə istiqamətləndirən süni intellekt.

Xülasə, generativ süni intellekt təhlükəsiz kodlaşdırma yardımını daha əlçatan etməklə . Çoxlu sayda xüsusi proqram təminatı hazırlayan sahələr - texnologiya, maliyyə, müdafiə və s. - yalnız kodlaşdırmanı sürətləndirməklə yanaşı, daim diqqətli təhlükəsizlik icmalçısı kimi çıxış edən süni intellekt köməkçilərinə sahib olmaqdan faydalana bilərlər. Düzgün idarə edildikdə, bu süni intellekt alətləri yeni zəifliklərin yaranmasını azalda bilər və komandanın hər addımda iştirak edən təhlükəsizlik mütəxəssisi olmasa belə, inkişaf qruplarına ən yaxşı təcrübələrə riayət etməyə kömək edə bilər. Nəticədə, ilk gündən hücumlara qarşı daha güclü olan proqram təminatı əldə edilir.

Hadisələrə Cavab Dəstəyi

Kibertəhlükəsizlik hadisəsi baş verdikdə - istər zərərli proqram təminatının yayılması, istər məlumat sızması, istərsə də hücum nəticəsində sistem sıradan çıxması - vaxt çox vacibdir. Generative süni intellekt getdikcə daha insidentlərə cavab vermə (IR) qruplarına dəstək olmaq . İdeya ondan ibarətdir ki, süni intellekt hadisə zamanı istintaq və sənədləşdirmə yükünün bir hissəsini öz üzərinə götürə və hətta bəzi cavab tədbirlərini təklif edə və ya avtomatlaşdıra bilər.

Süni intellekt (Sİ)-in IR-də əsas rollarından biri real vaxt rejimində insident təhlili və xülasəsidir . Hadisənin ortasında cavabdehlər "Hücumçu necə daxil oldu?" , "Hansı sistemlər təsirlənib?""Hansı məlumatlar təhlükəyə məruz qala bilər?" . Generativ Sİ təsirlənmiş sistemlərdən qeydləri, xəbərdarlıqları və məhkəmə məlumatlarını təhlil edə və tez bir zamanda məlumat verə bilər. Məsələn, Microsoft Security Copilot hadisə cavabdehinə müxtəlif sübutlar (fayllar, URL-lər, hadisə qeydləri) təqdim etməyə və zaman çizelgesi və ya xülasə tələb etməyə imkan verir ( Microsoft Security Copilot kibertəhlükəsizlik üçün yeni GPT-4 Sİ köməkçisidir | The Verge ). Sİ belə cavab verə bilər: "Sızma, ehtimal ki, saat 10:53 GMT-də istifadəçi JohnDoe-ya X zərərli proqram ehtiva edən fişinq e-poçtu ilə başladı. İcra edildikdən sonra zərərli proqram iki gün sonra maliyyə serverinə yan tərəfə keçmək üçün istifadə edilən arxa qapı yaratdı və burada məlumatları topladı." Bu ardıcıl mənzərənin saatlarla deyil, dəqiqələrlə olması komandaya məlumatlı qərarlar (hansı sistemləri təcrid etmək kimi) daha sürətli verməyə imkan verir.

Generativ süni intellekt həmçinin məhdudlaşdırma və bərpa tədbirləri təklif . Məsələn, son nöqtə ransomware tərəfindən yoluxmuşsa, süni intellekt aləti həmin maşını təcrid etmək, müəyyən hesabları deaktiv etmək və firewall-da məlum zərərli IP-ləri bloklamaq üçün skript və ya təlimatlar dəsti yarada bilər - əsasən oyun kitabçasının icrası. Palo Alto Networks qeyd edir ki, generativ süni intellekt "hadisənin təbiətinə əsasən müvafiq hərəkətlər və ya skriptlər yaratmaq" qabiliyyətinə və ilkin cavab addımlarını avtomatlaşdırır ( Kibertəhlükəsizlikdə Generativ süni intellekt nədir? - Palo Alto Networks ). Təhlükəsizlik qrupunun həddindən artıq yükləndiyi bir ssenaridə (məsələn, yüzlərlə cihazda geniş yayılmış hücum), süni intellekt hətta bu hərəkətlərin bəzilərini əvvəlcədən təsdiqlənmiş şərtlər altında birbaşa yerinə yetirə bilər, yorulmadan işləyən kiçik cavabdeh kimi davranır. Məsələn, süni intellekt agenti oğurlandığını düşündüyü etimadnamələri avtomatik olaraq sıfırlaya və ya hadisənin profilinə uyğun zərərli fəaliyyət göstərən hostları karantinə ala bilər.

Hadisəyə cavab olaraq, həm komanda daxilində, həm də maraqlı tərəflərlə ünsiyyət vacibdir. Generativ süni intellekt hadisə yeniləmə hesabatları və ya qısa məlumatlarının dərhal hazırlanmasına . Bir mühəndis problemlərin aradan qaldırılmasını dayandıraraq e-poçt yeniləməsi yazmaq əvəzinə, süni intellektdən soruşa bilərlər: "İcraçılara məlumat vermək üçün bu hadisədə indiyə qədər baş verənləri ümumiləşdirin." Süni intellekt hadisə məlumatlarını mənimsədikdən sonra qısa bir xülasə hazırlaya bilər: "Saat 15:00-a qədər təcavüzkarlar 2 istifadəçi hesabına və 5 serverə daxil olublar. Təsirə məruz qalan məlumatlara X verilənlər bazasındakı müştəri qeydləri daxildir. Qarşısının alınması tədbirləri: Təhlükəli hesablar üçün VPN girişi ləğv edilib və serverlər təcrid olunub. Növbəti addımlar: hər hansı davamlılıq mexanizmlərinin yoxlanılması." Daha sonra cavabdeh bunu tez bir zamanda yoxlaya və ya dəyişdirə və göndərə bilər, maraqlı tərəflərin dəqiq, ən son məlumatlarla xəbərdar olmasını təmin edə bilər.

Toz çökdükdən sonra, adətən, ətraflı hadisə hesabatı hazırlamaq və dərsləri tərtib etmək lazımdır. Bu, süni intellekt dəstəyinin parlaq olduğu başqa bir sahədir. O, bütün hadisə məlumatlarını nəzərdən keçirə və hadisə sonrası hesabat yarada bilər . Məsələn, IBM, bir düyməyə basmaqla "maraqlı tərəflərlə paylaşıla bilən təhlükəsizlik hallarının və hadisələrin sadə xülasələrini" Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real nümunə ). Tədbirdən sonrakı hesabatları sadələşdirməklə təşkilatlar təkmilləşdirmələri daha sürətli tətbiq edə və uyğunluq məqsədləri üçün daha yaxşı sənədlərə sahib ola bilərlər.

İnnovativ irəliyə yönəlmiş istifadələrdən biri süni intellektlə idarə olunan insident simulyasiyalarıdır . Yanğın təliminin necə aparıldığına bənzər şəkildə, bəzi şirkətlər "nə olarsa" hadisə ssenarilərini idarə etmək üçün generativ süni intellektdən istifadə edirlər. Süni intellekt, şəbəkə quruluşuna əsasən ransomware-in necə yayıla biləcəyini və ya daxili şəxsin məlumatları necə ifraz edə biləcəyini və sonra mövcud cavab planlarının effektivliyini qiymətləndirə biləcəyini simulyasiya edə bilər. Bu, komandalara real hadisə baş verməzdən əvvəl oyun kitabçalarını hazırlamağa və təkmilləşdirməyə kömək edir. Bu, hazırlığınızı daim sınaqdan keçirən daim təkmilləşən insident cavab məsləhətçisinə sahib olmaq kimidir.

Maliyyə və ya səhiyyə kimi yüksək riskli sahələrdə, insidentlərdən qaynaqlanan fasilələrin və ya məlumat itkisinin xüsusilə baha başa gəldiyi yerlərdə, süni intellektlə idarə olunan bu infrastruktur imkanları çox cəlbedicidir. Kiber hadisə ilə qarşılaşan xəstəxana uzun müddətli sistem fasilələrinə dözə bilməz - tez bir zamanda qarşısının alınmasına kömək edən süni intellekt, sözün əsl mənasında, həyat qurtaran ola bilər. Eynilə, maliyyə qurumu, şübhəli fırıldaqçılıq müdaxiləsinin ilkin çeşidlənməsini səhər saat 3-də idarə etmək üçün süni intellektdən istifadə edə bilər ki, növbətçi insanlar onlayn olana qədər bir çox təməl işləri (təsirlənmiş hesablardan çıxmaq, əməliyyatları bloklamaq və s.) artıq görülmüş olsun. Hadisələrə cavab qruplarını generativ süni intellektlə gücləndirməklə , təşkilatlar cavab müddətlərini əhəmiyyətli dərəcədə azalda və onların işlənməsinin dəqiqliyini artıra bilər, nəticədə kiber hadisələrdən dəyən ziyanı azalda bilər.

Davranış Analitikası və Anomaliya Aşkarlanması

Bir çox kiberhücumlar, istifadəçi hesabının qeyri-adi miqdarda məlumat yüklədiyi və ya qəfildən tanımadığı bir hostla əlaqə quran şəbəkə cihazı kimi bir şeyin "normal" davranışdan yayındığını fərq etməklə aşkar edilə bilər. Generativ süni intellekt davranış təhlili və anomaliyaların aşkarlanması , istifadəçilərin və sistemlərin normal nümunələrini öyrənmək və sonra bir şeyin səhv göründüyü zaman işarələmək üçün qabaqcıl üsullar təklif edir.

Ənənəvi anomaliya aşkarlanması tez-tez müəyyən metriklər (CPU istifadəsindəki sıçrayışlar, tək saatlarda giriş və s.) üzərində statistik eşiklərdən və ya sadə maşın öyrənməsindən istifadə edir. Generativ süni intellekt daha incə davranış profilləri yaratmaqla bunu daha da irəli apara bilər. Məsələn, süni intellekt modeli zamanla işçinin girişlərini, fayl giriş nümunələrini və e-poçt vərdişlərini mənimsəyə və həmin istifadəçinin "normal"ı haqqında çoxölçülü bir anlayış formalaşdıra bilər. Əgər həmin hesab sonradan normasından kəskin şəkildə kənara çıxan bir şey edərsə (məsələn, yeni bir ölkədən giriş və gecə yarısında bir çox HR fayllarına daxil olmaq), süni intellekt yalnız bir metrikdə deyil, həm də istifadəçinin profilinə uyğun olmayan bütöv bir davranış nümunəsi kimi sapma aşkar edər. Texniki baxımdan, generativ modellər (avtoenkoderlər və ya ardıcıllıq modelləri kimi) "normal"ın necə göründüyünü modelləşdirə və sonra gözlənilən davranış diapazonu yarada bilər. Reallıq bu diapazondan kənara çıxdıqda, bu, anomaliya kimi qeyd olunur ( Kibertəhlükəsizlikdə Generativ süni intellekt nədir? - Palo Alto Şəbəkələri ).

Praktik tətbiqlərdən biri şəbəkə trafikinin monitorinqindədir . 2024-cü ildə aparılan bir sorğuya görə, ABŞ təşkilatlarının 54%-i şəbəkə trafikinin monitorinqini kibertəhlükəsizlikdə süni intellekt üçün əsas istifadə halı kimi qeyd etmişdir ( Şimali Amerika: dünya miqyasında kibertəhlükəsizlikdə süni intellektdən istifadənin ən yaxşı halları, 2024 ). Generativ süni intellekt müəssisənin şəbəkəsinin normal rabitə nümunələrini - hansı serverlərin adətən bir-biri ilə danışdığını, iş saatları ərzində və ya gecə ərzində hansı həcmdə məlumatların hərəkət etdiyini və s. öyrənə bilər. Təcavüzkar aşkarlanmamaq üçün serverdən məlumatları yavaş-yavaş çıxarmağa başlasa, süni intellekt əsaslı sistem "A serveri heç vaxt saat 2-də xarici IP-yə 500 MB məlumat göndərmir" və xəbərdarlıq edə bilər. Süni intellekt yalnız statik qaydalardan deyil, həm də şəbəkə davranışının inkişaf edən bir modelindən istifadə etdiyi üçün statik qaydaların (məsələn, "məlumat > X MB olduqda xəbərdarlıq") qaçırdığı və ya səhvən işarələdiyi incə anomaliyaları tuta bilər. Bu adaptiv təbiət, normal və qeyri-adi üçün sabit qaydaların müəyyən edilməsinin olduqca mürəkkəb olduğu bank əməliyyat şəbəkələri, bulud infrastrukturu və ya IoT cihaz parkları kimi mühitlərdə süni intellektlə idarə olunan anomaliya aşkarlanmasını güclü edən şeydir.

istifadəçi davranış analitikasına (UBA) kömək edir ki, bu da daxili təhdidləri və ya pozulmuş hesabları aşkar etmək üçün vacibdir. Hər bir istifadəçi və ya qurum haqqında baza məlumatı yaratmaqla, süni intellekt etimadnamələrin sui-istifadəsi kimi şeyləri aşkar edə bilər. Məsələn, mühasibatlıqdan Bob qəfildən müştəri verilənlər bazasında sorğu aparmağa başlasa (əvvəllər heç vaxt etmədiyi bir şey), Bobun davranışı üçün süni intellekt modeli bunu qeyri-adi kimi qeyd edəcək. Bu, zərərli proqram olmaya bilər - bu, Bobun etimadnamələrinin oğurlanması və təcavüzkar tərəfindən istifadə edilməsi və ya Bobun etməməli olduğu yerlərdə araşdırma aparması ola bilər. Hər iki halda da, təhlükəsizlik qrupu araşdırmaq üçün xəbərdarlıq alır. Bu cür süni intellektlə idarə olunan UBA sistemləri müxtəlif təhlükəsizlik məhsullarında mövcuddur və generativ modelləşdirmə üsulları onların dəqiqliyini artırır və konteksti nəzərə alaraq yalançı həyəcan siqnallarını azaldır (bəlkə də Bob xüsusi bir layihədədir və s., süni intellekt bəzən digər məlumatlardan çıxara bilər).

Şəxsiyyət və giriş idarəetməsi sahəsində dərin saxtakarlığın aşkarlanması artan bir ehtiyacdır - generativ süni intellekt biometrik təhlükəsizliyi aldadan sintetik səslər və videolar yarada bilər. Maraqlıdır ki, generativ süni intellekt, insanların fərqinə varması çətin olan audio və ya videodakı incə artefaktları təhlil edərək bu dərin saxtakarlıqları aşkar etməyə də kömək edə bilər. Accenture ilə bir nümunə gördük, bu nümunə, saysız-hesabsız üz ifadələrini və şərtlərini simulyasiya etmək üçün generativ süni intellektdən istifadə edərək öyrətdi . Beş il ərzində bu yanaşma Accenture-a sistemlərinin 90%-nin parollarını aradan qaldırmağa (biometriyaya və digər amillərə keçərək) və hücumları 60% azaltmağa kömək etdi ( Kibertəhlükəsizlikdə generativ süni intellekt üçün 6 istifadə halı [+ Nümunələr] ). Əsasən, onlar biometrik identifikasiyanı gücləndirmək və onu generativ hücumlara qarşı davamlı etmək üçün generativ süni intellektdən istifadə etdilər (Süni intellektlə mübarizənin əla nümunəsi). Bu cür davranış modelləşdirməsi - bu halda canlı insan üzü ilə süni intellekt tərəfindən sintez edilmiş üzü arasındakı fərqi tanımaq - identifikasiyada süni intellektdən daha çox asılı olduğumuz üçün çox vacibdir.

Generativ süni intellektlə təchiz olunmuş anomaliya aşkarlanması bütün sahələrdə tətbiq olunur: səhiyyədə tibbi cihaz davranışının haker hücumu əlamətlərinə görə monitorinqi; maliyyədə fırıldaqçılıq və ya alqoritmik manipulyasiyanı göstərə biləcək qeyri-müntəzəm nümunələrə görə ticarət sistemlərinin izlənməsi; enerji/kommunal xidmətlərdə müdaxilə əlamətlərinə görə idarəetmə sistemi siqnallarının müşahidəsi. genişlik (davranışın bütün aspektlərinə baxmaq)dərinliyin (mürəkkəb nümunələri anlamaq) onu kiberhücumun ot tayasında iynə kimi göstəricilərini aşkar etmək üçün güclü bir vasitəyə çevirir. Təhdidlər daha gizli hala gəldikcə, normal əməliyyatlar arasında gizləndikcə, "normal"ı dəqiq xarakterizə etmək və bir şey sapdıqda qışqırmaq qabiliyyəti həyati əhəmiyyət kəsb edir. Beləliklə, Generativ süni intellekt yorulmaz bir keşikçi kimi xidmət edir, ətraf mühitdəki dəyişikliklərə uyğunlaşmaq üçün normallıq tərifini daim öyrənir və yeniləyir və təhlükəsizlik qruplarını daha yaxından yoxlanılmasına ehtiyac duyan anomaliyalar barədə xəbərdar edir.

Kibertəhlükəsizlikdə generativ süni intellektdən istifadənin imkanları və üstünlükləri

Kibertəhlükəsizlikdə generativ süni intellektdən istifadə bu alətləri mənimsəmək istəyən təşkilatlar üçün bir çox imkanlar və faydalar . Aşağıda generativ süni intellektdən kibertəhlükəsizlik proqramlarına cəlbedici bir əlavə edən əsas üstünlükləri ümumiləşdiririk:

  • Daha sürətli Təhdid Aşkarlanması və Cavab Verilməsi: Generativ süni intellekt sistemləri real vaxt rejimində çoxlu miqdarda məlumatları təhlil edə və təhdidləri əl ilə insan təhlilindən daha sürətli tanıya bilər. Bu sürət üstünlüyü hücumların daha erkən aşkarlanması və hadisələrin daha sürətli qarşısının alınması deməkdir. Praktikada süni intellektlə idarə olunan təhlükəsizlik monitorinqi insanların əlaqələndirməsi üçün daha uzun vaxt aparacaq təhdidləri aşkar edə bilər. Hadisələrə dərhal cavab verməklə (və ya hətta ilkin cavabları müstəqil şəkildə yerinə yetirməklə) təşkilatlar hücum edənlərin şəbəkələrində qalma müddətini əhəmiyyətli dərəcədə azalda və zərəri minimuma endirə bilərlər.

  • Təkmilləşdirilmiş Dəqiqlik və Təhdid Əhatəsi: Yeni məlumatlardan davamlı olaraq öyrəndikləri üçün generativ modellər inkişaf edən təhdidlərə uyğunlaşa və zərərli fəaliyyətin daha incə əlamətlərini aşkarlaya bilirlər. Bu, statik qaydalarla müqayisədə daha yaxşı aşkarlama dəqiqliyinə (daha az yalançı neqativ və yalançı müsbət) gətirib çıxarır. Məsələn, fişinq e-poçtunun və ya zərərli proqram davranışının əlamətlərini öyrənmiş süni intellekt əvvəllər heç vaxt görünməmiş variantları müəyyən edə bilər. Nəticədə, ümumi təhlükəsizlik vəziyyətini gücləndirən yeni hücumlar da daxil olmaqla, təhdid növlərinin daha geniş əhatə dairəsi yaranır. Təhlükəsizlik qrupları həmçinin süni intellekt təhlilindən (məsələn, zərərli proqram davranışının izahları) ətraflı məlumat əldə edir və daha dəqiq və hədəflənmiş müdafiəyə imkan verir ( Kibertəhlükəsizlikdə generativ süni intellekt nədir? - Palo Alto Networks ).

  • Təkrarlanan Tapşırıqların Avtomatlaşdırılması: Generativ Süni İntellekt gündəlik, əmək tələb edən təhlükəsizlik tapşırıqlarını - qeydləri yoxlamaqdan və hesabatların tərtib edilməsindən tutmuş insidentlərə cavab skriptlərinin yazılmasına qədər avtomatlaşdırmaqda üstündür. Bu avtomatlaşdırma insan analitiklərinin yükünü azaldır və onları yüksək səviyyəli strategiyaya və mürəkkəb qərar qəbuletmə prosesinə diqqət yetirməyə imkan verir ( Kibertəhlükəsizlikdə Generativ Süni İntellekt nədir? - Palo Alto Şəbəkələri ). Zəifliklərin skan edilməsi, konfiqurasiya auditi, istifadəçi fəaliyyətinin təhlili və uyğunluq hesabatı kimi adi, lakin vacib işlər süni intellekt tərəfindən idarə oluna bilər (və ya heç olmasa ilk dəfə tərtib edilə bilər). Bu tapşırıqları maşın sürətində yerinə yetirməklə süni intellekt yalnız səmərəliliyi artırmaqla yanaşı, həm də insan səhvlərini (pozuntularda əhəmiyyətli amil) azaldır.

  • Proaktiv Müdafiə və Simulyasiya: Generativ Süni İntellekt təşkilatlara reaktiv təhlükəsizlikdən proaktiv təhlükəsizliyə keçməyə imkan verir. Hücum simulyasiyası, sintetik məlumatların yaradılması və ssenari əsaslı təlim kimi üsullar vasitəsilə müdafiəçilər əvvəl . Təhlükəsizlik qrupları kiberhücumları (fişinq kampaniyaları, zərərli proqram təminatının yayılması, DDoS və s.) təhlükəsiz mühitlərdə simulyasiya edərək cavablarını sınaya və hər hansı zəif cəhətləri aradan qaldıra bilərlər. Çox vaxt yalnız insan səyləri ilə hərtərəfli şəkildə həyata keçirilməsi mümkün olmayan bu davamlı təlim müdafiəni kəskin və müasir saxlayır. Bu, kiber "yanğın təlimi"nə bənzəyir - süni intellekt müdafiənizə bir çox hipotetik təhdidlər ata bilər ki, siz təcrübə edə və təkmilləşə biləsiniz.

  • İnsan Təcrübəsinin Artırılması (Süni İntellektual Güc Artırıcısı Kimi ) : Generativ Süni İntellektual ...

  • Təkmilləşdirilmiş Qərar Dəstəyi və Hesabatlılığı: Texniki məlumatları təbii dil anlayışlarına çevirməklə, generativ süni intellekt ünsiyyəti və qərar qəbuletməni yaxşılaşdırır. Təhlükəsizlik liderləri süni intellekt tərəfindən yaradılan xülasələr vasitəsilə məsələlərə daha aydın baxa bilir və xam məlumatları təhlil etməyə ehtiyac olmadan məlumatlı strateji qərarlar qəbul edə bilirlər. Eynilə, süni intellekt təhlükəsizlik vəziyyəti və hadisələri haqqında asan başa düşülən hesabatlar hazırladıqda (Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ), funksionallararası ünsiyyət (rəhbərlərə, uyğunluq üzrə məsul şəxslərə və s.) təkmilləşdirilir. Bu, yalnız rəhbərlik səviyyəsində təhlükəsizlik məsələlərində etimad və uyğunluq yaratmaqla yanaşı, həm də riskləri və süni intellekt tərəfindən aşkar edilmiş boşluqları aydın şəkildə ifadə etməklə investisiyaları və dəyişiklikləri əsaslandırmağa kömək edir.

Bu üstünlüklər birlikdə kibertəhlükəsizlikdə generativ süni intellektdən istifadə edən təşkilatların potensial olaraq daha aşağı əməliyyat xərcləri ilə daha güclü təhlükəsizlik mövqeyinə nail ola bilməsi deməkdir. Onlar əvvəllər böyük olan təhdidlərə cavab verə, nəzarət olunmayan boşluqları aradan qaldıra və süni intellektlə idarə olunan geribildirim dövrələri vasitəsilə davamlı olaraq təkmilləşdirə bilərlər. Nəticədə, generativ süni intellekt sürətini, miqyasını və mürəkkəbliyini eyni dərəcədə mürəkkəb müdafiə ilə uyğunlaşdıraraq rəqibləri qabaqlamaq şansı təqdim edir. Bir sorğunun göstərdiyi kimi, biznes və kiber liderlərin yarıdan çoxu generativ süni intellektdən istifadə etməklə daha sürətli təhdid aşkarlanmasını və dəqiqliyin artmasını gözləyir ( [PDF] Qlobal Kibertəhlükəsizlik Görünüşü 2025 | Dünya İqtisadi Forumu ) ( Kibertəhlükəsizlikdə generativ süni intellekt: LLM-in Hərtərəfli İcmalı ... ) - bu texnologiyaların faydaları ilə bağlı nikbinliyin sübutudur.

Kibertəhlükəsizlikdə generativ süni intellektdən istifadənin riskləri və çətinlikləri

risklərə və çətinliklərə açıq şəkildə yanaşmaq vacibdir . Süni intellektə kor-koranə etibar etmək və ya ondan sui-istifadə etmək yeni zəifliklər yarada bilər. Aşağıda hər biri üçün kontekstlə yanaşı, əsas narahatlıqları və tələləri də qeyd edirik:

  • Kibercinayətkarlar tərəfindən düşmənçilik istifadəsi: Müdafiəçilərə kömək edən eyni generativ imkanlar hücumçuları gücləndirə bilər. Təhdid aktyorları artıq generativ süni intellektdən daha inandırıcı fişinq e-poçtları hazırlamaq, sosial mühəndislik üçün saxta personajlar və dərin saxta videolar yaratmaq, aşkarlanmadan yayınmaq üçün daim dəyişən polimorfik zərərli proqram təminatı hazırlamaq və hətta haker hücumlarının aspektlərini avtomatlaşdırmaq üçün istifadə edirlər ( Kibertəhlükəsizlikdə generativ süni intellekt nədir? - Palo Alto Şəbəkələri ). Kibertəhlükəsizlik liderlərinin təxminən yarısı (46%) generativ süni intellektdən daha inkişaf etmiş düşmənçilik hücumlarına səbəb olacağından narahatdırlar ( Generativ süni intellekt təhlükəsizliyi: Trendlər, təhdidlər və azaldılması strategiyaları ). Bu "Süni intellekt silahlanma yarışı" o deməkdir ki, müdafiəçilər süni intellektdən istifadə etdikcə, hücumçular çox da geridə qalmayacaqlar (əslində, onlar tənzimlənməmiş süni intellekt alətlərindən istifadə edərək bəzi sahələrdə irəlidə ola bilərlər). Təşkilatlar daha tez-tez rast gəlinən, mürəkkəb və izlənilməsi çətin olan süni intellektlə gücləndirilmiş təhdidlərə hazır olmalıdırlar.

  • Süni intellekt hallüsinasiyaları və qeyri-dəqiqliyi: ağlabatan, lakin səhv və ya yanlış nəticələr yarada bilər - hallüsinasiya kimi tanınan bir fenomen. Təhlükəsizlik kontekstində süni intellekt bir hadisəni təhlil edə və səhvən müəyyən bir zəifliyin səbəb olduğu qənaətinə gələ bilər və ya hücumu ehtiva etməyən qüsurlu bir bərpa skripti yarada bilər. Bu səhvlər, ilk baxışdan qəbul edildikdə təhlükəli ola bilər. NTT Data-nın xəbərdarlıq etdiyi kimi, "generativ süni intellekt ağlabatan şəkildə yalan məzmun çıxara bilər və bu fenomen hallüsinasiya adlanır... hazırda onları tamamilə aradan qaldırmaq çətindir" ( Generativ süni intellekt və əks tədbirlərin təhlükəsizlik riskləri və onun kibertəhlükəsizliyə təsiri | NTT DATA Group ). Doğrulama olmadan süni intellektdən həddindən artıq asılılıq səhv yönləndirilmiş səylərə və ya yalançı təhlükəsizlik hissinə səbəb ola bilər. Məsələn, süni intellekt kritik bir sistemi təhlükəsiz olmadığı halda səhvən təhlükəsiz kimi qeyd edə bilər və ya əksinə, heç vaxt baş verməyən bir pozuntunu "aşkarlayaraq" panikaya səbəb ola bilər. Bu riski azaltmaq üçün süni intellekt çıxışlarının ciddi şəkildə təsdiqlənməsi və insanların kritik qərarlar üçün dövrədə olması vacibdir.

  • Yalançı Müsbət və Mənfi: Halüsinasiyalarla əlaqəli olaraq, əgər süni intellekt modeli zəif öyrədilibsə və ya konfiqurasiya edilibsə, zərərli fəaliyyəti zərərli (yalançı müsbət) kimi həddindən artıq bildirə və ya daha pisi, real təhdidləri qaçıra bilər (yalançı mənfi) ( Kibertəhlükəsizlikdə Generativ Süni İntellektdən Necə İstifadə Etmək Olar ). Həddindən artıq yalan xəbərdarlıqlar təhlükəsizlik qruplarını çaşdıra və xəbərdarlıq yorğunluğuna səbəb ola bilər (Sİ-nin vəd etdiyi səmərəlilik qazanclarını ləğv edir), buraxılmış aşkarlamalar isə təşkilatı açıq qoyur. Generativ modelləri düzgün tarazlıq üçün tənzimləmək çətindir. Hər bir mühit unikaldır və Sİ dərhal optimal şəkildə standartdan kənarda işləməyə bilər. Davamlı öyrənmə də iki tərəfli bir qılıncdır - əgər Sİ əyri rəylərdən və ya dəyişən bir mühitdən öyrənirsə, onun dəqiqliyi dəyişə bilər. Təhlükəsizlik qrupları Sİ-nin performansını izləməli və hədləri tənzimləməli və ya modellərə düzəldici rəy verməlidir. Yüksək riskli kontekstlərdə (məsələn, kritik infrastruktur üçün müdaxilə aşkarlanması), ziddiyyət əvəzinə uyğunlaşmalarını və tamamlamalarını təmin etmək üçün bir müddət mövcud sistemlərlə paralel olaraq Sİ təkliflərini işlətmək ağıllı ola bilər.

  • Məlumatların Məxfiliyi və Sızması: Generativ Süni İntellekt sistemləri təlim və istismar üçün çox vaxt böyük miqdarda məlumat tələb edir. Bu modellər bulud əsaslıdırsa və ya düzgün şəkildə silinməyibsə, həssas məlumatların sızma riski var. İstifadəçilər təsadüfən mülkiyyət məlumatlarını və ya şəxsi məlumatları süni intellektə daxil edə bilərlər (ChatGPT-dən məxfi hadisə hesabatını ümumiləşdirməsini xahiş etməyi düşünün) və bu məlumatlar modelin biliklərinin bir hissəsinə çevrilə bilər. Həqiqətən də, son bir araşdırma generativ süni intellektə daxil olan məlumatların 55%-nin həssas və ya şəxsiyyəti müəyyən edilə bilən məlumatlar ehtiva etdiyini və məlumatların sızması ilə bağlı ciddi narahatlıqlar doğurduğunu aşkar etdi ( Generativ Süni İntellekt Təhlükəsizliyi: Trendlər, Təhdidlər və Azaltma Strategiyaları ). Bundan əlavə, əgər süni intellektə daxili məlumatlar üzrə təlim keçilibsə və müəyyən yollarla sorğulanıbsa, verə . Təşkilatlar ciddi məlumatların işlənməsi siyasətlərini tətbiq etməlidirlər (məsələn, həssas materiallar üçün yerli və ya özəl süni instansiyalardan istifadə etməli) və işçiləri gizli məlumatları ictimai süni intellektə daxil etməmək barədə maarifləndirməlidirlər. Məxfilik qaydaları (GDPR və s.) də rol oynayır - lazımi razılıq və ya qorunma olmadan şəxsi məlumatlardan süni intellekt təlimi üçün istifadə qanunlara zidd ola bilər.

  • Model Təhlükəsizliyi və Manipulyasiya: Generativ Süni İntellekt modellərinin özləri hədəfə çevrilə bilər. Düşmənlər təlim və ya yenidən hazırlıq mərhələsində zərərli və ya yanlış məlumatlar ötürərək model zəhərləməyə Kibertəhlükəsizlikdə Generativ Süni İntellekt Necə İstifadə Edilə Bilər ). Məsələn, təcavüzkar təhdid kəşfiyyat məlumatlarını incə şəkildə zəhərləyə bilər ki, Süni İntellekt təcavüzkarın öz zərərli proqramını zərərli kimi tanımasın. Başqa bir taktika isə təcili inyeksiya və ya çıxış manipulyasiyasıdır ki, təcavüzkar Süni İntellektinə girişlər vermək üçün bir yol tapır ki, bu da onun istənilməyən şəkildə davranmasına səbəb olur - bəlkə də təhlükəsizlik səddlərini görməməzlikdən gəlmək və ya etməməli olduğu məlumatları (məsələn, daxili sorğular və ya məlumatlar) aşkar etmək. Bundan əlavə, modeldən yayınma : təcavüzkarlar Süni İntellektini aldatmaq üçün xüsusi olaraq hazırlanmış giriş hazırlayırlar. Bunu rəqib nümunələrində görürük - insanın normal hesab etdiyi, lakin Süni İntellekt səhv təsnif etdiyi bir qədər pozulmuş məlumatlar. Süni intellekt təchizat zəncirinin təhlükəsizliyinin təmin edilməsi (məlumatların bütövlüyü, modelə giriş nəzarəti, rəqabətli dayanıqlıq testi) bu alətləri tətbiq edərkən kibertəhlükəsizliyin yeni, lakin zəruri bir hissəsidir ( Kibertəhlükəsizlikdə generativ süni intellekt nədir? - Palo Alto Networks ).

  • Həddindən artıq Etibar və Bacarıqların Aşınması: Təşkilatların süni intellektdən həddindən artıq asılı olması və insan bacarıqlarının atrofiyasına yol verməsi riski daha azdır. Əgər gənc analitiklər süni intellekt nəticələrinə kor-koranə etibar etsələr, süni intellekt əlçatmaz olduqda və ya səhv olduqda lazım olan tənqidi düşüncə və intuisiyanı inkişaf etdirməyə bilərlər. Qaçınılmalı ssenarilərdən biri əla alətlərə sahib olan, lakin bu alətlər sıradan çıxdıqda necə işləyəcəklərini bilməyən təhlükəsizlik qrupudur (pilotların avtopilotdan həddindən artıq asılı olması kimi). Süni intellekt köməyi olmadan müntəzəm təlim məşqləri və süni intellekt səhvsiz bir kahin deyil, köməkçi olduğu düşüncəsini formalaşdırmaq insan analitiklərinin diqqətini cəlb etmək üçün vacibdir. İnsanlar, xüsusən də yüksək təsirli mühakimələr üçün son qərar qəbul edənlər olaraq qalmalıdırlar.

  • Etik və Uyğunluq Çətinlikləri: Kibertəhlükəsizlikdə süni intellektdən istifadə etik suallar doğurur və tənzimləyici uyğunluq problemlərinə səbəb ola bilər. Məsələn, süni intellekt sistemi bir işçini anomaliya səbəbindən səhvən zərərli insayder kimi qələmə verərsə, bu, həmin şəxsin nüfuzuna və ya karyerasına haqsız yerə xələl gətirə bilər. Süni intellekt tərəfindən verilən qərarlar qeyri-şəffaf ola bilər ("qara qutu" problemi), auditorlara və ya tənzimləyicilərə müəyyən hərəkətlərin niyə edildiyini izah etməyi çətinləşdirir. Süni intellekt tərəfindən yaradılan məzmun daha çox yayıldıqca şəffaflığın təmin edilməsi və hesabatlılığın qorunması vacibdir. Tənzimləyicilər süni intellekt üzərində araşdırma aparmağa başlayırlar - məsələn, Aİ-nin süni intellekt haqqında qanunu "yüksək riskli" süni intellekt sistemlərinə tələblər qoyacaq və kibertəhlükəsizlik süni intellekt bu kateqoriyaya aid ola bilər. Şirkətlər bu qaydalara uyğunlaşmalı və generativ süni intellektdən məsuliyyətlə istifadə etmək üçün NIST süni intellekt risklərinin idarə edilməsi çərçivəsi kimi standartlara riayət etməlidirlər ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ). Uyğunluq lisenziyalaşdırmaya da aiddir: açıq mənbəli və ya üçüncü tərəf modellərindən istifadə müəyyən istifadəni məhdudlaşdıran və ya paylaşma təkmilləşdirmələrini tələb edən şərtlərə malik ola bilər.

Xülasə, generativ süni intellekt (Sİ) asanlıqla əldə edilə bilən bir şey deyil - diqqətlə tətbiq edilməsə, digər zəif cəhətləri həll edərkən yeni zəif cəhətlər yarada bilər. 2024-cü il Dünya İqtisadi Forumunun araşdırması göstərir ki, təşkilatların təxminən 47%-i hücumçular tərəfindən generativ süni intellektdəki irəliləyişləri əsas narahatlıq kimi qeyd edir və bu, onu kibertəhlükəsizlikdə "generativ süni intellektin ən narahatedici təsiri" [PDF] Qlobal Kibertəhlükəsizlik Görünüşü 2025 | Dünya İqtisadi Forumu ) ( Kibertəhlükəsizlikdə Generativ Sİ: LLM-in Hərtərəfli İcmalı ... ). Buna görə də təşkilatlar balanslı bir yanaşma tətbiq etməlidirlər: süni intellektdən faydalanmaqla yanaşı, bu riskləri idarəetmə, sınaq və insan nəzarəti vasitəsilə ciddi şəkildə idarə etməlidirlər. Növbəti dəfə bu tarazlığa necə praktik olaraq nail olmağı müzakirə edəcəyik.

Gələcəyə Baxış: Kibertəhlükəsizlikdə Generativ Süni İntellektlərin İnkişaf Etdirilməsi

Gələcəyə baxdıqda, generativ süni intellekt kibertəhlükəsizlik strategiyasının ayrılmaz hissəsinə və eyni zamanda kiber düşmənlərin istismar etməyə davam edəcəyi bir vasitəyə çevrilməyə hazırdır. Siçan-pişik dinamikası sürətlənəcək və süni intellekt hər iki tərəfdə olacaq. Generativ süni intellektin qarşıdakı illərdə kibertəhlükəsizliyə necə təsir göstərə biləcəyinə dair bəzi irəliyə yönəlmiş fikirlər:

  • Süni İntellektlə Genişləndirilmiş Kiber Müdafiə Standarta çevrilir: 2025-ci ilə və ondan sonrakı dövrə qədər əksər orta və böyük təşkilatların təhlükəsizlik əməliyyatlarına süni intellektlə idarə olunan alətləri daxil edəcəyini gözləyə bilərik. Antivirus və firewall bu gün standart olduğu kimi, süni intellektlə işləyən ikinci dərəcəli sistemlər və anomaliya aşkarlama sistemləri təhlükəsizlik arxitekturasının əsas komponentlərinə çevrilə bilər. Bu alətlər, çox güman ki, daha ixtisaslaşacaq - məsələn, bulud təhlükəsizliyi, IoT cihaz monitorinqi, tətbiq kodu təhlükəsizliyi və s. üçün təkmilləşdirilmiş fərqli süni intellekt modelləri, hamısı birlikdə işləyəcək. Bir proqnozda qeyd edildiyi kimi, "2025-ci ildə generativ süni intellekt kibertəhlükəsizliyin ayrılmaz hissəsi olacaq və təşkilatlara mürəkkəb və inkişaf edən təhdidlərdən proaktiv şəkildə qorunmağa imkan verəcək" ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər ). Süni intellekt real vaxt rejimində təhdid aşkarlamasını gücləndirəcək, bir çox cavab tədbirlərini avtomatlaşdıracaq və təhlükəsizlik qruplarına əl ilə edə biləcəklərindən daha böyük həcmdə məlumatı idarə etməyə kömək edəcək.

  • Davamlı Öyrənmə və Uyğunlaşma: dərhal öyrənmə qabiliyyətini artıracaq və bilik bazasını demək olar ki, real vaxt rejimində yeniləyəcək. Bu, həqiqətən adaptiv müdafiəyə gətirib çıxara bilər - səhər başqa bir şirkətə hücum edən yeni bir fişinq kampaniyası haqqında məlumat əldə edən və günortadan sonra şirkətinizin e-poçt filtrlərini artıq uyğunlaşdıran bir süni intellekt təsəvvür edin. Bulud əsaslı süni intellekt təhlükəsizlik xidmətləri bu cür kollektiv öyrənməni asanlaşdıra bilər ki, burada bir təşkilatdan anonimləşdirilmiş məlumatlar bütün abunəçilərə fayda verir (təhdid kəşfiyyatı paylaşımına bənzəyir, lakin avtomatlaşdırılmışdır). Lakin bu, həssas məlumatların paylaşılmasının qarşısını almaq və hücum edənlərin paylaşılan modellərə pis məlumatların daxil edilməsinin qarşısını almaq üçün diqqətli davranmağı tələb edəcək.

  • Süni intellekt və Kibertəhlükəsizlik İstedadlarının Konvergensiyası: Kibertəhlükəsizlik mütəxəssislərinin bacarıq dəsti süni intellekt və məlumat elmləri sahəsindəki səriştəni əhatə edəcək şəkildə inkişaf edəcək. Bugünkü analitiklər sorğu dillərini və skriptləri öyrəndikləri kimi, sabahkı analitiklər də süni intellekt modellərini müntəzəm olaraq təkmilləşdirə və ya süni intellekt üçün "oyun kitabları" yaza bilərlər. "Süni intellekt Təhlükəsizlik Təlimçisi" və ya "Kibertəhlükəsizlik Süni intellekt Mühəndisi" - süni intellekt alətlərini təşkilatın ehtiyaclarına uyğunlaşdırmaqda, onların fəaliyyətini təsdiqləməkdə və təhlükəsiz işləmələrini təmin etməkdə ixtisaslaşmış insanlar. Digər tərəfdən, kibertəhlükəsizlik mülahizələri süni intellekt inkişafına getdikcə daha çox təsir göstərəcək. Süni intellekt sistemləri sıfırdan təhlükəsizlik xüsusiyyətləri (təhlükəsiz arxitektura, müdaxilə aşkarlanması, süni intellekt qərarları üçün audit qeydləri və s.) ilə qurulacaq və etibarlı süni intellekt (ədalətli, izah edilə bilən, möhkəm və təhlükəsiz) onların təhlükəsizlik baxımından vacib kontekstlərdə yerləşdirilməsinə rəhbərlik edəcək.

  • Daha Mürəkkəb Süni İntellektlə Gücləndirilmiş Hücumlar: Təəssüf ki, təhlükə mənzərəsi də süni intellektlə inkişaf edəcək. Sıfır günlük zəiflikləri aşkar etmək, yüksək hədəfli nizə fişinqi yaratmaq (məsələn, mükəmməl uyğunlaşdırılmış yem yaratmaq üçün sosial medianı ovlamaq) və biometrik identifikasiyanı keçmək və ya fırıldaqçılıq törətmək üçün inandırıcı dərin saxta səslər və ya videolar yaratmaq üçün süni intellektdən daha tez-tez istifadə olunacağını gözləyirik. Minimum insan nəzarəti ilə müstəqil olaraq çoxmərhələli hücumlar (kəşfiyyat, istismar, yan hərəkət və s.) həyata keçirə bilən avtomatlaşdırılmış haker agentləri ortaya çıxa bilər. Bu, müdafiəçiləri süni intellektdən - əsasən avtomatlaşdırma və avtomatlaşdırmadan - . Bəzi hücumlar maşın sürətində baş verə bilər, məsələn, süni intellekt botları hansının filtrləri keçdiyini görmək üçün minlərlə fişinq e-poçt dəyişdirməsini sınayır. Kibermüdafiə sistemləri də ayaqlaşmaq üçün oxşar sürətlə və çevikliklə işləməlidir ( Kibertəhlükəsizlikdə Generativ Süni İntellekt nədir? - Palo Alto Şəbəkələri ).

  • Təhlükəsizlikdə Tənzimləmə və Etik Süni İntellekt: Süni İntellekt kibertəhlükəsizlik funksiyalarına dərindən nüfuz etdikcə, bu süni intellekt sistemlərinin məsuliyyətlə istifadəsini təmin etmək üçün daha çox yoxlama və ehtimal ki, tənzimləmə aparılacaq. Təhlükəsizlikdə süni intellekt üçün xüsusi çərçivələr və standartlar gözləyə bilərik. Hökumətlər şəffaflıq üçün qaydalar müəyyən edə bilər - məsələn, əhəmiyyətli təhlükəsizlik qərarlarının (məsələn, şübhəli zərərli fəaliyyətə görə işçinin girişinin dayandırılması) insan yoxlaması olmadan süni intellekt tərəfindən təkbaşına qəbul edilə bilməyəcəyini tələb edə bilər. Alıcılara süni intellektin qərəzliliyi, möhkəmliyi və təhlükəsizliyi baxımından qiymətləndirildiyinə əmin olmaq üçün süni intellekt təhlükəsizlik məhsulları üçün sertifikatlar da ola bilər. Bundan əlavə, süni intellektlə əlaqəli kiber təhdidlər ətrafında beynəlxalq əməkdaşlıq inkişaf edə bilər; məsələn, süni intellekt tərəfindən yaradılan dezinformasiya ilə mübarizə üzrə razılaşmalar və ya müəyyən süni intellekt tərəfindən idarə olunan kiber silahlara qarşı normalar.

  • Daha Geniş Süni İntellekt və İT Ekosistemləri ilə İnteqrasiya: Kibertəhlükəsizlikdə generativ süni intellekt, ehtimal ki, digər süni intellekt sistemləri və İT idarəetmə alətləri ilə inteqrasiya olunacaq. Məsələn, şəbəkə optimallaşdırmasını idarə edən süni intellekt, dəyişikliklərin boşluqlar açmamasını təmin etmək üçün təhlükəsizlik süni intellekt ilə işləyə bilər. Süni intellektlə idarə olunan biznes analitikası anomaliyaları (məsələn, satışların qəfil azalması və hücum səbəbindən mümkün veb sayt problemi) əlaqələndirmək üçün məlumatları təhlükəsizlik süni intellektləri ilə paylaşa bilər. Əslində, süni intellekt bir yerdə yaşamayacaq - o, təşkilatın əməliyyatlarının daha böyük bir ağıllı quruluşunun bir hissəsi olacaq. Bu, əməliyyat məlumatlarının, təhdid məlumatlarının və hətta fiziki təhlükəsizlik məlumatlarının süni intellekt tərəfindən birləşdirilə biləcəyi vahid risklərin idarə edilməsi üçün imkanlar açır ki, bu da təşkilatın təhlükəsizlik vəziyyətinə 360 dərəcəlik bir baxış verir.

Uzunmüddətli perspektivdə ümid budur ki, generativ süni intellekt tarazlığı müdafiəçilərin xeyrinə dəyişməyə kömək edəcək. Müasir İT mühitlərinin miqyasını və mürəkkəbliyini idarə etməklə süni intellekt kiberməkanı daha müdafiə edilə bilən edə bilər. Lakin bu, bir səyahətdir və bu texnologiyalar təkmilləşdirildikcə və onlara lazımi şəkildə etibar etməyi öyrəndikcə artan çətinliklər olacaq. Məlumatlı qalan və süni intellektdən məsuliyyətlə istifadəyə , ehtimal ki, gələcəyin təhdidlərini dəf etmək üçün ən yaxşı mövqedə olanlar olacaqlar.

Gartner-in son kibertəhlükəsizlik trendləri hesabatında qeyd edildiyi kimi, "generativ süni intellekt istifadə hallarının (və risklərinin) ortaya çıxması transformasiya üçün təzyiq yaradır" ( Kibertəhlükəsizlik Trendləri: Transformasiya Through Resilience - Gartner ). Uyğunlaşanlar süni intellektdən güclü müttəfiq kimi istifadə edəcəklər; geridə qalanlar isə süni intellektlə gücləndirilmiş rəqiblərdən geridə qala bilərlər. Növbəti bir neçə il süni intellektdən kiber döyüş meydanını necə yenidən formalaşdırdığını müəyyən etmək üçün həlledici bir dövr olacaq.

Kibertəhlükəsizlikdə generativ süni intellektdən istifadə üçün praktiki nəticələr

Kibertəhlükəsizlik strategiyalarında generativ süni intellektdən necə istifadə edəcəyini qiymətləndirən müəssisələr üçün məsuliyyətli və effektiv tətbiqə rəhbərlik etmək üçün praktiki nəticələr və tövsiyələr

  1. Təhsil və Təlimlə Başlayın: Təhlükəsizlik qrupunuzun (və daha geniş İT işçilərinizin) generativ süni intellektinin nələri edə biləcəyini və nələri edə bilməyəcəyini başa düşdüyünə əmin olun. Süni intellektlə idarə olunan təhlükəsizlik alətlərinin əsasları üzrə təlim keçin və təhlükəsizlik məlumatlandırma proqramlarınızı . Məsələn, işçilərə süni intellektinin çox inandırıcı fişinq fırıldaqları və dərin saxta zənglər necə yarada biləcəyini öyrədin. Eyni zamanda, işçilərə işlərində süni intellekt alətlərinin təhlükəsiz və təsdiqlənmiş istifadəsi barədə təlim keçin. Yaxşı məlumatlandırılmış istifadəçilərin süni intellektlə səhv davranmaları və ya süni intellektlə gücləndirilmiş hücumların qurbanı olma ehtimalı daha azdır ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ).

  2. Aydın Süni İntellekt İstifadə Siyasətlərini Müəyyən Edin: Generativ Süni İntellektlə istənilən güclü texnologiya kimi davranın - idarəetmə ilə. Süni İntellekt alətlərindən kimin istifadə edə biləcəyini, hansı alətlərin sanksiyalaşdırıldığını və hansı məqsədlər üçün istifadə edilə biləcəyini müəyyən edən siyasətlər hazırlayın. Sızmaların qarşısını almaq üçün həssas məlumatların işlənməsi ilə bağlı təlimatları daxil edin (məsələn, məxfi məlumatların xarici süni intellekt xidmətlərinə ötürülməməsi ). Misal olaraq, yalnız təhlükəsizlik qrupu üzvlərinə insidentlərə cavab vermək üçün daxili süni intellekt köməkçisindən istifadə etməyə icazə verə bilərsiniz və marketinq məzmun üçün yoxlanılmış süni intellektdən istifadə edə bilər - digərləri isə məhdudlaşdırılıb. Bir çox təşkilat artıq İT siyasətlərində generativ süni intellekt məsələsinə açıq şəkildə toxunur və aparıcı standartlaşdırma orqanları birbaşa qadağalar əvəzinə təhlükəsiz istifadə siyasətlərini təşviq edir ( Kibertəhlükəsizlikdə Generativ Süni İntellekt Necə İstifadə Edə Bilər? 10 Real Dünya Nümunəsi ). Bu qaydaları və onların əsaslandırılmasını bütün işçilərə çatdırdığınızdan əmin olun.

  3. “Kölgə Süni İntellektini” və Monitor İstifadəsini Azaldın: Kölgə İT-yə bənzər şəkildə, “kölgə Süni İntellekt” işçilər İT-nin xəbəri olmadan süni intellekt alətlərindən və ya xidmətlərindən istifadə etməyə başladıqda (məsələn, icazəsiz süni intellekt kod köməkçisindən istifadə edən bir geliştirici) yaranır. Bu, görünməyən risklər yarada bilər. İcazəsiz süni intellekt istifadəsini aşkar etmək və nəzarət etmək . Şəbəkə monitorinqi məşhur süni intellekt API-larına bağlantıları qeyd edə bilər və sorğular və ya alət yoxlamaları işçilərin nədən istifadə etdiyini aşkar edə bilər. Xoşməramlı işçilərin fırıldaqçılığa meyl etməməsi üçün təsdiqlənmiş alternativlər təklif edin (məsələn, insanlar faydalı hesab edirsə, rəsmi ChatGPT Enterprise hesabı təqdim edin). Süni intellekt istifadəsini işıqlandırmaqla təhlükəsizlik qrupları riski qiymətləndirə və idarə edə bilərlər. Monitorinq də vacibdir - süni intellekt alətlərinin fəaliyyətlərini və nəticələrini mümkün qədər qeyd edin ki, süni intellekt təsir etdiyi qərarlar üçün audit izi olsun ( Kibertəhlükəsizlikdə generativ süni intellekt necə istifadə edilə bilər? 10 real dünya nümunəsi ).

  4. Müdafiədə Süni İntellektdən İstifadə Edin – Geridə Qalmayın: Təcavüzkarların süni intellektdən istifadə edəcəyini, müdafiənizin də istifadə etməli olduğunu qəbul edin. Generativ Süni İntellektinin təhlükəsizlik əməliyyatlarınıza dərhal kömək edə biləcəyi bir neçə yüksək təsir sahəsini müəyyən edin (bəlkə də xəbərdarlıq çeşidlənməsi və ya avtomatlaşdırılmış jurnal təhlili) və pilot layihələr həyata keçirin. Sürətlə hərəkət edən təhdidlərə qarşı durmaq üçün müdafiənizi süni intellekt sürəti və miqyası ilə artırın Kibertəhlükəsizlikdə Generativ Süni İntellekt Necə İstifadə Edə Bilər? 10 Real Dünya Nümunəsi ). Zərərli proqram hesabatlarını ümumiləşdirmək və ya təhdid axtarışı sorğuları yaratmaq üçün süni intellektdən istifadə kimi sadə inteqrasiyalar belə analitiklərin saatlarına qənaət edə bilər. Kiçik başlayın, nəticələri qiymətləndirin və təkrarlayın. Uğurlar süni intellektdən daha geniş tətbiq üçün əsas yaradacaq. Məqsəd süni intellektdən güc vurucusu kimi istifadə etməkdir – məsələn, fişinq hücumları yardım masanızı bürüyürsə, bu həcmi proaktiv şəkildə azaltmaq üçün süni intellekt elektron poçt təsnifatçısını yerləşdirin.

  5. Təhlükəsiz və Etik Süni İntellekt Təcrübələrinə İnvestisiya Edin: Generativ Süni İntellekt tətbiq edərkən təhlükəsiz inkişaf və yerləşdirmə təcrübələrinə əməl edin. şəxsi və ya özəl modellərdən . Üçüncü tərəf Süni İntellekt xidmətlərindən istifadə edirsinizsə, onların təhlükəsizlik və məxfilik tədbirlərini (şifrələmə, məlumatların saxlanması siyasəti və s.) nəzərdən keçirin. Süni İntellekt alətlərinizdə qərəzlilik, izahlılıq və möhkəmlik kimi məsələləri sistematik şəkildə həll etmək üçün Süni İntellekt risklərinin idarə edilməsi çərçivələrini (məsələn, NIST-in Süni İntellekt Risklərinin İdarə Edilməsi Çərçivəsi və ya ISO/IEC rəhbərliyi) daxil edin ( Kibertəhlükəsizlikdə Generativ Süni İntellektdən Necə İstifadə Etmək Olar? 10 Real Dünya Nümunəsi ). Həmçinin texniki xidmətin bir hissəsi olaraq model yeniləmələri/yamaları planlaşdırın - Süni İntellekt modellərində də "zəifliklər" ola bilər (məsələn, sürüşməyə başlasalar və ya modelə qarşı yeni bir düşmən hücumu aşkar edilərsə, yenidən hazırlığa ehtiyac ola bilər). Təhlükəsizlik və etikanı Süni İntellekt istifadənizə daxil etməklə, nəticələrə inam yaradır və yeni qaydalara uyğunluğu təmin edirsiniz.

  6. İnsanları məlumatlı saxlayın: Kibertəhlükəsizlikdə insan mühakiməsini tamamilə əvəz etmək üçün deyil, kömək etmək üçün süni intellektdən istifadə edin. İnsan təsdiqinin tələb olunduğu qərar nöqtələrini müəyyən edin (məsələn, süni intellekt hadisə hesabatı hazırlaya bilər, lakin analitik paylaşmadan əvvəl onu nəzərdən keçirə bilər; və ya süni intellekt istifadəçi hesabının bloklanmasını təklif edə bilər, lakin insan bu hərəkəti təsdiqləyir). Bu, yalnız süni intellekt səhvlərinin yoxlanılmamasının qarşısını almaqla yanaşı, həm də komandanızın süni intellektdən öyrənməsinə və əksinə kömək edir. Əməkdaşlıqlı iş axınını təşviq edin: analitiklər süni intellekt nəticələrini sorğulamaqda və sağlam düşüncə yoxlamaları aparmaqda özlərini rahat hiss etməlidirlər. Zamanla bu dialoq həm süni intellekt (rəy vasitəsilə), həm də analitiklərin bacarıqlarını inkişaf etdirə bilər. Əsasən, proseslərinizi elə dizayn edin ki, süni intellekt və insan güclü tərəfləri bir-birini tamamlasın - süni intellekt həcm və sürəti, insanlar qeyri-müəyyənliyi və son qərarları idarə edir.

  7. Ölç, Monitor və Tənzimlə: Nəhayət, generativ süni intellekt alətlərinizə təhlükəsizlik ekosisteminizin canlı komponentləri kimi yanaşın. Onların performansını davamlı olaraq ölçün - onlar insidentlərə cavab vermə müddətini azaldırmı? Təhdidləri daha tez aşkarlayırmı? Yalançı müsbət nisbət necə dəyişir? Komandadan rəy alın: süni intellekt tövsiyələri faydalıdırmı, yoxsa səs-küy yaradırmı? Bu metriklərdən modelləri təkmilləşdirmək, təlim məlumatlarını yeniləmək və ya süni intellektin necə inteqrasiya olunduğunu tənzimləmək üçün istifadə edin. Kibertəhdidlər və biznes ehtiyacları inkişaf edir və süni intellekt modelləriniz effektiv qalmaq üçün vaxtaşırı yenilənməlidir və ya yenidən təlim keçməlidir. Modelin idarə olunması üçün bir planınız olsun, o cümlədən onun saxlanılmasına kimin cavabdeh olduğunu və nə qədər tez-tez nəzərdən keçirildiyini. Süni intellekt həyat dövrünü aktiv şəkildə idarə etməklə, onun öhdəlik deyil, aktiv olaraq qalmasını təmin edirsiniz.

Nəticə olaraq, generativ süni intellekt kibertəhlükəsizlik imkanlarını əhəmiyyətli dərəcədə artıra bilər, lakin uğurlu tətbiq düşünülmüş planlaşdırma və davamlı nəzarət tələb edir. İnsanlarını maarifləndirən, aydın qaydalar müəyyən edən və süni intellektini balanslı və təhlükəsiz şəkildə inteqrasiya edən müəssisələr daha sürətli və daha ağıllı təhdid idarəetməsinin mükafatlarını əldə edəcəklər. Bu nəticələr yol xəritəsi təqdim edir: insan təcrübəsini süni intellekt avtomatlaşdırması ilə birləşdirmək, idarəetmənin əsaslarını əhatə etmək və həm süni intellekt texnologiyası, həm də təhdid mənzərəsi qaçılmaz olaraq inkişaf etdikcə çevikliyi qorumaq.

Bu praktik addımları atmaqla təşkilatlar “Generativ süni intellekt kibertəhlükəsizlikdə necə istifadə edilə bilər?” təkcə nəzəri olaraq deyil, həm də gündəlik təcrübədə inamla cavab verə və bununla da getdikcə rəqəmsallaşan və süni intellektlə idarə olunan dünyamızda müdafiələrini gücləndirə bilərlər. ( Generativ süni intellekt kibertəhlükəsizlikdə necə istifadə edilə bilər )

Bundan sonra oxumaq istəyə biləcəyiniz ağ sənədlər:

🔗 Süni intellekt əvəz edə bilməyən işlər və süni intellekt hansı işləri əvəz edəcək?
Hansı vəzifələrin avtomatlaşdırmadan təhlükəsiz, hansılarının isə təhlükəsiz olmadığı barədə qlobal baxış bucağını araşdırın.

🔗 Süni intellekt Fond Bazarını Proqnozlaşdıra Bilərmi?
Süni intellektin bazar hərəkətlərini proqnozlaşdırmaq qabiliyyəti ilə bağlı məhdudiyyətlərə, irəliləyişlərə və miflərə daha yaxından nəzər salın.

🔗 İnsan müdaxiləsi olmadan generativ süni intellekt nələrə etibar edə bilər?
Süni intellekt harada müstəqil fəaliyyət göstərə biləcəyini və insan nəzarətinin hələ də vacib olduğunu anlayın.

Bloqa qayıt