Може ли изкуственият интелект да замести киберсигурността?

Може ли изкуственият интелект да замести киберсигурността?

Кратък отговор: Изкуственият интелект няма да замени киберсигурността изцяло, но ще поеме значителна част от повтарящата се работа по SOC и инженерна сигурност. Използван като средство за намаляване на шума и обобщаване - с човешко управление - той ускорява сортирането и приоритизирането; третиран като оракул, може да въведе рискована фалшива сигурност.

Ключови изводи:

Обхват : Изкуственият интелект замества задачите и работните процеси, а не самата професия или отчетността.

Намаляване на натоварването : Използвайте изкуствен интелект за групиране на предупреждения, кратки обобщения и сортиране по лог модели.

Отговорност за вземане на решения : Запазете човешкия потенциал за поемане на риск, управление на инциденти и трудни компромиси.

Устойчивост на злоупотреба : Проектиране за бързо инжектиране, отравяне и опити за избягване на враждебна реакция.

Управление : Прилагане на граници на данните, одитируемост и оспорими човешки промени в инструментариума.

Може ли изкуственият интелект да замени инфографиката за киберсигурност

Статии, които може да ви харесат след тази:

🔗 Как се използва генеративният изкуствен интелект в киберсигурността
Практически начини, по които изкуственият интелект засилва откриването, реагирането и предотвратяването на заплахи.

🔗 Инструменти за киберсигурност чрез AI pentesting
Най-добрите решения, базирани на изкуствен интелект, за автоматизиране на тестване и откриване на уязвимости.

🔗 Опасен ли е изкуственият интелект? Рискове и реалности
Ясен поглед върху заплахите, митовете и отговорните предпазни мерки, свързани с изкуствения интелект.

🔗 Ръководство за най-добрите инструменти за сигурност с изкуствен интелект
Най-добрите инструменти за сигурност, използващи изкуствен интелект за защита на системи и данни.


„Заместващата“ рамка е капанът 😅

Когато хората казват „Може ли изкуственият интелект да замести киберсигурността“ , те обикновено имат предвид едно от три неща:

  • Заменете анализаторите (не са необходими хора)

  • Заменете инструментите (една AI платформа прави всичко)

  • Замяна на резултатите (по-малко нарушения, по-малък риск)

Изкуственият интелект е най-силен в заместването на повтарящите се усилия и компресирането на времето за вземане на решения. Най-слаб е в заместването на отчетността, контекста и преценката. Сигурността не е просто откриване - тя е трънливи компромиси, бизнес ограничения, политика (ъъъ) и човешко поведение.

Знаете как става - пробивът не беше „липса на сигнали“. Беше липса на вяра от страна на някого, че сигналът е важен. 🙃


Където изкуственият интелект вече „замества“ работата по киберсигурност (на практика) ⚙️

Изкуственият интелект вече поема определени категории работа, дори ако организационната схема все още изглежда по същия начин.

1) Триаж и групиране на тревоги

  • Групиране на подобни сигнали в един инцидент

  • Дедупликиране на шумни сигнали

  • Класиране по вероятно въздействие

Това е важно, защото триажът е моментът, в който хората губят волята си за живот. Ако изкуственият интелект намали шума дори малко, това е все едно да намалите пожарна аларма, която крещи от седмици 🔥🔕

2) Анализ на лог файлове и откриване на аномалии

  • Откриване на подозрителни модели при скорост на машината

  • Маркиране „това е необичайно в сравнение с изходното ниво“

Не е перфектно, но може да бъде ценно. Изкуственият интелект е като металотърсач на плажа - издава много звукови сигнали и понякога е капачка от бутилка, но понякога е пръстен 💍... или компрометиран администраторски токен.

3) Класификация на злонамерен софтуер и фишинг

  • Класифициране на прикачени файлове, URL адреси, домейни

  • Откриване на сходни марки и модели на фалшифициране

  • Автоматизиране на обобщенията на решенията в пясъчник

4) Приоритизиране на управлението на уязвимостите

Не „кои CVE съществуват“ - всички знаем, че има твърде много. Изкуственият интелект помага да се отговори на:

И да, хората също биха могли да правят това - ако времето беше безкрайно и никой никога не си вземаше почивка.


Какво прави една версия на изкуствения интелект добра в киберсигурността 🧠

Това е частта, която хората пропускат, а след това обвиняват „ИИ“, сякаш е един-единствен продукт с чувства.

Една добра версия на изкуствения интелект в киберсигурността обикновено има следните характеристики:

  • Висока дисциплина на съотношението сигнал/шум

    • Трябва да намалява шума, а не да създава допълнителен шум с изискани фрази.

  • Обяснимост, която помага на практика

    • Не е роман. Не са вибрации. Истински улики: какво е видяло, защо го е грижа, какво се е променило.

  • Тясна интеграция с вашата среда

    • IAM, телеметрия на крайни точки, облачна поддръжка, издаване на билети, инвентаризация на активи… не особено бляскавите неща.

  • Вградено човешко отменяне

    • Анализаторите трябва да го коригират, да го настройват и понякога да го игнорират. Като младши анализатор, който никога не спи, но от време на време изпада в паника.

  • Безопасно обработване на данни

    • Ясни граници за това какво се съхранява, обучава или запазва. NIST AI RMF 1.0

  • Устойчивост срещу манипулация

Нека бъдем откровени - голяма част от „AI сигурността“ се проваля, защото е обучена да звучи сигурно, а не да бъде правилна. Увереността не е контрол. 😵💫


Частите, които изкуственият интелект трудно подменя - и това е по-важно, отколкото звучи 🧩

Ето неудобната истина: киберсигурността не е само техническа. Тя е социално-техническа. Тя е съчетание между хора, системи и стимули.

Изкуственият интелект се бори с:

1) Бизнес контекст и склонност към поемане на риск

Решенията за сигурност рядко са от типа „лошо ли е“. Те са по-скоро като:

  • Дали е достатъчно сериозно, за да спре приходите

  • Дали си струва да се прекъсне процесът на внедряване

  • Дали изпълнителният екип ще приеме престой за това

Изкуственият интелект може да помогне, но не може да поеме отговорност за това. Някой подписва решението. Някой получава обаждането в 2 сутринта 📞

2) Командване на инциденти и координация между екипите

По време на реални инциденти „работата“ е:

Изкуственият интелект може да изготви времева линия или да обобщи дневници, разбира се. Замяната на лидерство под напрежение е... оптимистично. Все едно да помолите калкулатор да проведе противопожарно учение.

3) Моделиране и архитектура на заплахите

Моделирането на заплахите е отчасти логика, отчасти креативност, отчасти параноя (предимно здравословна параноя).

  • Изброяване на това, което може да се обърка

  • Предвиждайки какво би направил нападателят

  • Избор на най-евтиния контрол, който променя математиката на атакуващия

Изкуственият интелект може да подсказва модели, но истинската стойност идва от познаването на вашите системи, вашите хора, вашите преки пътища, вашите специфични наследени зависимости.

4) Човешки фактори и култура

Фишинг, повторна употреба на идентификационни данни, скрита ИТ, небрежни проверки на достъпа - това са човешки проблеми, облечени в технически костюми 🎭.
Изкуственият интелект може да открие, но не може да поправи защо организацията се държи по начина, по който се държи.


Атакуващите също използват изкуствен интелект - така че игралното поле се накланя настрани 😈🤖

Всяка дискусия за замяна на киберсигурността трябва да включва очевидното: нападателите не стоят на едно място.

Изкуственият интелект помага на нападателите:

Така че, приемането на изкуствен интелект от защитниците не е по избор в дългосрочен план. По-скоро е като... да носите фенерче, защото другата страна току-що е получила очила за нощно виждане. Тромава метафора. Все още е донякъде вярно.

Също така, атакуващите ще се насочат към самите системи с изкуствен интелект:

Сигурността винаги е била игра на котка и мишка. Изкуственият интелект просто прави котките по-бързи, а мишките по-изобретателни 🐭


Истинският отговор: Изкуственият интелект замества задачите, а не отчетността ✅

Това е „неловката среда“, в която попадат повечето отбори:

  • Изкуственият интелект се справя с мащаба

  • Хората боравят с колове

  • Заедно те се справят със скоростта и преценката

В моите собствени тестове в работни процеси за сигурност, изкуственият интелект е най-добър, когато се третира по следния начин:

  • Асистент по триаж

  • Обобщаващ материал

  • Корелационен двигател

  • Помощник по политиките

  • Приятел за преглед на код за рискови модели

Изкуственият интелект е най-лош, когато се третира като:

  • Оракул

  • Една единствена точка на истината

  • Защитна система „настрой го и го забрави“

  • Причина за недоназначаване на екипа (това ще се случи по-късно... сериозно)

Все едно да наемеш куче пазач, което също пише имейли. Чудесно. Но понякога то лае по прахосмукачката и пропуска човека, който прескача оградата. 🐶🧹


Сравнителна таблица (най-добрите опции, които отборите използват ежедневно) 📊

По-долу е дадена практична сравнителна таблица - не е перфектна, малко неравномерна, като в реалния живот.

Инструмент / Платформа Най-добро за (публика) Ценова атмосфера Защо работи (и странности)
Microsoft Sentinel Microsoft Learn SOC екипи, живеещи в екосистемите на Microsoft $$ - $$$ Силни, облачно-ориентирани SIEM модели; много конектори, може да стане шумно, ако не е настроено..
Splunk Splunk Enterprise Security По-големи организации с интензивно регистриране + персонализирани нужди $$$ (често $$$$, честно казано) Мощно търсене + табла за управление; невероятно, когато е курирано, болезнено, когато никой не контролира хигиената на данните
Операции по сигурността на Google в Google Cloud Екипи, които искат телеметрия с управляван мащаб $$ - $$$ Подходящо за големи мащаби на данни; зависи от зрялостта на интеграцията, както много други неща
CrowdStrike Falcon CrowdStrike Организации, фокусирани върху крайни точки, IR екипи $$$ Силна видимост на крайните точки; голяма дълбочина на откриване, но все пак са ви необходими хора, които да стимулират реакцията
Microsoft Defender за крайни точки Microsoft Learn Организации, базирани на M365 $$ - $$$ Тясна интеграция с Microsoft; може да е чудесно, може да доведе до „700 предупреждения в опашката“, ако е конфигурирано неправилно
Пало Алто Cortex XSOAR Пало Алто Мрежи SOC, фокусирани върху автоматизацията $$$ Наръчниците с игри намаляват труда; изискват грижа или автоматизирате разстройството (да, това е нещо)
Платформа Wiz Екипи за облачна сигурност $$$ Силна видимост на облака; помага за бързото приоритизиране на риска, но все пак изисква управление зад него
Платформа Snyk Организации, ориентирани към разработчиците, AppSec $$ - $$$ Удобни за разработчиците работни процеси; успехът зависи от внедряването от разработчиците, а не само от сканирането

Една малка забележка: никой инструмент не „печели“ сам по себе си. Най-добрият инструмент е този, който екипът ви използва ежедневно, без да се възмущава. Това не е наука, това е оцеляване 😅


Реалистичен оперативен модел: как екипите печелят с изкуствен интелект 🤝

Ако искате изкуственият интелект да подобри значително сигурността, наръчникът обикновено е:

Стъпка 1: Използвайте изкуствен интелект, за да намалите натоварването

  • Обобщения за обогатяване на предупреждения

  • Изготвяне на билети

  • Контролни списъци за събиране на доказателства

  • Предложения за заявки за регистриране

  • „Какво се промени“ разлики в конфигурациите

Стъпка 2: Използвайте хора за валидиране и вземане на решения

  • Потвърждаване на въздействието и обхвата

  • Изберете действия за ограничаване

  • Координиране на корекции между екипите

Стъпка 3: Автоматизирайте безопасните неща

Добри цели за автоматизация:

  • Карантиране на известни злонамерени файлове с висока степен на сигурност

  • Нулиране на идентификационните данни след потвърден компрометиращ риск

  • Блокиране на очевидно злонамерени домейни

  • Прилагане на корекция на отклоненията в политиката (внимателно)

Рискови цели за автоматизация:

  • Автоматично изолиране на производствени сървъри без предпазни мерки

  • Изтриване на ресурси въз основа на несигурни сигнали

  • Блокиране на големи IP диапазони, защото „моделът така си мислеше“ 😬

Стъпка 4: Предоставяне на поуките обратно в контролите

  • Настройка след инцидент

  • Подобрени откривания

  • По-добра инвентаризация на активите (вечната болка)

  • По-тесни привилегии

Именно тук изкуственият интелект помага много: обобщаване на аутопсии, картографиране на пропуски в откриването, превръщане на разстройството в повтаряеми подобрения.


Скритите рискове на сигурността, задвижвана от изкуствен интелект (да, има няколко) ⚠️

Ако въвеждате активно изкуствен интелект, трябва да планирате следните трудности:

  • Измислена сигурност

    • Екипите по сигурността се нуждаят от доказателства, а не от разказване на истории. Изкуственият интелект обича разказването на истории. NIST AI RMF 1.0

  • Изтичане на данни

    • Подканите могат случайно да включват чувствителни данни. Логовете са пълни с тайни, ако се вгледате внимателно. OWASP Топ 10 за LLM приложения

  • Прекомерна зависимост

    • Хората спират да учат основите, защото вторият пилот „винаги знае“... докато не спре да ги знае.

  • Дрейф на модела

    • Средите се променят. Моделите на атаки се променят. Засечките гният тихо. NIST AI RMF 1.0

  • Злоупотреба с враждебност

Все едно да си направиш много умна ключалка и след това да оставиш ключа под постелката. Ключалката не е единственият проблем.


И така... Може ли изкуственият интелект да замени киберсигурността: ясен отговор 🧼

Може ли изкуственият интелект да замести киберсигурността?
Той може да замести голяма част от повтарящата се работа в рамките на киберсигурността. Може да ускори откриването, триажа, анализа и дори части от реагирането. Но не може напълно да замести дисциплината, защото киберсигурността не е единична задача - тя е управление, архитектура, човешко поведение, лидерство при инциденти и непрекъсната адаптация.

Ако искате най-откровената рамка (малко директна, извинете):

  • Изкуственият интелект замества натоварената работа

  • Изкуственият интелект подобрява добрите екипи

  • Изкуственият интелект разкрива лоши процеси

  • Хората остават отговорни за риска и реалността

И да, някои роли ще се променят. Задачите на начално ниво ще се променят най-бързо. Но се появяват и нови задачи: работни процеси, безопасни за бързи отговори, валидиране на модели, инженеринг на автоматизация на сигурността, инженеринг на детекция с инструменти, подпомагани от изкуствен интелект... работата не изчезва, тя мутира 🧬


Заключителни бележки и кратко резюме 🧾✨

Ако решавате какво да правите с изкуствения интелект в сигурността, ето практическите насоки:

  • Използвайте изкуствен интелект за компресиране на времето - по-бърз триаж, по-бързи обобщения, по-бърза корелация.

  • Дръжте хората за преценка - контекст, компромиси, лидерство, отчетност.

  • Да предположим, че нападателите също използват ИИ - проектиране за измама и манипулация. MITRE ATLAS Ръководство за разработване на сигурни системи с ИИ (NSA/CISA/NCSC-UK)

  • Не купувайте „магия“ - купувайте работни процеси, които измеримо намаляват риска и усилията.

Така че да, изкуственият интелект може да замести части от работата и често го прави по начини, които в началото изглеждат едва доловими. Печелившият ход е да превърнете изкуствения интелект във ваш лост, а не във ваш заместник.

И ако се притеснявате за кариерата си - фокусирайте се върху частите, с които изкуственият интелект се затруднява: системно мислене, лидерство при инциденти, архитектура и това да бъдете човекът, който може да различи „интересен сигнал“ от „предстои ни много лош ден“. 😄🔐


ЧЗВ

Може ли изкуственият интелект да замени напълно екипите по киберсигурност?

Изкуственият интелект може да поеме значителна част от работата по киберсигурност, но не и цялата дисциплина. Той се справя отлично с повтарящи се задачи, като например групиране на предупреждения, откриване на аномалии и изготвяне на обобщения на първо ниво. Това, което не замества, е отчетността, бизнес контекстът и преценката, когато залозите са високи. На практика екипите се установяват в „неловка среда“, където изкуственият интелект осигурява мащаб и скорост, докато хората запазват отговорността за важните решения.

Къде изкуственият интелект вече замества ежедневната работа на SOC?

В много SOC, изкуственият интелект вече поема трудоемка работа, като сортиране, премахване на дублиране и класиране на сигнали по вероятно въздействие. Той може също така да ускори анализа на лог файловете, като маркира модели, които се отклоняват от базовото поведение. Резултатът не е по-малко инциденти по магически начин - това е по-малко часове, прекарани в ровене в шум, така че анализаторите могат да се съсредоточат върху важни разследвания.

Как инструментите с изкуствен интелект помагат за управление на уязвимостите и приоритизиране на корекциите?

Изкуственият интелект помага за изместване на управлението на уязвимостите от „твърде много CVE“ към „какво трябва да закърпим първо тук“. Често срещан подход комбинира сигнали за вероятност от експлоатация (като EPSS), известни списъци с експлойти (като каталога KEV на CISA) и контекста на вашата среда (интернет експозиция и критичност на активите). Ако се направи добре, това намалява догадките и поддържа закърпването, без да нарушава бизнеса.

Какво отличава един „добър“ изкуствен интелект в киберсигурността от един „шумен“ изкуствен интелект?

Добрият изкуствен интелект в киберсигурността намалява шума, вместо да създава уверено звучаща бъркотия. Той предлага практическа обяснимост - конкретни улики като какво се е променило, какво е наблюдавано и защо е важно - вместо дълги, неясни разкази. Той също така се интегрира с основни системи (IAM, крайни точки, облак, билети) и поддържа човешко заменяне, така че анализаторите да могат да го коригират, настроят или игнорират, когато е необходимо.

Кои части от киберсигурността се затруднява да замени изкуственият интелект?

Изкуственият интелект се затруднява най-много със социално-техническата работа: апетит за риск, командване на инциденти и координация между екипите. По време на инциденти работата често се превръща в комуникация, обработка на доказателства, правни проблеми и вземане на решения в условия на несигурност - области, където лидерството превъзхожда съпоставянето на модели. Изкуственият интелект може да помогне за обобщаване на регистрационни файлове или изготвяне на срокове, но не замества надеждно отговорността под напрежение.

Как нападателите използват изкуствен интелект и променя ли това работата на защитника?

Нападателите използват изкуствен интелект, за да мащабират фишинг, да генерират по-убедително социално инженерство и да работят по по-бързи варианти на зловреден софтуер. Това променя условията за игра: с течение на времето, внедряването на изкуствен интелект от страна на защитниците става по-малко опционално. Освен това добавя нов риск, тъй като нападателите могат да атакуват работни процеси с изкуствен интелект чрез незабавно инжектиране, опити за отравяне или избягване на атаки – което означава, че системите с изкуствен интелект също се нуждаят от контрол на сигурността, а не от сляпо доверие.

Кои са най-големите рискове от разчитането на изкуствен интелект за решения в областта на сигурността?

Основен риск е измислената сигурност: изкуственият интелект може да звучи уверено, дори когато греши, а увереността не е контрол. Изтичането на данни е друг често срещан капан - подканите за сигурност могат неволно да включват чувствителни подробности, а регистрационните файлове често съдържат тайни. Прекомерното разчитане може също да подкопае основите, докато дрейфът на модела тихомълком влошава откриваемостта, когато средата и поведението на нападателя се променят.

Какъв е реалистичен оперативен модел за използване на изкуствен интелект в киберсигурността?

Практическият модел изглежда така: използвайте изкуствен интелект, за да намалите натоварването, да запазите човешки ресурси за валидиране и вземане на решения и да автоматизирате само безопасните неща. Изкуственият интелект е силен за обобщения на информация, изготвяне на заявки, контролни списъци с доказателства и разлики „какво се е променило“. Автоматизацията е най-подходяща за действия с висока степен на доверие, като блокиране на известни лоши домейни или нулиране на идентификационните данни след потвърден компрометиращ риск, с предпазни мерки за предотвратяване на прекомерна обработка.

Ще замести ли изкуственият интелект ролите в киберсигурността на начално ниво и кои умения ще станат по-ценни?

Купчините задачи на начално ниво вероятно ще се променят най-бързо, защото изкуственият интелект може да абсорбира повтаряща се работа по сортиране, обобщаване и класификация. Но се появяват и нови задачи, като например изграждане на работни процеси, безопасни за бързи отговори, валидиране на изходните данни от модели и автоматизация на инженерната сигурност. Устойчивостта на кариерата обикновено идва от умения, с които изкуственият интелект има затруднения: системно мислене, архитектура, лидерство при инциденти и превръщане на технически сигнали в бизнес решения.

Референции

  1. ПЪРВИ - EPSS (ПЪРВИ) - first.org

  2. Агенция за киберсигурност и сигурност на инфраструктурата (CISA) - Каталог на известни експлоатирани уязвимости - cisa.gov

  3. Национален институт за стандарти и технологии (NIST) - SP 800-40 Rev. 4 (Управление на корпоративни корекции) - csrc.nist.gov

  4. Национален институт за стандарти и технологии (NIST) - AI RMF 1.0 - nvlpubs.nist.gov

  5. OWASP - LLM01: Бързо инжектиране - genai.owasp.org

  6. Правителство на Обединеното кралство - Кодекс за добри практики за киберсигурност на изкуствения интелект - gov.uk

  7. Национален институт за стандарти и технологии (NIST) - SP 800-61 (Ръководство за справяне с инциденти) - csrc.nist.gov

  8. Федерално бюро за разследвания (ФБР) - ФБР предупреждава за нарастваща заплаха от киберпрестъпници, използващи изкуствен интелект - fbi.gov

  9. Център за жалби за интернет престъпления на ФБР (IC3) - IC3 PSA относно генеративни измами/фишинг с изкуствен интелект - ic3.gov

  10. OpenAI - Доклади за разузнаване на заплахи на OpenAI (примери за злонамерена употреба) - openai.com

  11. Европол - „Доклад за ChatGPT“ на Европол (общ преглед на злоупотребите) - europol.europa.eu

  12. МИТРА - МИТРА АТЛАС - mitre.org

  13. OWASP - Топ 10 на OWASP за кандидатстване за магистърска степен по право (LLM) - owasp.org

  14. Агенция за национална сигурност (NSA) - Ръководство за осигуряване на разработването на системи с изкуствен интелект (NSA/CISA/NCSC-UK и партньори) - nsa.gov

  15. Microsoft Learn - Общ преглед на Microsoft Sentinel - learn.microsoft.com

  16. Splunk - Splunk корпоративна сигурност - splunk.com

  17. Google Cloud - Операции за сигурност на Google - cloud.google.com

  18. CrowdStrike - платформата CrowdStrike Falcon - crowdstrike.com

  19. Microsoft Learn - Microsoft Defender за крайни точки - learn.microsoft.com

  20. Пало Алто Мрежи - Cortex XSOAR - paloaltonetworks.com

  21. Wiz - Платформа Wiz - wiz.io

  22. Snyk - Платформа Snyk - snyk.io

Намерете най-новия изкуствен интелект в официалния магазин за асистенти с изкуствен интелект

За нас

Обратно към блога