Google с нови инициативи за използване на изкуствения интелект в киберзащитата

Google обяви серия от нови инициативи, насочени към прилагането на изкуствения интелект (AI) за повишаване на киберсигурността. Компанията подчертава, че макар AI да отваря безпрецедентни възможности за наука и иновации, той също се превръща в инструмент, който киберпрестъпници и държавно подкрепяни групи могат да използват за атаки, измами и социално инженерство.

Според Google обаче същите технологии могат да се използват и като решаващ инструмент за защита. Новите инициативи на компанията включват CodeMender, AI Vulnerability Reward Program (AI VRP) и Secure AI Framework 2.0 (SAIF 2.0) – проекти, които целят да направят AI системите по-надеждни и устойчиви на атаки.

CodeMender – автономна защита с помощта на AI

CodeMender е нов AI агент, създаден с помощта на моделите Gemini, който автоматично открива и поправя критични уязвимости в софтуера. Той използва напреднали методи като автоматично тестване и логически доказателства, за да идентифицира основната причина за дадена слабост, а не само нейните проявления.

След като предложи решение, CodeMender изпраща генерираните поправки към специализирани „критични“ агенти, които ги оценяват спрямо изискванията за сигурност и стандарти за кодиране, преди те да бъдат одобрени от човешки експерти.

AI Vulnerability Reward Program – стимули за изследователите по сигурността

Google разширява сътрудничеството си с глобалната общност от експерти по киберсигурност чрез новата програма AI VRP, която предлага финансови възнаграждения за откриване и докладване на уязвимости в AI системи.

Програмата обединява досегашните таблици за възнаграждения и ясно определя кои AI свързани заплахи попадат в обхвата ѝ. Същевременно Google уточнява, че проблеми, свързани със съдържателна безопасност, следва да се докладват чрез вградените механизми за обратна връзка, тъй като те осигуряват необходимите технически данни за анализ.

Secure AI Framework 2.0 – защита на автономните AI агенти

С версия SAIF 2.0, Google разширява своята рамка за сигурност, за да обхване новите рискове, свързани с автономните AI агенти. Актуализираната версия включва:

  • Карта на рисковете за агентите – инструмент за идентифициране на потенциални заплахи на различни нива от AI екосистемата;
  • Вградени механизми за сигурност във всички AI агенти на Google, които гарантират, че действията им остават под човешки контрол, с ограничени правомощия и проследима логика на вземане на решения;
  • Дарение на данните от картата на рисковете към инициативата Coalition for Secure AI Risk Map с цел споделяне на знания и повишаване на стандартите за сигурност в индустрията.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *