Логіка має місце. OpenAI роз'яснила, чому зловмисники можуть зазнати шкоди від використання ChatGPT.


OpenAI опублікувала звіт про нові тенденції використання штучного інтелекту в кібербезпеці. З нього випливає, що використання ChatGPT зловмисниками спрощує розкриття їхніх планів.

У своєму звіті OpenAI аналізує 20 конкретних ситуацій, в яких їй вдалося запобігти шахрайству та маніпуляціям. Це стало можливим завдяки тому, що зловмисники зверталися до чат-бота на основі штучного інтелекту ChatGPT для отримання допомоги.

"Ці ситуації відкривають можливість для нас розпочати виявлення найбільш розповсюджених методів, які зловмисники використовують для інтеграції штучного інтелекту з метою збільшення своєї ефективності чи продуктивності", -- зазначає OpenAI.

Їхні запити до ChatGPT не лише показали, на які платформи вони націлені, а й демонструють нові інструменти, які зловмисники тестують для своєї діяльність в Інтернеті. В одному з випадків зловмисник (ймовірно, з Китаю) SweetSpecter використовував підказки ChatGPT, щоб спробувати залучити урядових працівників і співробітників OpenAI до невдалої фішингової кампанії. Зловмисника викрили завдяки тому, що він питав у ChatGPT про теми, які можуть зацікавити урядовців, про гарні назви для вкладень, які допоможуть уникнути блокування. Також SweetSpecter запитав ChatGPT про вразливості в різних програмах і попросив допомогу в пошуку способів використання інфраструктури, що належить відомому виробнику автомобілів.

Отримавши цю інформацію від ChatGPT, SweetSpecter вирішив написати електронного листа працівникам OpenAI, представляючись звичайним користувачем, який зіткнувся з проблемою на платформі, детально описаною в прикріпленому файлі. Клікнувши на цей вкладений документ, можна було б активувати шкідливе програмне забезпечення для Windows, відоме як SugarGh0st RAT, що надало б SweetSpecter можливість контролювати скомпрометовану систему. Проте спам-фільтр компанії перешкодив проникненню загрози, тому жоден із співробітників не отримав цих електронних листів. Вважається, що це була перша задокументована атака SweetSpecter на американську компанію з використанням штучного інтелекту.

Інший випадок стосувався CyberAv3ngers, групи, підозрюваної у зв'язку зі збройними силами Ірану і відомої своїми руйнівними атаками на громадську інфраструктуру в США, Ірландії та Ізраїлі. Моніторинг їхніх підказок, які використовувалися для дослідження, розвідки та налагодження коду, допоміг OpenAI визначити додаткові технології та програмне забезпечення, які вони можуть спробувати використати, щоб порушити водопостачання, енергію та виробничі системи.

Аналогічним чином була нейтралізована іранська організація STORM-0817, яка, здається, вперше застосувала штучний інтелект у своїй атаці. У бесідах із ChatGPT представники групи зізналися, що займаються розробкою коду для видалення контенту з Instagram та випробовують його на акаунті журналіста, який відкрито критикує уряд.

Related posts