A A+ A++

Cyberprzestępcy coraz częściej korzystają z narzędzi opartych na AI, takich jak GPT-3, do automatycznego tworzenia oszukańczych wiadomości – raportują na swoim blogu analitycy Check Point Research. Sztuczna inteligencja jest szczególnie przydatna w atakach phishingowych, ponieważ pozwalają na automatyczne generowanie bardzo naturalnie brzmiących wiadomości, które trudno odróżnić od tych napisanych przez człowieka. Eksperci Check Pointa ostrzegają, że wykorzystywanie AI przez cyberprzestępców może prowadzić do jeszcze większego wzrostu liczby ataków phishingowych, a tym samym zwiększenia zagrożenia dla przedsiębiorstw i użytkowników indywidualnych.

Check Point Research ujawnił te informacje, aby ostrzec opinię publiczną o rosnącym zainteresowaniu cyberprzestępców ChatGPT skalowaniem złośliwej aktywności.

Pierwszy przypadek opisuje wątek o nazwie „ChatGPT – Korzyści ze złośliwego oprogramowania”. Twórca wpisu ujawnił, że eksperymentował z ChatGPT w celu odtworzenia szczepów złośliwego oprogramowania i technik opisanych w publikacjach badawczych i opisach dotyczących popularnego złośliwego oprogramowania. Post zdawał się pokazywać mniej technicznie uzdolnionym cyberprzestępcom, jak wykorzystać ChatGPT do złośliwych celów, z prawdziwymi przykładami, które mogą natychmiast wykorzystać.

Kilka dni wcześniej na forum hakerskim cyberprzestępca USDoD opublikował skrypt w języku Python, który, jak podkreślił, był „pierwszym skryptem, jaki kiedykolwiek stworzył”. Kiedy inny cyberprzestępca skomentował, że styl kodu przypomina kod openAI, USDoD potwierdził, że OpenAI pomogło mu dokończyć skrypt. W kolejnym przypadku cyberprzestępca wskazywał, jak tworzyć skrypty Dark Web marketplace za pomocą ChatGPT. Główną rolą marketplace w nielegalnej, podziemnej gospodarce jest zapewnienie platformy do zautomatyzowanego handlu nielegalnymi lub skradzionymi towarami, takimi jak skradzione konta lub karty płatnicze, złośliwe oprogramowanie, a nawet narkotyki czy amunicja.

– W ostatnich tygodniach widzimy dowody na to, że hakerzy zaczęli używać ChatGPA do pisania złośliwego kodu. ChatGPT może przyspieszyć proces hakerów, dając im dobry punkt wyjścia. Sztuczna inteligencja może być używane zarówno do dobrych celów, aby pomóc programistom w pisaniu kodu, jak i celów złośliwych. Chociaż narzędzia, które analizujemy w tym raporcie, są dość proste, to tylko kwestia czasu, kiedy bardziej wyrafinowani cyberprzestępcy udoskonalą sposób, w jaki korzystają z narzędzi opartych na sztucznej inteligencji – mówi Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Software.

Cyberprzestępcy coraz częściej korzystają z narzędzi opartych na AI, takich jak GPT-3, do automatycznego tworzenia oszukańczych wiadomości – raportują na swoim blogu analitycy Check Point Research. Sztuczna inteligencja jest szczególnie przydatna w atakach phishingowych, ponieważ pozwalają na automatyczne generowanie bardzo naturalnie brzmiących wiadomości, które trudno odróżnić od tych napisanych przez człowieka. Eksperci Check Pointa ostrzegają, że wykorzystywanie AI przez cyberprzestępców może prowadzić do jeszcze większego wzrostu liczby ataków phishingowych, a tym samym zwiększenia zagrożenia dla przedsiębiorstw i użytkowników indywidualnych.

Check Point Research ujawnił te informacje, aby ostrzec opinię publiczną o rosnącym zainteresowaniu cyberprzestępców ChatGPT skalowaniem złośliwej aktywności. Pierwszy przypadek opisuje wątek o nazwie „ChatGPT – Korzyści ze złośliwego oprogramowania”. Twórca wpisu ujawnił, że eksperymentował z ChatGPT w celu odtworzenia szczepów złośliwego oprogramowania i technik opisanych w publikacjach badawczych i opisach dotyczących popularnego złośliwego oprogramowania. Post zdawał się pokazywać mniej technicznie uzdolnionym cyberprzestępcom, jak wykorzystać ChatGPT do złośliwych celów, z prawdziwymi przykładami, które mogą natychmiast wykorzystać.

Kilka dni wcześniej na forum hakerskim cyberprzestępca USDoD opublikował skrypt w języku Python, który, jak podkreślił, był „pierwszym skryptem, jaki kiedykolwiek stworzył”. Kiedy inny cyberprzestępca skomentował, że styl kodu przypomina kod openAI, USDoD potwierdził, że OpenAI pomogło mu dokończyć skrypt. W kolejnym przypadku cyberprzestępca wskazywał, jak tworzyć skrypty Dark Web marketplace za pomocą ChatGPT. Główną rolą marketplace w nielegalnej, podziemnej gospodarce jest zapewnienie platformy do zautomatyzowanego handlu nielegalnymi lub skradzionymi towarami, takimi jak skradzione konta lub karty płatnicze, złośliwe oprogramowanie, a nawet narkotyki czy amunicja.

– W ostatnich tygodniach widzimy dowody na to, że hakerzy zaczęli używać ChatGPA do pisania złośliwego kodu. ChatGPT może przyspieszyć proces hakerów, dając im dobry punkt wyjścia. Sztuczna inteligencja może być używane zarówno do dobrych celów, aby pomóc programistom w pisaniu kodu, jak i celów złośliwych. Chociaż narzędzia, które analizujemy w tym raporcie, są dość proste, to tylko kwestia czasu, kiedy bardziej wyrafinowani cyberprzestępcy udoskonalą sposób, w jaki korzystają z narzędzi opartych na sztucznej inteligencji – mówi Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Software.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułCNN: weteran amerykańskiej marynarki wojennej został uwolniony z aresztu w Rosji i wyjechał do Polski
Następny artykułPrzyjaciółka Kaczyńskiego w radzie nadzorczej Orlenu. Zasiada też w PGE