Sztuczna inteligencja może zmienić się generator złośliwego oprogramowania.
Ale jest też światełko w tunelu.
– Od listopada 2022 r., kiedy Open AI pokazało światu ChatGPT, wielu specjalistów ds. cyberbezpieczeństwa skupiało się głównie na zagrożeniach.
Pojawiało się wiele pytań, np. o to czy przestępcy będą przy pomocy nowej technologii tworzyć złośliwe oprogramowanie albo pisać jeszcze bardziej przekonujące maile phishingowe.
To możliwe, ale poza niebezpieczeństwami trzeba także zwracać uwagę na możliwości, jakie niesie wykorzystanie ChatGPT. Sztuczną inteligencję postrzegamy jako sprzymierzeńca
– Sean Gallagher, badacz zagrożeń w firmie Sophos
Rozwój sztucznej inteligencji (SI)
Jest jednym z najbardziej rewolucyjnych postępów technologicznych w historii. Jednak istnieje coraz większe ryzyko, że stanie się niemożliwa do kontrolowania lub zostanie wykorzystana przez hakerów.
Przy obecnym stanie technologii SI możliwe jest teraz tworzenie autonomicznego złośliwego oprogramowania, które może wybierać cele i atakować je bez interwencji człowieka.
Istnieje również ryzyko, że SI może zostać wykorzystana do zwiększenia możliwości cyberprzestępców, do stworzenia złośliwego oprogramowania, które będzie trudne do wykrycia i obrony przed nim.
Złośliwe oprogramowanie obsługujące SI może być wykorzystywane do przeprowadzania ataków, przed którymi człowiek nie będzie w stanie się obronić.
Czy sztuczna inteligencja lub ChatGPT nie mogą stworzyć czegoś szkodliwego, jeśli już tworzą programy, aplikacje, gry i skrypty?
Wykorzystanie ChatGPT w inżynierii społecznej, aby uzyskać wrażliwe dane.
Hakerzy wykorzystujących sztuczną inteligencję do przeprowadzania ataków, ponieważ ta technologia zapewnia im możliwość automatyzacji ataków i zwiększania ich skuteczności.
Jednym z przykładów jest tzw Chatbot GPT, który jest wykorzystywany przez hakerów do przeprowadzania ataków socjotechnicznych. Ten chatbot został zaprojektowany tak, aby naśladować ludzką rozmowę i jest w stanie prowadzić złożone, realistyczne i spójne rozmowy. Daje to możliwość nadużyć związanych z tą technologią.
Hakerzy mogą używać chatbota do generowania przekonujących rozmów w celu zbierania poufnych danych, danych osobowych i haseł od niczego niepodejrzewających ofiar.
Do tej pory chatbot był wykorzystywany do podszywania się pod przedstawicieli działu obsługi klienta i przeprowadzania ataków phishingowych. To tylko kwestia czasu, zanim zobaczymy bardziej wyrafinowane ataki przeprowadzane przy użyciu tej technologii.
Jest to poważny problem, którym należy się zająć. Jeśli Czat GPT nie jest odpowiednio zabezpieczony, może zostać wykorzystany do wykorzystywania ludzi w bardzo wyrafinowany sposób. Ponieważ chatboty stają się coraz bardziej zaawansowane, ważne jest, aby zdawać sobie sprawę z zagrożeń, jakie stwarzają.
Hakerzy będą nadal znajdować nowe sposoby wykorzystania SI do przeprowadzania ataków.
Hakerzy mogą wykorzystywać ChatGPT do tworzenia treści na fałszywych stronach internetowych
Jak donoszą eksperci z izraelskiej firmy Check Point, hakerzy z Rosji wykorzystują już ChatGPT do „konstruowania” oprogramowania ransomware.
Algorytmy stworzone przez OpenAI są na tyle zaawansowane, iż są w stanie napisać złośliwe oprogramowanie zdolne np. do rejestrowania uderzeń klawiatury. Na tej podstawie hakerzy są w stanie odszyfrować nasze hasła m.in. do bankowości internetowej.
Na rosyjskich forach hakerzy dyskutują, jak ominąć ograniczenia dotyczące adresu IP, kart płatniczych i numerów telefonów – wszystko to jest potrzebne do uzyskania dostępu do ChatGPT.
Hakerzy mogą wykorzystywać ChatGPT do tworzenia treści na fałszywych stronach internetowych tak, by nie wydawały się one podejrzane.
Innym sposobem może być też tworzenie botów, które podszywają się pod naszych znajomych, by wyłudzać dane lub przygotowywać się do kolejnych oszustw.
„Obecna wersja API OpenAI jest używana przez aplikacje zewnętrzne (na przykład poprzez integrację modelu GPT-3 z kanałami Telegram) i ma bardzo niewiele, jeśli w ogóle, środków zapobiegających nadużyciom. W rezultacie umożliwia tworzenie złośliwych treści, takich jak wiadomości phishingowe i kod złośliwego oprogramowania, bez ograniczeń lub barier, które ChatGPT ustawił w interfejsie użytkownika”
– Check Point Research
Specjaliści przetestowali API text-davinci-003. Okazało się, że po obejściu zabezpieczeń za pośrednictwem bota na Telegramie rzeczywiście można generować wiadomości phishingowe czy skrypty wykradające dane z zainfekowanego komputera.
Już teraz cyberprzestępcy na Telegramie sprzedają dostęp do botów, które poprzez API text-davinci-003 mają dostęp do niezabezpieczonej wersji ChatGPT.
Dzięki temu użytkownicy są w stanie generować nielegalne treści i szkodliwe programy. Pakiet 100 zapytań kosztuje około 25 złotych.
Inna grupa opracowała podobną metodę i udostępniła w serwisie GitHub skrypt pozwalający wykorzystać API ChatGPT do pisania wiadomości udających maile z banków lub prywatnych firm.
Oznacza to, że za pomocą kilku stosunkowo prostych sztuczek przestępcy są w stanie wykorzystać ChatGPT do tworzenia i rozpowszechniania szkodliwych treści.
Inne możliwe sposoby wykorzystania ChatGPT przez hakerów i oszustów:
- Analiza kodu źródłowego w celu znalezienia słabych punktów, ChatGPT po prostu pomógł niedoświadczonym napastnikom zyskać na sile.
- Pisanie exploitów — obecnie testy pokazały, że jeszcze nie zawsze działa to tak dobrze.
- Automatyzacja kodu — pomaga początkującym szybciej zautomatyzować swoją część pracy
- Pisanie złośliwego oprogramowania — częściowo zablokowane, ale proste makra są nadal możliwe, nie jest to tworzenie niczego „nowego”, ponieważ można je znaleźć również w Google, więc ponownie, jest to po prostu ułatwienie dostępu dla niedoświadczonych.
- Chat boty do inżynierii społecznej — dla oszustw typu scam, BEC, oszustw romansowych lub atakowania celów, gdzie potrzeba kilku interakcji z ofiarą. Automatyzacja może być tak daleko posunięta, że rozmówca poczuje się, jak podczas prawdziwej rozmowy.
Jak można się bronić przed takimi oszustwami?
Ponieważ ChatGPT jest szkolony na istniejących tekstach, te generowane nie będą „lepsze”. Aby wykryć potencjalnie złośliwe e-maile, można zauważyć typowe oznaki oszustw.
Można je rozpoznać dzięki wykorzystaniu pewnych słów kluczowych np. pilne, przelew, działaj teraz, hasło, które sprawiają, że email phishingowy wydaje się pilny i ważny.
Ponadto ChatGPT nie może sprawić, że e-mail będzie wyglądał jak ten pochodzący z Twojego banku, stare metody takie jak podobnie wyglądające, ale fałszywe adresy e-mail i domeny będą nadal wykorzystywane przez oszustów.
Takie rzeczyi, na które należy zwracać uwagę, jak nagłówki emaili lub adresy URL (w tym SPF, DKIM, DMARC) są to informacje o tym, skąd i z jakiego serwera wysłano email, dla jakich domen ten serwer jest skonfigurowany.
To w zasadzie oznacza, że nawet jeśli tekst maila jest doskonały, ale został wysłany z konta pocztowego przykład „twójbank@oszust.com„ to i tak będzie łatwy do zauważenia.