Sztuczna inteligencja

Sztuczna inteligencja w rękach cyberprzestępców

Cyberprzestępcy wykorzystują sztuczną inteligencję i uczenie maszynowe do przeprowadzania zaawansowanych cyberataków i wymyślania nowych rodzajów złośliwych operacji. Już dziś ta zaawansowana technologia z powodzeniem służy im do ataków Deepfake, odgadywania haseł, hakowania czy podszywania się pod ludzi na platformach społecznościowych. Przewidywania są niepokojące i wskazują, że w przyszłości przestępcy będą wykorzystywać sztuczną inteligencję w celu zwiększenia zakresu i skali swoich ataków oraz unikania ich wykrycia.

W naszym artykule badawczym „Malicious Uses and Abuses of Artificial Intelligence” przygotowanym wspólnie z organizacjami UNICRI (Międzyregionalnym Instytutem Badań nad Przestępczością i Sprawiedliwością ONZ) i Europolem, omówiliśmy nie tylko obecny stan złośliwego wykorzystywania i nadużywania technologii AI (ang. Artificial Intelligence, AI) i ML (ang. Machine Learning, ML), lecz także prawdopodobne przyszłe scenariusze, w których cyberprzestępcy mogą używać tych technologii do swoich celów.

Budowanie wiedzy na temat potencjalnego wykorzystania sztucznej inteligencji przez przestępców wzmocni ogólne kompetencje branży cyberbezpieczeństwa, a organom ścigania pomoże przewidywać złośliwe i przestępcze działania, a także zapobiegać takim atakom, reagować na nie lub łagodzić ich skutki w sposób proaktywny. Zrozumienie możliwości, scenariuszy i wektorów ataków jest kluczem do udoskonalenia gotowości i zwiększania odporności na nadchodzące cyberzagrożenia.

Obecny stan wykorzystywania i nadużyć AI i ML przez cyberprzestępców

Cechy, które czynią systemy AI i ML integralną częścią przedsiębiorstw — takie jak dostarczanie automatycznych prognoz poprzez analizę dużych ilości danych i wykrywanie wzorców — są również cechami, które sprawiają, że cyberprzestępcy tak chętnie wykorzystują je do osiągania zysków.

  • Deepfake

Jednym z bardziej popularnych sposobów nadużywania AI są tzw. deepfake’i, które polegają na stosowaniu sztucznej inteligencji do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności. Metoda deepfake doskonale się nadaje do wykorzystania w kampaniach dezinformacyjnych, ponieważ na pierwszy rzut oka trudno je odróżnić od rzeczywistych treści — nawet przy użyciu rozwiązań technologicznych. Ze względu na szerokie wykorzystanie Internetu i mediów społecznościowych deepfake’i mogą docierać do milionów osób w różnych częściach świata z niespotykaną wcześniej szybkością.

Technologia ta świetnie się również nadaje do zniekształcania rzeczywistości w oczach społeczeństwa, przyczyniając się do osiągania niecnych celów. Za przykład może posłużyć (prawdopodobnie) fałszywe nagranie wideo z udziałem malezyjskiego doradcy politycznego w sytuacji intymnej z ministrem rządu. Jednym z najistotniejszych następstw publikacji tego filmu z 2019 roku była destabilizacja rządu koalicyjnego, co pokazuje, jak duże konsekwencje polityczne może nieść ze sobą deepfake. Inny znany przykład dotyczy brytyjskiej firmy energetycznej, która padła ofiarą oszustwa i straciła blisko 200 000 funtów (niemal milion złotych). Zostały one przelane na węgierskie konto bankowe po tym, jak przestępca użył technologii deepfake audio, aby imitować głos prezesa firmy i autoryzować płatność.

Ze względu na potencjalne szkodliwe wykorzystanie technologii deepfake opartej na AI konieczne jest, aby ludzie byli świadomi, jak bardzo realistyczne treści można w ten sposób osiągnąć i jakie mogą być ich konsekwencje. Materiały deepfake mogą również stanowić użyteczne narzędzie w procesie edukowania ludzi na temat możliwych nadużyć. W 2018 roku firma Buzzfeed podjęła współpracę z aktorem i reżyserem Jordanem Peele’em, aby spreparować nagranie z udziałem byłego prezydenta USA Baracka Obamy. Celem tej współpracy było zwiększenie świadomości na temat potencjalnych szkód, jakie może wyrządzić deepfake, oraz tego, jak ważne jest podchodzenie z dystansem do treści zamieszczanych w Internecie — w tym realistycznie wyglądających filmów.

  • Odgadywanie haseł przy pomocy AI

Cyberprzestępcy wykorzystują technologię ML, aby ulepszać algorytmy używane do odgadywania haseł użytkowników. Już dziś istnieją bardziej tradycyjne rozwiązania, takie jak HashCat (zaawansowane odzyskiwanie hasła) i John the Ripper (zaawansowany program do łamania haseł offline), które porównują różne warianty skrótu haseł, aby skutecznie odkrywać te, które im odpowiadają. Dzięki wykorzystaniu sieci neuronowych i generatywnych sieci przeciwników (ang. Generative Adversarial Network, GAN) cyberprzestępcy mogliby jednak analizować ogromne zbiory danych dotyczących haseł i generować różne wariacje haseł, pasujące do rozkładu statystycznego. W przyszłości będzie to prowadzić do bardziej precyzyjnego i ukierunkowanego odgadywania haseł, co zwiększy szansę cyberprzestępców na zysk.

Pierwsze próby takiego działania są już widoczne. W poście na podziemnym forum z lutego 2020 roku znaleźliśmy repozytorium GitHub, które zawierało narzędzie do analizy haseł zdolne do przetwarzania 1,4 miliardów danych uwierzytelniających i generowania reguł zmiany haseł.

  • Podszywanie się pod użytkowników mediów społecznościowych

Cyberprzestępcy wykorzystują AI również do naśladowania ludzkich zachowań. Są na przykład w stanie z powodzeniem oszukiwać systemy wykrywania botów w platformach społecznościowych, takich jak Spotify, naśladując wzorce użytkowania podobne do ludzkich. Podszywanie się pod innych za pomocą sztucznej inteligencji pozwala cyberprzestępcom zarabiać poprzez generowanie fałszywych odsłuchań i ruchu na stronie wybranego artysty.

Jak podają autorzy na forum nulled[.]to (forum, gdzie cyberprzestępcy handlują zhakowanymi informacjami), bot Spotify oparty na AI jest w stanie naśladować kilku użytkowników Spotify jednocześnie. Co więcej, aby uniknąć wykrycia, bot korzysta z wielu serwerów proxy. Jego aktywność pozwala zwiększyć liczbę odtworzeń poszczególnych utworów, a co za tym idzie — przychody artystów. Aby jeszcze lepiej zapobiec wykryciu, bot tworzy listy odtwarzania zawierające również inne utwory — dobrane zgodnie z gustami muzycznymi podobnymi do ludzkich, a nie przypadkowe piosenki, co mogłoby zdradzić aktywność typową dla botów.

W dyskusji na forum blackhatworld[.]com użytkownicy omawiali możliwość opracowania bota na potrzeby platformy Instagram, który byłby w stanie tworzyć fałszywe konta, generować polubienia i dodawać konta do obserwowanych w zamian za dodanie jego konta. Możliwe, że zastosowana w tym bocie technologia AI jest również w stanie imitować naturalne ruchy użytkownika, takie jak zaznaczanie i przeciąganie elementów.

  • Hakowanie przy wsparciu AI

Cyberprzestępcy wykorzystują struktury AI także do hakowania hostów podatnych na zagrożenia. Za przykład może tutaj posłużyć użytkownik platformy Torum, który wyraził zainteresowanie użyciem DeepExploit — narzędzia do przeprowadzania testów penetracyjnych z obsługą ML. Użytkownik ten chciał wiedzieć, w jaki sposób połączyć DeepExploit z Metasploit— platformą testów penetracyjnych do zadań związanych z gromadzeniem informacji, tworzeniem i testowaniem exploitów.

Naszą uwagę przykuł również wątek na rstforums[.]com dotyczący PWnagotchi 1.0.0 — narzędzia, które zostało pierwotnie opracowane do hakowania sieci Wi-Fi za pomocą ataków cofających uwierzytelnienie. PWnagotchi 1.0.0 wykorzystuje model sieci neuronowej, aby poprawić swoją wydajność hakowania za pomocą strategii grywalizacji: gdy system z powodzeniem unieważni dane uwierzytelniające sieci Wi-Fi, zostaje nagrodzony i uczy się samodzielnie usprawniać swoje działanie.

Dotarliśmy również do wpisu na platformie crack[.]to, który zawierał listę hakerskich narzędzi open source. Znalazło się wśród nich oprogramowanie oparte na sztucznej inteligencji, które jest w stanie analizować duże zbiory danych dotyczących haseł, pozyskane z rzeczywistych wycieków danych. Oprogramowanie reklamuje się zdolnością do zwiększania swojej umiejętności odgadywania haseł poprzez szkolenie sieci GAN — tak, aby poznawać wzorce zmiany i aktualizacji haseł użytkowników, takie jak zmiana z „hello123” na „h@llo123”, a następnie na „h@llo!23”.

Co nas czeka w przyszłości?

Spodziewamy się, że w przyszłości cyberprzestępcy będą wykorzystywać AI na różne sposoby. Bardzo prawdopodobne, że będą kierować swój wzrok w stronę AI z zamiarem zwiększania zakresu i skali swoich ataków oraz unikania ich wykrycia.

  • Inżynieria społeczna na dużą skalę

Przewidujemy, że będą wykorzystywać AI do prowadzenia szkodliwych działań opartych na taktykach inżynierii społecznej, których potencjalnym celem będą przedsiębiorstwa i instytucje. Dzięki wykorzystaniu sztucznej inteligencji cyberprzestępcy mogą automatyzować pierwsze kroki ataku poprzez generowanie treści, usprawniać proces gromadzenia wiedzy o firmach oraz przyspieszać tempo wykrywania potencjalnych ofiar i najbardziej narażonych procesów biznesowych. Może to prowadzić do szybszego i lepiej ukierunkowanego oszukiwania firm za pomocą różnego typu ataków — w tym phishingu i BEC (ang. Business Email Compromise — ataków na pocztę elektroniczną firm).

  • Kryptowaluty – lukratywna okazja do osiągnięcia korzyści

Sztuczna inteligencja może być również używana do manipulowania obrotem kryptowalutami. Dotarliśmy np. do dyskusji na forum blackhatworld[.]com na temat botów opartych na AI, zdolnych do przyswajania skutecznych strategii handlowych na podstawie danych historycznych — tak, aby opracowywać lepsze prognozy i realizować bardziej dochodowe transakcje.

  • Drony do rozpoznawania twarzy

W przyszłości AI może posłużyć do wyrządzania szkód lub nawet zadawania fizycznych obrażeń. Już dziś opracowywane są drony wyposażone w technologię rozpoznawania twarzy opartą na AI, zdolne do przenoszenia ładunku wybuchowego o masie 1 grama. Drony te projektuje się tak, aby przypominały niewielkie ptaki lub owady i wyglądały niepozornie. Mogą one znaleźć zastosowanie w mikrobombardowaniach i atakach na pojedyncze osoby, a przy tym można nimi sterować za pośrednictwem sieci komórkowej.

Technologie AI i ML mają wiele pozytywnych zastosowań — takich jak rozpoznawanie obiektów i mowy, tłumaczenie treści, wyodrębnianie wzorców i wspieranie procesów decyzyjnych w różnych branżach i dziedzinach zastosowań. Z drugiej strony technologie te są również nadużywane w celach szkodliwych i niezgodnych z prawem, dlatego bardzo ważne jest rozumienie możliwości, scenariuszy i wektorów ataku dostępnych za ich pomocą. Jeśli zyskamy taką świadomość, będziemy lepiej przygotowani do ochrony systemów, urządzeń i ogółu społeczeństwa przed zaawansowanymi atakami i nadużyciami.

Więcej informacji na temat technologii wykorzystywanych przez deepfake oraz innych przypadków szkodliwego wykorzystania ML i AI, a także nasze przewidywania co do tego, w jaki sposób technologie te mogą być nadużywane w przyszłości, można znaleźć w naszym artykule badawczym: https://documents.trendmicro.com/assets/white_papers/wp-malicious-uses-and-abuses-of-artificial-intelligence.pdf

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.