Sztuczna inteligencja w rękach cyberprzestępców

Sztuczna inteligencja w rękach cyberprzestępców

O tym, jak cyberprzestępcy wykorzystują sztuczną inteligencję i uczenie maszynowe

Firma Trend Micro wspólnie z Europolem i Międzyregionalnym Instytutem Badań nad Przestępczością i Sprawiedliwością ONZ (UNICRI) opracowała nowy raport dotyczący złośliwego wykorzystania i nadużycia sztucznej inteligencji. W opublikowanym materiale przeanalizowano obecny stan tego zjawiska, a także realne scenariusze, w których cyberprzestępcy mogą używać tych technologii do swoich nielegalnych celów.

Artykuł badawczy dostarcza informacje na temat istniejących i potencjalnych ataków wykorzystujących sztuczną inteligencję i uczenie maszynowe oraz zalecenia dotyczące ograniczania tego ryzyka.

Test Huawei Sound – fajnie wygląda i gra

Sztuczna inteligencja (ang. Artificial Intelligence, AI) w znaczący sposób wspiera rozwój świata, zapewniając potencjalnie lepszą wydajność oraz większą automatyzację i autonomię systemów. Jako technologia podwójnego zastosowania, stanowi główny filar czwartej rewolucji przemysłowej. Uczenie maszynowe (ang. Machine Learning, ML) — jeden z obszarów AI, który analizuje duże zbiory danych w celu wyodrębniania wzorców za pomocą algorytmów — pozwala przedsiębiorstwom, organizacjom i rządom na imponujące osiągnięcia, które zwiększają innowacyjność i usprawniają działalność.

Już dziś stosowanie zarówno AI, jak i ML w biznesie jest bardzo rozpowszechnione. Do 2020 roku 37% przedsiębiorstw i organizacji zintegrowało sztuczną inteligencję w pewnej formie ze swoimi systemami i procesami. Dzięki narzędziom opartym na tych technologiach przedsiębiorstwa mogą lepiej przewidywać zachowania zakupowe klientów, co przyczynia się do zwiększenia przychodów.

Działo się… co przypadło nam do gustu w 2020r. – podsumowanie

Mimo że AI i ML mogą wspierać działalność biznesową, newralgiczną infrastrukturę i poszczególne branże, a także pomagać w rozwiązywaniu niektórych z największych wyzwań społecznych (w tym pandemii Covid-19), technologie te mogą również skutkować powstaniem wielu nowych zagrożeń cyfrowych, fizycznych i politycznych.

Aby zapewnić zarówno przedsiębiorstwom, jak i użytkownikom indywidualnym ochronę przed przestępcami, którzy planują wykorzystywać AI, konieczna jest zdolność do wykrywania i rozumienia zagrożeń oraz potencjalnych przypadków złośliwego wykorzystania systemów AI.

Obecne sposoby nadużywania sztucznej inteligencji i uczenia maszynowego

Cechy, które czynią systemy AI i ML integralną częścią przedsiębiorstw — takie jak dostarczanie automatycznych prognoz poprzez analizę dużych ilości danych i wykrywanie wzorców — są również cechami, które sprawiają, że cyberprzestępcy tak chętnie wykorzystują je do osiągania zysków.

  • Deepfake

Jednym z bardziej popularnych sposobów nadużywania AI są tzw. deepfake’i, które polegają na stosowaniu sztucznej inteligencji do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności. Metoda deepfake doskonale się nadaje do wykorzystania w kampaniach dezinformacyjnych, ponieważ na pierwszy rzut oka trudno je odróżnić od rzeczywistych treści — nawet przy użyciu rozwiązań technologicznych. Ze względu na szerokie wykorzystanie Internetu i mediów społecznościowych deepfake’i mogą docierać do milionów osób w różnych częściach świata z niespotykaną wcześniej szybkością.

  • Odgadywanie haseł przy pomocy AI

Cyberprzestępcy wykorzystują technologię ML, aby ulepszać algorytmy używane do odgadywania haseł użytkowników. Już dziś istnieją bardziej tradycyjne rozwiązania, takie jak HashCat (zaawansowane odzyskiwanie hasła) i John the Ripper (zaawansowany program do łamania haseł offline), które porównują różne warianty skrótu haseł, aby skutecznie odkrywać te, które im odpowiadają.

Dzięki wykorzystaniu sieci neuronowych i generatywnych sieci przeciwników (ang. Generative Adversarial Network, GAN) cyberprzestępcy mogliby jednak analizować ogromne zbiory danych dotyczących haseł i generować różne wariacje haseł, pasujące do rozkładu statystycznego. W przyszłości będzie to prowadzić do bardziej precyzyjnego i ukierunkowanego odgadywania haseł, co zwiększy szansę cyberprzestępców na zysk.

  • Podszywanie się pod użytkowników mediów społecznościowych

Cyberprzestępcy wykorzystują AI również do naśladowania ludzkich zachowań. Są na przykład w stanie z powodzeniem oszukiwać systemy wykrywania botów w platformach społecznościowych, takich jak Spotify, naśladując wzorce użytkowania podobne do ludzkich. Podszywanie się pod innych za pomocą sztucznej inteligencji pozwala cyberprzestępcom zarabiać poprzez generowanie fałszywych odsłuchań i ruchu na stronie wybranego artysty.

  • Hakowanie przy wsparciu AI

Cyberprzestępcy wykorzystują struktury AI także do hakowania hostów podatnych na zagrożenia. Za przykład może tutaj posłużyć użytkownik platformy Torum, który wyraził zainteresowanie użyciem DeepExploit — narzędzia do przeprowadzania testów penetracyjnych z obsługą ML. Użytkownik ten chciał wiedzieć, w jaki sposób połączyć DeepExploit z Metasploit— platformą testów penetracyjnych do zadań związanych z gromadzeniem informacji, tworzeniem i testowaniem exploitów.

 

Sztuczna inteligencja

 

Złośliwe wykorzystywanie i nadużywanie AI i ML w przyszłości

Spodziewamy się, że w przyszłości cyberprzestępcy będą wykorzystywać AI na różne sposoby. Bardzo prawdopodobne, że będą kierować swój wzrok w stronę AI z zamiarem zwiększania zakresu i skali swoich ataków i unikania wykrycia.

Recenzja Philips Hue – inteligentnego systemu oświetlenia

Przewidujemy, że będą wykorzystywać sztuczną inteligencję do prowadzenia szkodliwych działań opartych na taktykach inżynierii społecznej, których potencjalnym celem będą przedsiębiorstwa i instytucje. Dzięki wykorzystaniu sztucznej inteligencji cyberprzestępcy mogą automatyzować pierwsze kroki ataku poprzez generowanie treści, usprawniać proces gromadzenia wiedzy o firmach oraz przyspieszać tempo wykrywania potencjalnych ofiar i najbardziej narażonych procesów biznesowych.

Może to prowadzić do szybszego i lepiej ukierunkowanego oszukiwania firm za pomocą różnego typu ataków — w tym phishingu i BEC (ang. Business Email Compromise — ataków na pocztę elektroniczną firm).

Sztuczna inteligencja może być również używana do manipulowania obrotem kryptowalutami czy posłużyć do wyrządzania szkód lub nawet zadawania fizycznych obrażeń.

Technologie AI i ML mają wiele pozytywnych zastosowań — takich jak rozpoznawanie obiektów i mowy, tłumaczenie treści, wyodrębnianie wzorców i wspieranie procesów decyzyjnych w różnych branżach i dziedzinach zastosowań. Z drugiej strony technologie te są również nadużywane w celach szkodliwych i niezgodnych z prawem, dlatego bardzo ważne jest rozumienie możliwości, scenariuszy i wektorów ataku dostępnych za ich pomocą. Jeśli zyskamy taką świadomość, będziemy lepiej przygotowani do ochrony systemów, urządzeń i ogółu społeczeństwa przed zaawansowanymi atakami i nadużyciami.

Więcej informacji na temat technologii wykorzystywanych przez deepfake oraz innych przypadków szkodliwego wykorzystania ML i AI, a także nasze przewidywania co do tego, w jaki sposób technologie te mogą być nadużywane w przyszłości, można znaleźć w naszym artykule badawczym: https://documents.trendmicro.com/assets/white_papers/wp-malicious-uses-and-abuses-of-artificial-intelligence.pdf

źródło: Trend Micro

Dodaj komentarz

%d bloggers like this: