Obserwując doniesienia ze strony dużych firm technologicznych, trudno przeoczyć fakt, iż w ostatnich kilku latach badania nad sztuczną inteligencją bardzo przyspieszyły. Trend taki widoczny jest także na konferencjach dotyczących cyberbezpieczeństwa. Różne Metody AI miałyby np. pomóc rozwiązać problem niedoboru ekspertów od obrony i zapobiegania atakom IT. Kwestią czasu było, aż sztuczna inteligencja zawita także po drugiej stronie barykady. Można zatem już oficjalnie stwierdzić, że stało się to w zeszłym tygodniu.
Otóż badacze z firmy IBM zidentyfikowali malware o nazwie DeepLocker. Oprogramowanie to rozprzestrzenia się w postaci częściowo zaszyfrowanej, co znacznie utrudnia jego identyfikację min. przez oprogramowanie antywirusowe. Odkrywa swój kod i uruchamia złowrogie działanie dopiero w momencie…rozpoznania twarzy ofiary lub jej głosu. W ten sposób malware ujawni się dopiero, gdy twarz rozpoznana przy użyciu kamery komputera (analogicznie z dźwiękiem) będzie zgodna z danymi zaszytymi w jego kodzie. Takie podejście niestety mocno (szczególnie gdy program będzie propagowany w oprogramowaniu multimedialnym) ogranicza skuteczność zarówno programów zabezpieczających, które stosują analizę statyczną (szukanie wzorców) jak i dynamiczną (analiza działania programu w bezpiecznym środowisku). W tym drugim wypadku DeepLocker po prostu nie uruchomi swych szkodliwych funkcji, tak, by nie zostały one zidentyfikowane przedwcześnie. Nazwa nadana robakowi sugeruje, że może on wykorzystywać sieci neuronalne (deep learning), zatem (co wynika ze specyfiki takich sieci) analiza jego kodu pod kątem ekstrakcji obrazów i dźwięków, których oczekuje mogłaby być bardzo trudna, jeśli w ogóle możliwa.