Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



17.09.2019

PLNOG23 czyli sieci 5G,...

Największa polska konferencja telekomunikacyjna powraca do Krakowa! Wśród nowości ścieżka...
05.09.2019

Cloudya – nowa usługa NFON

Po ponad dekadzie ciągłego rozwoju technologii Cloudya, swobodna i niczym nie ograniczona...
02.09.2019

Na dużą skalę

Kaspersky Hybrid Cloud Security
02.09.2019

Bezpieczny brzeg sieci

Fortinet Secure SD-Branch
02.09.2019

Nowoczesne centra danych

AMD EPYC
30.08.2019

Dostęp do AI i ML

VMware Cloud Foundation
30.08.2019

Lekkość i moc

Toshiba Portégé A30-E
30.08.2019

Bez przestojów

APC Easy UPS On-Line
29.08.2019

Duże moce

Lenovo ThinkSystem SR635 i SR655

Ciemna strona mechanizmów AI

Data publikacji: 29-08-2019 Autor: Krystian Lempicki
Ukrywanie złośliwego...

Sztuczna inteligencja może służyć do… Nie, nie będziemy tu pisać o rozwoju IT i zmianie świata na lepsze. AI, jak każda technologia, może też generować zagrożenia. Wszystko zależy od intencji. Tworzenie niewykrywalnych wirusów, aktywowanych po rozpoznaniu twarzy ofiary, niszczenie reputacji firm lub osób, wywieranie wpływu na politykę i opinie użytkowników czy przejmowanie kontroli nad urządzeniami IoT to tylko kilka z zastosowań.

 

Powstaje i jest wdrażanych coraz więcej praktycznych rozwiązań wykorzystujących mechanizmy sztucznej inteligencji. Stają się one powszechne i trafiają pod strzechy. Równocześnie warto być świadomym, że amunicja z oznaczeniami AI, ML, DL znalazła miejsce w arsenale cyberprzestępców. Jakie są jej zastosowania? Przykładowo badanie przeprowadzone w ramach europejskiego projektu SHERPA pokazało, jak działają grupy skupiające się głównie na manipulowaniu wdrożonymi systemami sztucznej inteligencji. Ich celem są mechanizmy AI wykorzystywane m.in. przez wyszukiwarki internetowe, media społecznościowe i systemy rekomendacji oraz urządzenia działające w systemach inteligentnych domów. Warto być świadomym – cybermanipulacja połączona z zaawansowanymi atakami ukierunkowanymi to nadchodząca rzeczywistość.

> INTELIGENCJA SZTUCZNA, CZYLI JAKA?

Jeżeli przyjmiemy, że inteligencja polega na zdolności do przetwarzania informacji na poziomie abstrakcyjnych idei, za obdarzonych inteligencją można uznać nie tylko ludzi, ale również odpowiednio nauczone komputery. Według Turinga maszyna jest inteligentna, gdy człowiek-tester nie jest w stanie odróżnić jej odpowiedzi od odpowiedzi człowieka. Żeby zdać pełny test, musi ona posiadać zdolność przetwarzania języka naturalnego, uczenia się i stosowania zdobytej wiedzy, wnioskowania oraz rozpoznawania obrazów. Z kolei wg definicji Kaplana i Haenleina sztuczna inteligencja to „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnątrz, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”. Algorytmy uczenia maszynowego trenuje się przy użyciu historycznych danych. Podczas uczenia algorytm wykrywa ukryte w tych danych wzorce i tworzy na ich podstawie modele, które mogą być używane do uzupełniania brakujących danych o nowe obserwacje, nieznajdujące się w zbiorze danych treningowych.

Olbrzymie możliwości uczenia maszynowego wykorzystują zarówno twórcy aplikacji i usług użytkowych, producenci rozwiązań z dziedziny cyberbezpieczeństwa, jak i cyberprzestępcy. W tym ostatnim przypadku przykładem mogą być algorytmy potrafiące generować całe wypowiedzi z użyciem głosu do złudzenia podobnego do głosu danej osoby czy sfałszowane klipy wideo z wizerunkiem określonej osoby. Nawet tak podstawowe zastosowania jak te, zręcznie użyte, są potężnymi narzędziami mogącymi posłużyć np. do wpływania na opinię publiczną za pomocą materiałów wyglądających na prawdziwe wywiady czy relacje, a w rzeczywistości będących fake newsami. Ich liczba będzie rosnąć, a odróżnienie ich od prawdziwych informacji będzie coraz trudniejsze, a z czasem może nawet niemożliwe.

> PODSZEPTY I UKRYTE POLECENIA

Wspomniany już projekt badawczy SHERPA, finansowany przez Unię Europejską, został zainicjowany w 2018 r. przez 11 organizacji z 6 krajów, a jego celem jest „poznanie etycznych oraz związanych z prawami człowieka konsekwencji upowszechniania się sztucznej inteligencji i analizy big data, a także pomoc w opracowaniu sposobów radzenia sobie z powstającymi w efekcie rozwoju AI napięciami społecznymi”. Skąd pomysł na takie badanie? Jednym z powodów było to, że na zlecenie cyberprzestępcy aktywnie promują produkty i organizacje lub zmniejszają ich popularność oraz podpowiadają użytkownikom określone treści, używając wielu marionetkowych kont do manipulowania danymi wykorzystywanymi przez AI. Są to tzw. ataki typu Sybil (słowo pochodzi od imienia Sybil Dorsett, pseudonimu Shirley Ardell Mason – amerykańskiej nauczycielki sztuki, chorej na zaburzenie dysocjacyjne tożsamości, wcześniej nazywane zespołem wielu osobowości). Przestępcy mają w ofercie np. działania polegające na tym, że po nazwie wyszukiwanej firmy w przeglądarce automatycznie sugerowane jest słowo „oszustwo”. Mogą też manipulować rankingami i bardzo popularnymi systemami rekomendacji. Algorytmy AI mogą również wpływać na gust, przekonania i zachowania użytkowników poprzez dopasowywanie wyświetlanych treści do ich tożsamości, preferencji itp. Teoretycznie takie działanie może prowadzić do stworzenia swoistej pętli, w której system tak długo będzie dopasowywał informacje podawane obranej za cel osobie, dopóki nie zaobserwuje wyrażania pożądanych przez atakującego opinii i prezentowania oczekiwanych zachowań. To trudne do wykrycia w erze informacyjnych baniek podszepty i cyfrowe pranie mózgu.

Innym typem ataków, przeprowadzonych w 2018 r. przez niemieckich naukowców z Horst Görtz Institute for IT Security w Bochum (czy tylko przez nich?), były skuteczne psychoakustyczne ataki na systemy rozpoznawania mowy, podczas których ukrywali komendy głosowe w śpiewie ptaków. Jak pokazał eksperyment, promowane treści wideo z ukrytymi w ten sposób poleceniami mogły odpowiednio instruować inteligentne urządzenia domowe, takie jak asystenty Alexa czy Siri, nakłaniając je do zmiany ustawień podpiętego do nich środowiska (np. odblokowania drzwi wejściowych) czy innych działań. W ten sposób można np. inicjować wyszukiwanie w internecie obciążających treści (kontakty z organizacjami terrorystycznymi, poszukiwanie zakazanych substancji, pornografia dziecięca), aby później szantażować obranego za cel użytkownika.

 

Problem nie jest wyssany z palca. Ostatnie badanie pt. „The Current State and Future of Voice Commerce” firmy konsultingowej SUMO Heavy, pokazuje, że obsługa sprzętów i aplikacji głosem staje się coraz popularniejsza. W Polsce, z powodu ograniczeń językowych, jest to na razie słabo widoczne, ale w USA i na zachodzie Europy coraz więcej osób korzysta z głosu zamiast z ekranu dotykowego czy myszki. Najpopularniejszymi urządzeniami, na których można korzystać z asystentów głosowych, naturalnie są smartfony (wskazania 49% respondentów). Na drugim miejscu znalazły się smart głośniki (18%), które są najbardziej naturalnym środowiskiem dla asystenta głosowego (35% respondentów ma taki głośnik, co trzeci właściciel smart głośników deklaruje, że korzysta z niego codziennie, a 55% przynajmniej raz w tygodniu). Najpopularniejszym głoś­nikiem jest Amazon Echo.

 

[...]

 

Autor jest specjalistą IT i niezależnym dziennikarzem technologicznym z ponad 10-letnim doświadczeniem, zajmującym się analizą trendów.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"