komentarze, opinie, gospodarka

Czy i jak można karać AI wykorzystywaną m.in. przez cyberprzestępców do ataków?

Przemyslaw WojcikDynamicznie rośnie liczba rozwiązań, które w sposób automatyczny kontrolują wykorzystanie jak i rozwój sztucznej inteligencji. To odpowiedź między innymi na dezinformację w postaci dystrybucji fałszywych informacji, zdjęć czy filmów dystrybuowanych w internecie ale także wzrost liczby cyberataków na firmy i instytucje, w czasie których używa się właśnie różnego rodzaju AI. Zmienia się także prawodawstwo, które ma kontrolować wykorzystanie sztucznej inteligencji czego przykładem jest AI ACT uchwalony przez Parlament Europejski. Wydaje się jednak, że wykorzystanie sztucznej inteligencji powinna kontrolować … sztuczna inteligencja z wykorzystaniem różnego zestawu kar. Czy takie rozwiązanie jest możliwe?- analizuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa Prezes AMP SA

AI- plusy i minusy w skrócie.

Oczywiście istnieją już aplikacje oraz narzędzia nadzorujące działanie sztucznej inteligencji, a ich liczba rośnie wraz z rozwojem tej technologii oraz zwiększeniem potrzeby nadzoru nad nimi. Takie aplikacje są wykorzystywane do monitorowania, oceny oraz zapewnienia, że algorytmy AI działają zgodnie z założeniami, przestrzegają standardów etycznych, uchwalonych przepisów a także nie wykazują niepożądanych odchyleń lub błędów. To różnego rodzaju platformy, które automatycznie analizują działanie sztucznej inteligencji. Są także wykorzystywane przy projektowaniu nowych funkcjonalności AI.

Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinfomacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na firmy i instytucje, które mogą prowadzić do strat finansowych, ale także zagrożenia życia ludzkiego.”- komentuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa, Prezes AMP SA

Nie ma odwrotu od rozwoju sztucznej inteligencji szczególnie, że przynosi ona także korzyści nie tylko zagrożenia. SI pozwala na automatyzację powtarzalnych zadań, co zwiększa wydajność i oszczędza czas. Może przetwarzać ogromne zbiory danych i dostarczać cennych wniosków, co wspomaga podejmowanie decyzji opartych na faktach. Dzięki SI można dostosować oferty i komunikację do indywidualnych potrzeb użytkowników, poprawiając doświadczenie klienta. Wspiera rozwój nowych technologii i produktów, np. w medycynie (np. diagnoza), transporcie (autonomiczne pojazdy) czy edukacji (spersonalizowane nauczanie). Wykorzystanie SI w systemach monitoringu, rozpoznawania twarzy czy analizy zagrożeń może poprawić bezpieczeństwo w wielu dziedzinach. To tylko niektóre przykłady, które jednak są dowodem na to, że AI obok wielu korzyści generuje także zagrożenia.

Człowiek stara się kontrolować AI

Tym bardziej więc istotny jest nadzór nad jej wykorzystaniem. Akt o Sztucznej Inteligencji (AI Act) to pionierskie rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy prawne regulujące rozwój i stosowanie systemów AI. Jego główne założenia mają na celu ochronę praw obywateli, zapewnienie bezpieczeństwa oraz promowanie etycznego i odpowiedzialnego korzystania z AI. Na szczeblu unijnym powołany zostanie **Europejski Urząd ds. Sztucznej Inteligencji** (European Artificial Intelligence Board), który będzie koordynować działania i zapewniać spójność wdrażania regulacji. Za naruszenie przepisów AI Act przewidziano surowe sankcje, sięgające nawet do 6% globalnych rocznych przychodów firmy, co sprawia, że jest to jedno z bardziej restrykcyjnych rozporządzeń na świecie.

Jednak rodzi się pytanie czy człowiek jest w stanie nadążyć za rozwojem sztucznej inteligencji. Czy nie lepiej nadzór nad sztuczną inteligencją przekazać sztucznej inteligencji, która nie tylko kontrolowała by przestrzeganie zasad, ale mogła także karać AI i osoby z niej korzystające? Nałożenie sankcji na tego typu rozwiązania to temat trudny i niejednoznaczny, głównie dlatego, że AI nie posiada świadomości ani poczucia moralności. A to oznacza, że klasyczne formy kary – takie jak więzienie czy grzywny – są dla niej bezcelowe. Zamiast tego, kara dla AI powinna polegać na ograniczeniu jej działania lub nałożeniu sankcji na osoby lub organizacje odpowiedzialne za jej działanie. „ – komentuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa, Prezes AMP SA

Jak karać AI?

Jeśli system AI popełnia błędy lub działa w sposób nieetyczny, najprostszą formą „kary” jest jego zawieszenie lub wyłączenie. Przykładem może być wycofanie go z użytku, np. jeśli chatbot rozprzestrzenia dezinformację, jego twórcy mogą go zablokować lub przeprogramować. AI może być „ukarane” poprzez aktualizacje zmieniające jej działanie, w tym przez nałożenie dodatkowych restrykcji, np. ograniczenie dostępu do niektórych danych lub zmniejszenie autonomii. Taka zmiana pozwala na pozostawienie AI w użyciu, ale z wyeliminowaniem jej potencjalnie szkodliwych zachowań.

Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo, firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo, np. poprzez stosowanie niedozwolonych algorytmów nadzoru. W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy AI wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym. W przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych. Dzięki temu można przetestować i poprawić działanie systemu, zanim zostanie on ponownie wdrożony na szeroką skalę. „- komentuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa, Prezes AMP SA

Firmy mogą zostać zobligowane do zwiększenia transparentności dotyczącej działania systemu AI, co oznacza regularne raportowanie o decyzjach podejmowanych przez AI, ewentualnych błędach i sposobach ich naprawiania. To działanie przypomina „karę” w postaci dodatkowej odpowiedzialności i pracy administracyjnej dla firmy. W przypadku systemów AI, które są szczególnie szkodliwe lub niezgodne z regulacjami, można nałożyć na firmę lub zespół zakaz dalszego rozwijania tej konkretnej technologii. Może to być skuteczne zwłaszcza w przypadkach AI generujących dezinformację lub naruszających prywatność.

To tylko niektóre przykłady jak ograniczać niepożądane efekty działalności i wykorzystania sztucznej inteligencji. Coraz więcej państw wprowadza do swojego ustawodawstwa nowe przepisy regulujące te kwestie. Ale wydaje się zasadne pytanie czy człowiek jest w stanie nadążyć za rozwojem AI? Czy sztuczna inteligencja nie powinna być kontrolowana przez… sztuczną inteligencją, będącą oczywiście pod kontrolą człowieka. Wydaje się, że mogłoby to przyśpieszyć, zautomatyzować proces nadzoru nad AI i zmniejszyć liczbę niebezpiecznych przypadków tego typu rozwiązań.

Źródło: AMP S.A. / materiał prasowy