Konferencja: CyberEXPERT 24
Miejsce: 5-6 listopada 2024r Warszawa
Zorganizowana przez: Eksperckie Centrum Szkolenia Cyberbezpieczeństwa
Miejsce: 5-6 listopada 2024r Warszawa
Zorganizowana przez: Eksperckie Centrum Szkolenia Cyberbezpieczeństwa
Opis:
Wraz z szybkim rozwojem sztucznej inteligencji (AI) i systemów uczenia maszynowego (ML) pojawiają się coraz bardziej wyrafinowane zagrożenia, które mogą podważać ich bezpieczeństwo. Modele ML, wykorzystywane w kluczowych sektorach, takich jak przemysł, finanse, medycyna, infrastruktura krytyczna, sektor militarny, a także w operacjach związanych z wojną hybrydową i informacyjną, stają się kuszącym celem dla cyberprzestępców oraz organizacji państwowych. Ataki te mogą mieć poważne konsekwencje, zagrażając integralności, poufności i dostępności systemów AI, co w przypadku zastosowań militarnych i informacyjnych może prowadzić do destabilizacji i dezinformacji na szeroką skalę.
W niniejszej prezentacji przedstawiona zostanie szczegółowa typologia najczęściej spotykanych ataków na modele uczenia maszynowego, w tym:
Wraz z szybkim rozwojem sztucznej inteligencji (AI) i systemów uczenia maszynowego (ML) pojawiają się coraz bardziej wyrafinowane zagrożenia, które mogą podważać ich bezpieczeństwo. Modele ML, wykorzystywane w kluczowych sektorach, takich jak przemysł, finanse, medycyna, infrastruktura krytyczna, sektor militarny, a także w operacjach związanych z wojną hybrydową i informacyjną, stają się kuszącym celem dla cyberprzestępców oraz organizacji państwowych. Ataki te mogą mieć poważne konsekwencje, zagrażając integralności, poufności i dostępności systemów AI, co w przypadku zastosowań militarnych i informacyjnych może prowadzić do destabilizacji i dezinformacji na szeroką skalę.
W niniejszej prezentacji przedstawiona zostanie szczegółowa typologia najczęściej spotykanych ataków na modele uczenia maszynowego, w tym:
- Ataki adwersarialne, które manipulują danymi wejściowymi, aby wprowadzić model w błąd i uzyskać nieprawidłowe wyniki,
- Wstrzyknięcie polecenia (Prompt Injection), polegające na modyfikacji zapytań w celu przejęcia kontroli nad modelem i wymuszenia niepożądanych działań,
- Zatrucie danych (Data Poisoning), gdzie złośliwe dane treningowe prowadzą do błędnego funkcjonowania modelu,
- Ataki typu backdoor, umożliwiające wprowadzenie ukrytych mechanizmów złośliwych, które mogą być aktywowane przez atakujących,
- Kradzież modelu (Model Theft), dająca atakującym możliwość nieautoryzowanego kopiowania modeli w celu komercyjnej lub złośliwej eksploatacji.
Prezentacja wzbogacona zostanie o praktyczne przykłady z literatury, które ukażą, jak tego typu ataki wpływają na funkcjonowanie systemów AI oraz jakie niesie to konsekwencje w praktyce.
Celem wystąpienia jest nie tylko podniesienie świadomości uczestników konferencji na temat współczesnych zagrożeń, ale również zainspirowanie do refleksji nad możliwymi środkami ochrony, które mogą pomóc w ich skutecznym zwalczaniu, szczególnie w kontekście krytycznych zastosowań militarnych, wojny hybrydowej i informacyjnej.
Celem wystąpienia jest nie tylko podniesienie świadomości uczestników konferencji na temat współczesnych zagrożeń, ale również zainspirowanie do refleksji nad możliwymi środkami ochrony, które mogą pomóc w ich skutecznym zwalczaniu, szczególnie w kontekście krytycznych zastosowań militarnych, wojny hybrydowej i informacyjnej.