dr inż. Michał Malinowski

bazy grafowe, sztuczna inteligencja, cyberbezpieczeństwo

Zagrożenia dla modeli uczenia maszynowego: typologia ataków


Book chapter


Michał Malinowski
Mariusz Krawczyk, CyberEXPERT 2024 AI i QUANTUM COMPUTING W UNIKALNEJ SYNERGII DLA CYBERBEZPIECZEŃSTWA, Zagrożenia dla modeli uczenia maszynowego: typologia ataków, WYDAWNICTWO POLITECHNIKI ŚLĄSKIEJ, 2025 Nov, pp. 61-105


Cite

Cite

APA   Click to copy
Malinowski, M. (2025). Zagrożenia dla modeli uczenia maszynowego: typologia ataków. In M. Krawczyk (Ed.), CyberEXPERT 2024 AI i QUANTUM COMPUTING W UNIKALNEJ SYNERGII DLA CYBERBEZPIECZEŃSTWA (pp. 61–105). WYDAWNICTWO POLITECHNIKI ŚLĄSKIEJ. https://doi.org/10.6084/m9.figshare.30812846


Chicago/Turabian   Click to copy
Malinowski, Michał. “Zagrożenia Dla Modeli Uczenia Maszynowego: Typologia Ataków.” In CyberEXPERT 2024 AI i QUANTUM COMPUTING W UNIKALNEJ SYNERGII DLA CYBERBEZPIECZEŃSTWA, edited by Mariusz Krawczyk, 61–105. WYDAWNICTWO POLITECHNIKI ŚLĄSKIEJ, 2025.


MLA   Click to copy
Malinowski, Michał. “Zagrożenia Dla Modeli Uczenia Maszynowego: Typologia Ataków.” CyberEXPERT 2024 AI i QUANTUM COMPUTING W UNIKALNEJ SYNERGII DLA CYBERBEZPIECZEŃSTWA, edited by Mariusz Krawczyk, WYDAWNICTWO POLITECHNIKI ŚLĄSKIEJ, 2025, pp. 61–105, doi:10.6084/m9.figshare.30812846.


BibTeX   Click to copy

@inbook{micha2025a,
  title = {Zagrożenia dla modeli uczenia maszynowego: typologia ataków},
  year = {2025},
  month = nov,
  chapter = {Zagrożenia dla modeli uczenia maszynowego: typologia ataków},
  pages = {61-105},
  publisher = {WYDAWNICTWO POLITECHNIKI ŚLĄSKIEJ},
  doi = {10.6084/m9.figshare.30812846},
  author = {Malinowski, Michał},
  editor = {Krawczyk, Mariusz},
  booktitle = {CyberEXPERT 2024 AI i QUANTUM COMPUTING W UNIKALNEJ SYNERGII DLA CYBERBEZPIECZEŃSTWA},
  month_numeric = {11}
}

Artykuł przedstawia zagrożenia związane z bezpieczeństwem systemów uczenia maszynowego (ML), koncentrując się na ich typologii. Omówiono podatności systemów ML, w tym ataki na dane wejściowe, dane treningowe, modele, algorytm oraz wyniki, a także ich potencjalne konsekwencje. Praca analizuje szczegółowe przykłady, takie jak ataki adwersarialne i manipulacje danymi treningowymi, wskazując na ich wpływ na działanie modeli oraz precyzję predykcji. W opracowaniu podjęto próbę klasyfikacji zagrożeń oraz opisano kluczowe mechanizmy działania ataków na systemy AI w różnych zastosowaniach, takich jak diagnostyka medyczna, systemy autonomiczne oraz aplikacje finansowe.

Share

Tools
Translate to