МОДЕЛЬ ЗАГРОЗ СИСТЕМ ПІДТРИМКИ ПРИЙНЯТТЯ РІШЕНЬ, ЩО ФУНКЦІОНУЮТЬ НА ОСНОВІ ЕЛЕМЕНТІВ ШТУЧНОГО ІНТЕЛЕКТУ

DOI: 10.31673/2412-4338.2023.033140

  • Бойко А. О. (Boiko A. O.) Державний університет інформаційно-комунікаційних технологій, Київ
  • Шулімова Д. Д. (Shulimova D. D.) Державний університет інформаційно-комунікаційних технологій, Київ

Анотація

Сучасний розвиток штучного інтелекту (ШІ) впливає на багато аспектів життя і діяльності суспільства, включаючи системи підтримки прийняття рішень. ШІ вже успішно впроваджується у різних сферах, таких як бізнес, медицина, автоматизована обробка даних та багато інших. Проте, цей розвиток також приносить з собою різноманітні загрози та виклики, які потребують уважного вивчення та заходів безпеки. Дана стаття присвячена розробці та аналізу моделі загроз для систем підтримки прийняття рішень, які функціонують на основі елементів штучного інтелекту (ШІ). Актуальність дослідження полягає у швидкому розвитку технологій ШІ та їх все більш широкому використанні в різних галузях, включаючи управління, медицину, фінанси та багато інших. У статті описується структура та основні складові моделі загроз, що можуть виникнути в системах підтримки прийняття рішень на основі ШІ. Наведено огляд існуючих атак на штучний інтелект (ШІ), які охоплюють етапи навчання, використання алгоритмів машинного навчання, а також інформаційну інфраструктуру системи. Виконано класифікацію даних атак, засновану на аналізі процесу функціонування ШІ, та виявлено категорії атак, найбільш актуальні та небезпечні для систем ШІ. Запропоновано модель загроз для системи підтримки прийняття рішень, заснованої на технологіях штучного інтелекту, особливістю якої є врахування загроз конфіденційності даних ШІ систем, загроз функціонуванню ШІ систем та загроз інформаційним системам. Дана модель має практичне значення для розробників систем ШІ та для фахівців у галузі кібербезпеки, оскільки воно сприяє підвищенню рівня захищеності та надійності систем підтримки прийняття рішень на основі елементів штучного інтелекту у сучасному цифровому середовищі.

Ключові слова: штучний інтелект, машинне навчання, нейронні мережі, людино-машинна взаємодія, візуалізація даних, комп'ютерна безпека, уразливості технологій.

Список використаної літератури
1. Clark,G.A Malicious Attack on the Machine Learning Policy/G.Clark, M.Doran, W.Glisson//17th IEEE International Conference On Trust, Security And Privacy in Computing And Communications/12th IEEE International Conference On Big Data Science And Engineering(TrustCom/BigDataSE), 2018.
2. Adversarial attacks in machine learning: What they are and how to stop them. -https://venturebeat.com/2021/05/29/adversarial-attacks-in-machine-learning-what-the-are-and-how-to-stop-them.
3. Ateniese,G. Hacking smart machines with smarter ones: How to extract meaningful data from machine learning classifiers/G.Ateniese,G.Felici,L.V.Mancini 1 et al.//International Journal of Security and Networks.-201.-Vol.10,Issue 3.-P.137-150.
4. How Adversarial Attacks Work.-https://medium.com/xix-ai/how-adversarial-attacks-work-87495b81da2d.
5. Artificial intelligence and cybersecucity.-https://www.techopedia.com/artificial-intelligence-in-cybersecurity/2/34390.
6. Springer,J.M. A little Robustness Goes a Long Way Leveraging Robust features for Targeted Transfer Attacks/J.M.Springer, M.Mitchell, G.T.Kenyon//35th Conference on Neural Information Processing Systems (NeurIPS,2021).
7. Pang, T. Accumulative Posoning Attacks on Real-time Data/T.Pang,X.Yang, Y.Dong et al.//35th Conference on Neural Information Processing Systems (NeurIPS,2021).
8. How to attack Machine Learning (Evasion, Poisoning,Inference,Trojans,Backdoors).-https://towardsdatascience.com/how-to-attack-machine-learning-evasion-poisoning-inference-trojans-backdoors-a7cb5832595c.
9. Poisoning attacks on Machine Learning.-https://towardsdatascience.com/poisoning-attacks-on-machine-learning-1ff247c254db.
10. Liu,G. Provably Efficient Black-Box Poisoning Attacks Against Reinforcement Learning/G. Liu,L. Lai//35 Conference on Neural Information Processing Systems (NeurIPS,2021).
11. Optical Adversarial Attack Can Change Meaning of Road Signs. -https://www.unite ai/optical-adversarial-attack-can-change-the-meaning-of-road-signs/.
12. Shokri,R. Membership Inference Attack against Machine Learning Models /R.Shok, M.Stronati, C.Song, V.Shmatikov//IEEE Symposium on Security and Privacy,2017.
13. Niu,D. Moire Attack (MA): A New Potential Risk Of Screen Photos/D.Niu, R.Guo, Y.Wang//35th Conference on Neur Information Processing Systems (NeurIPS,2021).
14. Su,J. One pixel attack for fooling deep neural networks/J.Su,D.V. Vargas, S.Kouichi//IEEE Transactions on Evolutionary Computation.-2019.-Vol.23 Issue 5.-P.828-841.

Номер
Розділ
Статті