![](https://www.kv.by/sites/default/files/styles/post_picture/public/pictures/mainimage/2017/08/air_artificial-intelligence.jpg?itok=lfDJWP2b)
Выступая на хакерской конференции DEF CON эксперт компании Endgame Хирам Андерсон (Hyrum Anderson) показал, как можно настроить систему машинного обучения так, что она будет разрабатывать вредоносное ПО.
Речь идет не о полноформатной разработке троянов, однако автору доклада удалось использовать систему машинного обучения так, чтобы она превращала легитимный код во вредоносный, но при этом антивирусные решения с высокой долей вероятности продолжали ее игнорировать.
В целом алгоритм выглядит так: система машинного обучения вносит небольшие изменения в двоичный код, прогоняет его через антивирусный движок, анализирует полученные от антивируса данные и, в соответствии с ними, производит новые модификации.
Система, созданная в Endgame, тренировалась таким образом в течение 15 часов, произведя на свет в общей сложности 100 тыс. вредоносных сэмплов. 16% из них оказались невидимыми для антивирусных движков.
![Версия для печати Версия для печати](https://www.kv.by/sites/all/modules/print/icons/print_icon.png)
Комментарии
Кстати, антивирусов с ИИ до сих пор нет
Абзац (C)