​​Война машин уже вовсю идет.
А люди наивно полагают, что это проблема будущего.

Скарлетт О’Хара — один из наиболее известных женских персонажей. Ее умению жить реальностью и не задумываться о последствиях своих решений можно только позавидовать. «Я не буду думать об этом сегодня, я подумаю об этом завтра» - стала самой знаменитой фразой легендарного романа.
Поразительно, но человечество ведет себя ровно так же, как Скарлетт О’Хара. И сказанное в заголовке пока не осознается ни обывателями, ни ЛПРами госуровня, ни даже военными. Все продолжают считать, что война машин – это пусть и очень важный элемент картины мира, но он относится к миру будущего, и, следовательно, у нас еще будет время подумать, как минимизировать связанные с этим риски.
На самом деле, уже поздно пить Боржоми. И либо мы, наконец осознав высший приоритет этой мега-проблемы, срочно начнем курс ее лечения с помощью интенсивной «фарма-терапии», либо через 3-5 лет потребуется уже «химиотерапия или хирургия», с неопределенными шансами на успех.

Под войной машин понимается полная передача ответственности за решение проблемы «снаряда и брони» (технологий защиты и нападения) на компьютерные ИИ технологии.

Вот конкретный живой и 100%но актуальный пример из невоенной области (про военную писать, сами понимаете, себе дороже) – война с визуальными фейками.
В этой войне
• у нападающей стороны стоит задача средствами ИИ сварганить такую визуальную обманку (например, человека, похожего на Трампа в абсолютно компрометирующей обстановке или компании), чтоб подавляющее число ее увидевших поверили в нее;
• у защищающейся стороны задача средствами ИИ максимально быстро раскусить обманку и доказать, что это обман;
• тогда у нападающей стороны стоит задача средствами ИИ обмануть средства ИИ защиты;
• тогда у стороны защиты стоит задача не дать средствам ИИ нападения обмануть свои ИИ средства защиты;
И т.д. и т.п.

Ситуация на сегодняшний день в войне с визуальными фейками такова.
1) Подобно играм в шахматы и го, человек уже отдыхает (как на стороне защиты, так и на стороне нападения). На обеих сторонах работают исключительно ИИ.
Люди даже на HD видео и большом экране физически не способны распознать 30% визуальных феков, произведенных средствами ИИ нападения (а для обычного фото и видео на смартфонах и планшетах – более 40%).
Как нетрудно догадаться, ИИ защита распознаёт все 100%.
2) В связи с войной машин,
- успех ИИ защиты теперь на 100% зависит от «использования дополнительных знаний о предметной области»;
- а успех ИИ нападения – от «использования дополнительных знаний о дополнительных знаниях ИИ защиты о предметной области».

Все. Приехали. В области борьбы с визуальными фейками война машин уже идет.

А теперь перенесите по аналогии, например, на самоуправляемые авто.
В роли нападения мошенники, требующие от автопроизводителя $10 млрд, иначе они подсунут самоуправляемым авто этого производителя фейковые образы, снижающие распознавательные возможности дорожных знаков на 40%.
В роли защиты – ИИ автопроизводитель.

Ну а теперь перенесите пример на войну машин у военных.

Так что, - продолжаем жить по принципу Скарлетт О’Хара - «I'll think about it tomorrow»?

Информация к размышлению: «FaceForensics++: Learning to Detect Manipulated Facial Images»
Новая база данных «лицевых фейков», позволяющая ИИ защите побеждать ИИ нападение, если последнее использует 3 методики создания фейков: Face2Face, FaceSwap, DeepFakes.
Как вы, наверняка, сами понимаете, ИИ нападение уже вовсю разрабатывает несколько новых методов, про которые ИИ защита еще не знает (пока не знает).

#Deepfakes