TechSparks
TechSparks

Статья немного занудливо написана, но тема и некоторые результаты сильно впечатляют. На первый взгляд тема не нова: как модифицировать изображение так, чтобы компьютерное зрение сильно ошиблось в его классификации? Таких способов придумано немало, некоторые весьма эффективны — но на этот раз исследователи все время задавались вопросом - а как модифицировать картинку так, чтобы и люди ошиблись, а не только искусственные нейронные сети. И, конечно, такие фальшивки научили генерить именно нейронную сеть. Авторы прекрасно осознают с каким огнём играют. В конце они четко формулируют вывод: можно научить сетку эффективно манипулировать тонкими аспектами человеческого восприятия, а не только компьютерным классификатором. И приводят пример: можно незаметно для зрителя исказить лицо человека так, что он останется узнаваем — вот только станет вызывать недоверие. Ну или другую эмоцию.
Очень перспективное направление, если немного напрячь фантазию. Как минимум, оно предостерегает нас от очередной ловушки ложной гордости: мол машину-то обмануть легко, а нас с нашим богатством жизненного опыта и пониманием контекста, какая-то там нейронная сеть не обманет. Не обольщайтесь — и нас обманет как миленьких, было бы лишь такое желание у тех, кто эту сеть обучает ;)
https://spectrum.ieee.org/the-human-os/robotics/artificial-intelligence/hacking-the-brain-with-adversarial-images

https://spectrum.ieee.org/the-human-os/robotics/artificial-intelligence/hacking-the-brain-with-adversarial-images

Hacking the Brain With Adversarial Images

Researchers from Google Brain show that adversarial images can trick both humans and computers, and the implications are scary
| IEEE Spectrum: Technology, Engineering, and Science News