특이한 이미지를 넣은 적대적 패치를 바나나 옆에 두자 인공지능 학습 모델이 바나나를 토스터로 잘못 인식합니다. 인공지능을 속일 수 있는 것이죠. 적대적 패치는 인공지능, 특히 딥러닝 기반의 인공지능이 외부로부터 의도적 공격을 받을 경우 충분히 잘못 작동할 수 있다는 것을 보여줬어요. 이로써 인공지능이 생각만큼 안전하지 않을 수도 있음을 사람들은 알기 시작했고, 계속 발표된 적대적 패치 기반의 인공지능 공격은 사람들에게 많은 걱정을 불러일으켰습니다.