Robust(2)
-
Intriguing Properties of Vision Transformers
arxiv, github, 나의 요약 : vision transformer >>>>> CNN, texture보단 shape을 본다. 요약 occlusion(가림막), domain shifts(질감 변경), spatial permutations(격자무니 섞기), adversarial attack(공격), perturbations(픽셀 노이즈) 실험으로 ViT의 좋음을 확인 결과 1. occlusion, perturbation, domain shift에 좋다. 2. texture에 less biased(texture바껴도 잘맞춤) 3. high shape biased(shape 바뀌면 못맞춤) 4. Off-the-shelf feature사용해도 좋음(이전 layer의 feature로 앙상블) 1. Intro..
2021.06.10 -
Aleatoric and Epistemic Uncertainty - Alex Kendall
논문 : arxiv - What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? 코드 :pytorch 유투브 : 한글 유투브가 너무 잘 되어있음. 그냥 유투브 보자. Abstract Bayesian Deep Learning에서 가질수 있는 두가지 uncertainty인 Aleatoric이랑 Epistemic을 설명함. 내 요약 Aleatoric : 데이터가 가지고 있는 불확실성 Epistemic : 모델이 가지고 있는 불확실성 Introduction Aleatoric 센서, 모션 노이즈. 데이터가 많아도 해결 불가 Epistemic 모델 파라미터의 불확실성 모델 불확실성 Aleatoric Homoscedastic input이..
2021.03.31