(지금까지 image classification문제를 주로 했지만 이번에는 다양한 ComputerVision Tasks)
기존 Image Classification의 구조를 보면
입력 이미지가 들어오면 Deep Conv Net을 통과하여 네트워크를 통과하면 Feature Vector가 나온다. AlexNet이나 VGG의 경우 4096차원
여기서는 최종 Fully-Connected가 1000개의 클래스 스코어를 나타냄
즉 입력 이미지가 들어오면 "전체 이미지"가 속하는 카테고리가 출력이 됨.
기초적인 Image classification말고 Deep Learning으로 다른건 뭐가 있을까?
이렇게 4가지를 보겟음.
입력은 이미지 ⇒ 출력은 이미지의 픽셀에 카테고리를 정하게 됨.
일반 image classification 분류와 다른점