Deep Learning/개념(16)
-
PatchGAN Discriminator
patch 단위로 Discriminate를 한다 ? Discriminator의 구조에 따른 GAN 네트워크의 구분 PixelGAN은 1 x 1 patch에 대해 진위 여부를 확인하고, PatchGAN은 N x N 사이즈의 패치 영역에 대해 진위를 판단 ImageGAN은 일반적으로 알고 있는 VanillaGAN처럼 전체 영역에 대해 진위 여부를 판단 PatchGAN = Markovian Discriminator, Local-patch Disctiminator 전체 영역이 아닌 특정 크기 (NxN) patch단위로 generator가 만든 이미지의 진위 여부를 판단. correlation 관계가 유지되는 범위에 해당하는 적절한 크기의 patch size를 정해야 함. -> patch size는 hyper p..
2021.06.17 -
Markov Random Field
Markov Random Field = 마르코프 네트워크 Bayesian Modeling 을 통해서 이미지를 분석하는데에사용되는 방법 . 한 부분의 데이터를 알기 위해 전체의 데이터를 보고 판단하는 것이 아니라, 이웃하고 있는 데이터들과의 관계를 통해서 판단 이미지 복원/텍스쳐분석/segmentation/image labeling/edge detectoin/object recognition 등에서 활용 MRF ? 1차 마르코프 연쇄 : 한 상태 -> 다른상태 변할 확률이 '현재 상태'에만 의존하는 모델1차 마르코프 가정 : 시간 n에서 어떤 사건이 관측될 확률은 시간 n-1에서의 관측 결과인 q_n-1에만 의존한다는 가정 = 바로 이전의 확률에만 의존 ==> 마르코프 모델(Markov Model) : 마..
2021.06.17 -
Bayesian Modeling
Bayesian Model은 확률을 기반으로 어떤 문제에 대해 결론을 내리는 모델이다. Bayesian Theory를 기반으로 한다 (베이즈정리) Baysian Theory는 사전확률과 사후 확률의 관계를 나타내는 정리이다. Prior Probability (사전 확률) 추가적 정보가 주어지기 전 정보 관측자가 관측을 하기 전에 가지고 있는 확률 분포 Posterior Probability (사후 확률) 추가적 정보가 주어진 상태에서의 사전 확률. = 조건부 확률 사전 확률과 가능도가 주어졌을 때, 관측자는 관측값을 얻은 다음 베이즈 정리에 의해 사후 확률을 얻을 수 있다. ex) 사건A, 사건 B 존재 P(A) = A사건이 발생할 사전확률 B라는 사건은 존재하지만 B대한 정보가 아무것도 없음 P(A|B..
2021.06.17 -
ResNet
ResNet 간단 정리 기존 딥러닝 모델 -> 그냥 딥러닝 모델의 깊이만 늘린다고 성능이 늘어나지 않음 -> Residual Block의 출현 입력값을 출력값에 더해줄 수 있도록 지름길(shortcut)을 하나 만들어 줌 기존의 신경망은 입력값 x -> 타겟값 y로 매핑하는 함수 H(x)를 얻는 것이 목적이었다. 그러나 ResNet은 F(x) + x를 최소화하는 것을 목적으로 한다. x는 변할 수 없는 값 -> F(x)를 0에 가깝게 만드는 것이 목적이 된다. F(x) = 0이 되면 출력=입력=x로 같아지게 된다. F(x) = H(x) - x이므로 F(x)를 최소로 해준다 = H(x) - x를 최소로 해주는 것 H(x) - x = 잔차(residual) 즉, 잔차를 최소로 해주는 것이므로 ResNet이란..
2021.06.15 -
stochastic function(확률함수)
CycleGAN - G와 F는 stochastic function이어야 한다고 한다. stochastic function, 확률함수란 무엇일까 간단히 살펴보자 확률 변수? 무작위 실험 겨로가 특정 확률로 발생하는 각각의 결과를 수치적 값으로 표현하는 변수. 예를 들어 동전 던지기 실험을 한다면 앞을 1, 뒤를 0으로 지정하였을 때 이를 확률변수라고 한다. 확률 분포? 확률 변수의 모든 값과 그에 대응하는 확률들이 어떻게 분포하는지를 나타냄. 예를 들어 동전을 2번 던져 앞이 나오는 확률 변수를 X라고 한다면 X 0 1 2 P(X) 1/4 1/2 1/4 이것이 확률분포. 확률 함수? 이렇게 확률 변수에 의해 정의된 실수를 0~1사이의 확률로 대응시키는 함수 이렇게 정리할 수 있겠다.
2021.06.08 -
L1, L2 Norm/Regularization
Norm [선형대수학] 벡터의 크기(magnitude) 또는 길이(length)를 측정하는 방법 (주의) 차원 != 길이 L1, L2 Norm 이 식에서 p=1이면 L1 Norm, p=2이면 L2 Norm s.sum(dim=1, keepdim=True) # L1 s.pow(2).sum(dim=1, keepdim=True).sqrt() # L2 L1 Norm L1 Norm 은 벡터 p, q 의 각 원소들의 차이의 절대값의 합 L2 Norm L2 Norm 은 벡터 p, q 의 유클리디안 거리(직선 거리) 위 식은 p = (x_1, x_2, ... , x_n), q = (0, 0, ... , 0) 일 때라고 할 수 있음. 검정색 두 점사이의 L1 Norm : 빨간색, 파란색, 노란색 L2 Norm: 초록색 L..
2021.05.22