딥러닝(16)
-
DeepSORT(SIMPLE ONLINE AND REALTIME TRACKING WITH A DEEP ASSOCIATION METRIC)
Abstract MOT에서 간단하고 효과적인 알고리즘이었던 SORT의 성능향상을 위해 appearance information을 통합 더 긴 기간동안의 occlusion에도 객체 트래킹이 가능함 효과적으로 identity(ID라 하겠다) switch를 줄임 SORT의 방향과 같이 계산적으로 복잡한 과정은 offline pretrain과정에 치우침 offline pretrain단계에서는 대규모 person re-identification dataset에서 deep association metric을 학습한다. online 적용에서는 visual appearance space에서 nearest neighbor queries를 사용해 measurement-to-track association을 구축 => 즉,..
2021.10.01 -
docker로 ubuntu18.04 /cuda10.1 /cudnn7 /opencv4.4.0/pytorch1.4.0 환경 만들기
프로젝트 진행 중 ubuntu 18.04, cuda 10.1, cudnn 7, opencv 4.4.0, pytorch 1.4.0 의 환경을 구성해야 하는 일이 생겼다. docker로 가상환경을 구상하고자 한 것은 반복되는 서버 초기화에 지쳤고...^^ conda환경은 이제 트렌디하지 않기 때문이다 시간이 많이 없고 처음 해보는 거라 깊은 이해없이 하게 된 감이 없지않아 있지만 ㅠㅠ docker에 대한 깊은 이해는 앞으로 해가도록 하고 일단 이 환경을 구성하는데 성공한 것에 박수를 치면서 ㅎㅎㅎㅎ 경험을 공유하고자 한다 ubuntu 18.04환경의 원격서버에서 진행하였다 1. base가 되어줄 nvidia/cuda:10.1-cudnn7-devel-ubuntu18.04 이미지 pull https://gith..
2021.08.11 -
A Style-Based Generator Architecture for Generative Adversarial Networks:StyleGAN
Abstract •Style transfer lecture에서 차용하여 GAN을 위한 새로운 Generator 아키텍쳐 제안 • 새로운 아키텍쳐는 1. 자동으로 학습됨 2. 높은 수준의 특징들(자세, 정체성 등)이 unsupervised seperation됨 • 생성된 영상의 stochastic variation(주근깨, 머리카락 등)으로 scale-specific control of the synthesis가 가능하게 한다. • interpolation quality and disentanglement대한 정량적 표현을 위해 새로운 두가지 제안 1. perceptual path length 2. Linear separability • 다양한 고품질의 새로운 인간 얼굴 데이터셋 소개 - FFHQ data..
2021.07.15 -
[pytorch] nn.Upsample
주어진 멀티채널 1D / 2D / 3D 데이터를 업샘플링한다. 인풋데이터는 minibatch x channels x [optional depth] x [optional height] x width 형태로 가정되나, spatial input(2D)은 4D 텐서, volumetric input(3D)은 5D텐서가능한 알고리즘 : nearest neighbor, linear, bilinear, bicubic, 3D이상의 데이터에 대해서는 trilinear parameters size (int/tuple) : output 사이즈 scale_factor(float/tuple) : Depth, Height, Width에 입력받은 정수 만큼 곱해준다. (1,1,2,2) 가 인풋으로 들어오면 (1,1,4,4)가 된다...
2021.06.16 -
[Pytorch] nn.ReflectionPad2d
input tensor를 input boundary의 reflection(반사)를 이용해서 패딩 적용 2차원 아닌 N차원 패딩을 이용하려면 torch.nn.functional.pad()를 사용 padding은 int형이나 tuple형 : 패딩 사이즈. int형이면 모든 바운더리에 같은 패딩을 적용. 4-tuple이면 (padding_left, padding_right, padding_top, padding_bottom)으로 적용 Input: (N, C, H_in, W_in) Output: (N, C, H_out, W_out) W_out = W_in + padding_left + padding_right H_out = H_in + padding_top + padding_bottom https://pyt..
2021.06.16 -
ResNet
ResNet 간단 정리 기존 딥러닝 모델 -> 그냥 딥러닝 모델의 깊이만 늘린다고 성능이 늘어나지 않음 -> Residual Block의 출현 입력값을 출력값에 더해줄 수 있도록 지름길(shortcut)을 하나 만들어 줌 기존의 신경망은 입력값 x -> 타겟값 y로 매핑하는 함수 H(x)를 얻는 것이 목적이었다. 그러나 ResNet은 F(x) + x를 최소화하는 것을 목적으로 한다. x는 변할 수 없는 값 -> F(x)를 0에 가깝게 만드는 것이 목적이 된다. F(x) = 0이 되면 출력=입력=x로 같아지게 된다. F(x) = H(x) - x이므로 F(x)를 최소로 해준다 = H(x) - x를 최소로 해주는 것 H(x) - x = 잔차(residual) 즉, 잔차를 최소로 해주는 것이므로 ResNet이란..
2021.06.15