728x90

분류 전체보기 138

Ubuntu18.04 인터넷 없이 apt 설치

인터넷이 되는 PC -> 인터넷 안 되는 PC로 패키지 설치하는 예시입니다. 저의 경우에선 imagemagick 패키지가 없어서 우분투 16, 18버전 (16->16, 18->18)에서 테스트해보며 설치를 진행하였습니다. 1. 먼저 인터넷 되는 PC에서 다음의 명령어를 입력합니다. apt-get install --download-only [패키지명] 2. /var/cache/apt/archives 에 보면 패키지와 관련된 .deb 파일들을 확인할 수 있습니다. 3. *.deb 파일들을 인터넷 안 되는, 혹은 해당 패키지가 설치되지 않은 PC로 이동합니다. 4. 해당 경로에 들어가 dpkg -i *.deb 명령어를 입력하시면 설치가 된 것을 확인할 수 있습니다. 출처 : unix.stackexchange...

Computer Science/OS 2020.11.28

EXPLAINING AND HARNESSINGADVERSARIAL EXAMPLES

왼쪽 이미지는 학습된 모델의 입력으로 넣었을 때 판다로 나오지만, 가운데 이상한 사진을 섞어서 모델에 입력하면 우측과 같이 사람이 보았을땐 여전히 판다지만, 딥러닝의 결과로는 99.3% gibbon이라는 긴팔원숭이가 나옵니다. 위와 같이 원래의 입력에 임의의 노이즈를 추가해 의도적으로 결과를 바꾸는 것을 Adversarial Attack 이라고 하고, 반대로 의도적인 방해에 대응하여 인식에 방해되지 않도록 만드는 것을 Adversarial Defense라고 합니다. 딥러닝을 이용한 학습이 증가하면서, 딥러닝이 얼마나 믿을만한지 혹은 딥러닝이 얼마나 개선할 것이 많은지 에 대한 테스트에 관하여 진행한 논문이 있습니다. 해당 논문은 딥러닝에서 선형 모델로부터 풀어나갑니다. 쉽게, y=Wx 라는 함수를 떠올려..

[TensorFlow] Model Save/Load 관련

TF Model Save tf.saved_model.save(model, path) — Keras Output path/saved_model.pb path/assets path/variables variables.data-00000-of-00001 variables.index model.save_weights(path) path 내 variables (Weights) 만 변경하는 방식 Output variables.data variables.index TF Model Load tf.saved_model.load(path) — Keras pb 파일 불러올 때 쓴다 model.load_weights(path) model 의 weight 값을 불러올 때 쓴다 variables.data → saved_model..

AI | ML/코드 2020.08.27

[Python] HappyBase를 이용한 HBase 접근

파이썬을 이용해 HBase에 접근하기 위해선 HappyBase 라이브러리가 필요하다. 따라서 이용시엔 첫번째로 HappyBase 라이브러리를 설치를 해야한다. 나의 경우는 다수의 이미지를 입출력하는 게 목적이였고, 실행환경은 도커를 구축해 아래의 링크에 따라 설치를 진행하였다. 아래의 사이트에서 설치와 간단한 튜토리얼을 확인할 수 있다. https://hub.docker.com/r/dajobe/hbase Docker Hub hub.docker.com 정상적으로 설치가 되었을경우, 다음의 테스트로 연결을 확인할 수 있다. import happybase connection = happybase.Connection('hostname', 9090) #hostname = IP address, port=9090 c..

[TensorRT] Window 환경에서 PyTorch로 TensorRT 사용하기

https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html 위의 사이트에 있는 내용을 한글로 제가 겪은 시행착오에 대해서만 쓰는 것입니다. 저와는 다른 상황일 경우, 위의 홈페이지를 참고하시길 바랍니다. 제가 겪은 부분에서 미리 말씀드리면 Windows환경에서 TensorRT 사용은 불가능한 것으로 보입니다. 저의 환경은 다음과 같습니다. CUDA : CUDA 10.0 CUDNN : CUDNN 7.6 OS : Windows10 GPU : GTX1080Ti Python : 3.6 (Anaconda) https://developer.nvidia.com/tensorrt NVIDIA TensorRT */ developer.nvidia.c..

Window C++ ONNX 환경 실행

지난 시간에 C++에서 ONNX 환경 테스트를 실행하였는데요, 이번 시간에는 PyTorch에서 딥러닝 모델을 C++ onnx로 변경하는 방법에 대해 써보겠습니다. 첫단계로, PyTorch 사이트에서 https://pytorch.org/docs/stable/onnx.html#id2에서 model을 onnx로 변경하는 방법을 숙지합니다. torch.onnx.export(model, dummy_input, "alexnet.onnx", verbose=True, input_names=input_names, output_names=output_names) 보통은 학습이 된 model을 옮기실텐데, model 선언 이후, torch.load, model.load_state_dict로 모델에 weight값을 불러와야 ..

Window C++ ONNX 환경 테스트

지난 포스터에서 Windows C++ ONNX 환경 설정을 하였습니다. 이번 시간에는 ONNX를 환경 테스트 하는 방법에 대해 설명하겠습니다. 지난 시간에 https://github.com/microsoft/onnxruntime 사이트에서 onnx 환경을 다운받았는데요, onnx 환경이 제대로 작동하는지 확인하기 위해, 아래 경로의 사이트에서 cpp 예제 파일을 실행해봅시다. #include #include #include int main(int argc, char* argv[]) { //************************************************************************* // initialize enviroment...one enviroment per pr..

Window C++ ONNX 환경 구축

[환경설정] 1) Visual Studio 2017, CUDA, CUDNN, 파이썬, CMake가 설치해야 함 2) Unicode 변경 3) https://pytorch.org/docs/stable/onnx.html 에서 모델변환 방법을 숙지하여 실행해 해당 모델을 onnx 형식으로 바꿉니다. 4) 시작 메뉴 > VS 2017용 x64 네이티브 도구 명령 프롬프트 실행 5) git clone https://github.com/microsoft/onnxruntime 6) 다운받은 폴더로 이동 후, cd onnxruntime 7-1) Debug용 설치 build.bat --use_cuda --cudnn_home "C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v1..

728x90