본문 바로가기

Studies & Courses32

Eager Few Shot Object Detection (RetinaNet) 이번 실험에서는 pre-trained COCO checkpoint를 받아온 뒤 RetinaNet architecture의 TF2에 맞게 fine tuning을 하여 example에 적용해보도록 하겠습니다. 이 실험은 Colab에서 구현했으며 GPU를 사용하면 5분 이하로 걸릴 것입니다. Imports 먼저 tensorflow를 설치합니다. !pip install -U --pre tensorflow=="2.2.0" Tensorflow Object Detection API를 다운로드합니다. import os import pathlib #tensorflow model repository를 clone하기 if "models" in pathlib.Path.cwd().parts: while "models" in p.. 2021. 4. 4.
[Object Detection] Tensorflow Hub 활용하기 (inception resnet V2) Tensorflow Hub 에 있는 object detection model을 어떻게 사용하는지 알아보기 위해 간단한 구현을 하려고 합니다. 해당 코드는 CoLab에서도 확인 가능합니다. - Tensorflow Hub에서 object detection model 찾아보기 - 나의 workspace에 models load하기 - Inference를 위해 image를 preprocess하기 - models에 inference하고 output을 inspect하기 Imports import tensorflow as tf import tensorflow_hub as hub from PIL import Image from PIL import ImageOps import tempfile from six.moves.u.. 2021. 3. 31.
[Coursera 수료 ✅ ] DeepLearning.AI TensorFlow Developer 모델 구현 과정에서 실력의 빈 틈이 너무 많은 것 같아 Coursera에서 제공하는 DeepLearning.AI TensorFlow Developer 과정을 수료했습니다. 총 4개의 코스가 있는데 이미지 분야만 공부하다가 NLP나 Sequence 같은 분야도 접하게 되어 흥미로웠습니다 :) 2021. 3. 25.
[ML 기초] 배치(batch)와 에포크(epoch) 차이 Batch size: 전체 트레이닝 데이터 셋을 여러 작은 그룹을 나누었을 때 batch size는 하나의 소그룹에 속하는 데이터 수 Epoch: 전체 트레이닝 셋이 신경망을 통과한 횟수 Iteration: iteration은 1 epoch를 마치는데 필요한 미니배치 갯수 2021. 3. 11.
용어 구분 - 인공지능, 기계학습, 데이터과학, 빅데이터, 데이터마이닝, 에이전트 1. 인공지능 의사결정, 판단, 추론, 학습, 예측 등 인간의 지능적인 행위를 컴퓨팅 모델로 만드는 것이다. 기계학습보다는 포괄적인 의미이다. 2. 기계학습 인공 지능의 한 부분으로 인간의 학습, 예측, 판단 등의 지능적 행위를 컴퓨팅 모델로 수행하는 것이다. 3. 데이터과학 정형, 비정형 형태를 포함한 다양한 데이터로부터 지식과 인사이트를 추출하는데 과학적 방법론, 프로세스, 알고리즘, 시스템을 동원하는 융합분야이다. 데이터과학은 데이터마이닝보다 다학제적(interdisciplinary)이고 전방위적으로 비지니스, 기술, 오퍼레이션등 거의 모든 분야에 연결된 분야라고 볼수 있다. 4. 빅데이터 기존의 시스템으로는 처리하기 어려운 엄청난 양의 데이터를 말한다. 크기(Volume), 속도(Velocity).. 2021. 3. 9.
[Object Detection] 1-Stage Detector와 2-Stage Detector 차이 Deepfashion2 dataset과 EfficientDet을 사용한 Multiple-Clothing Detection and Fashion Landmark Estimation Using a Single-Stage Detector 논문을 읽다가 1-Stage Detector로 하나의 single GPU로 빠른 fast inference time(42 ms)을 도달했다고 하여 1-Stage Detector와 2-Stage Detector의 차이를 다른 분의 블로그 포스팅을 참고하여 이번에 정리하고 넘어가려고 합니다. 1-Stage Detector와 2-Stage Detector milestone 2-Stage Detector Regional Proposal과 Classification이 순차적으로 이루어.. 2021. 3. 2.
[Coursera 수료 ✅ ] Convolutional Neural Networks (Notion/GitHub) 논문을 읽는 과정에서 지식의 빈 틈이 너무 많은 것 같아 Coursera에서 제공하는 Convolutional Neural Networks 과정을 수료했습니다. Convolutional Neural Networks: www.coursera.org/learn/convolutional-neural-networks/ 개인적으로 정리한 Notion 페이지와 Github입니다. 개인 공부를 위해 정리한 거라 깔끔하게 정리되지는 않았지만, 큰 틀을 보시는 데에는 좋을 것 같습니다. 정리 노트: www.notion.so/Convolutional-Neural-Networks-f2a126dd6e274b35a4cd535c84061189 GitHub: github.com/sokim0991/Convolutional-Neura.. 2021. 2. 8.
[Coursera 수료 ✅ ] Neural Networks and Deep Learning (Notion/GitHub) Machine Learning 강의를 복습하는 마음에서 Coursera에서 제공하는 Neural Networks and Deep Learning 과정을 수료했습니다. Neural Networks and Deep Learning: www.coursera.org/learn/neural-networks-deep-learning 개인적으로 정리한 Notion 페이지와 Github입니다. 개인 공부를 위해 정리한 거라 깔끔하게 정리되지는 않았지만, 큰 틀을 보시는 데에는 좋을 것 같습니다. 정리 노트: www.notion.so/Neural-Networks-and-Deep-Learning-22025649aa1546fba7bcce4081b4f141 GitHub: github.com/sokim0991/Neural-Ne.. 2021. 2. 8.
[cs231n] Minimal Neural Network Case Study 간단한 2차원 신경망의 구현에 대한 전체 과정을 살펴 보겠습니다. 먼저 간단한 선형분류기를 구현한 다음 이 코드를 2 layer 신경망으로 확장하고자 합니다. Generating some datanp.linspace: np.linspace(배열의 시작 값, 배열의 마지막 값, 값의 개수)from builtins import range import numpy as np from random import shuffle from past.builtins import xrange import matplotlib.pyplot as plt N = 100 # number of points per class D = 2 # dimensionality K = 3 # number of classes X = np.zeros(.. 2021. 1. 14.
[ML/DL] softmax와 negative log-likelihood 신경망 구축 과제에서 Loss 부분을 작성하는데 아래와 같은 Total Loss에 대한 정의가 있어 이 부분을 이해하고자 softmax와 log-likelihood에 대한 이해를 하고 넘어가고자 합니다. negative log-likelihood에 대한 더 직관적이고 빠른 이해가 필요할 때는 데이콘에서 제공한 강의에서 loss log에 대해 굉장히 쉽게 설명하고 있으니 참고하시면 좋을 것 같습니다. log loss에 대해 알아보자 - [데이콘 평가산식] 이 포스팅에서는 softmax 함수, negative log-likelihood와 softmax 함수와의 관계 그리고 backpropagation을 할 때 derivative에 대해 알아보겠습니다. Softmax Activation Function Neg.. 2021. 1. 10.