본문 바로가기

분류 전체보기174

[ML 기초] 배치(batch)와 에포크(epoch) 차이 Batch size: 전체 트레이닝 데이터 셋을 여러 작은 그룹을 나누었을 때 batch size는 하나의 소그룹에 속하는 데이터 수 Epoch: 전체 트레이닝 셋이 신경망을 통과한 횟수 Iteration: iteration은 1 epoch를 마치는데 필요한 미니배치 갯수 2021. 3. 11.
용어 구분 - 인공지능, 기계학습, 데이터과학, 빅데이터, 데이터마이닝, 에이전트 1. 인공지능 의사결정, 판단, 추론, 학습, 예측 등 인간의 지능적인 행위를 컴퓨팅 모델로 만드는 것이다. 기계학습보다는 포괄적인 의미이다. 2. 기계학습 인공 지능의 한 부분으로 인간의 학습, 예측, 판단 등의 지능적 행위를 컴퓨팅 모델로 수행하는 것이다. 3. 데이터과학 정형, 비정형 형태를 포함한 다양한 데이터로부터 지식과 인사이트를 추출하는데 과학적 방법론, 프로세스, 알고리즘, 시스템을 동원하는 융합분야이다. 데이터과학은 데이터마이닝보다 다학제적(interdisciplinary)이고 전방위적으로 비지니스, 기술, 오퍼레이션등 거의 모든 분야에 연결된 분야라고 볼수 있다. 4. 빅데이터 기존의 시스템으로는 처리하기 어려운 엄청난 양의 데이터를 말한다. 크기(Volume), 속도(Velocity).. 2021. 3. 9.
[논문 리뷰] EfficientDet: Scalable and Efficient Object Detection Review 안녕하세요! 오늘은 랩미팅 중 교수님께서 추천해주신 모델인 EfficientDet 을 리뷰해볼려고 합니다. Google Brain팀에서 publish한 논문이며, Code도 사용할 수 있도록 GitHub에 올려있습니다. Introduction EfficientDet은 이름만큼이나 현재 DataseObject Detection on COCO minival dataset에서 Extra Traning data 없이 성능 측정한 모델 중 1위를 차지할 정도로 적은 연산량(FLOPS)과 정확도를 모두 잡은 Efficient한 Network인데요. 위 single-model single-scale로 진행한 성능 비교 실험에서도 1위 mAP를 달성하며 SOTA 를 갱신했다고 합니다. Challenges Challen.. 2021. 3. 6.
[논문 읽기 TIP] ML분야에서 Albation Study란? EfficientDet 논문을 읽다가 Albation Study라는 섹션이 있어 무엇을 뜻하는지 알아보았습니다. Albation Study란? Dataset의 feature나 model components를 제거함으로써 성능에 미치는 영향을 알아보기 위한 실험 Albation Study는 의학, 심리학, 신경과학에서 처음 사용되었지만 Machine Learning 분야에서는 machine learning system의 building blocks을 제거해서 전체 성능에 미치는 효과에 대한 insight를 얻기 위한 과학적 실험이라고합니다. Dataset의 feature나 model components을 building blocks이라고 하는데, 더보기 Sources https://www.quora.com.. 2021. 3. 5.
[Object Detection] 1-Stage Detector와 2-Stage Detector 차이 Deepfashion2 dataset과 EfficientDet을 사용한 Multiple-Clothing Detection and Fashion Landmark Estimation Using a Single-Stage Detector 논문을 읽다가 1-Stage Detector로 하나의 single GPU로 빠른 fast inference time(42 ms)을 도달했다고 하여 1-Stage Detector와 2-Stage Detector의 차이를 다른 분의 블로그 포스팅을 참고하여 이번에 정리하고 넘어가려고 합니다. 1-Stage Detector와 2-Stage Detector milestone 2-Stage Detector Regional Proposal과 Classification이 순차적으로 이루어.. 2021. 3. 2.
[대학원 TIP] 논문 리뷰/평가 방법 오늘은 두통으로 인해 조금은 스트레스가 덜한 작업인 논문 읽기의 날로 정했어요. 쌓아두었던 논문을 읽기 전에 "행복한 대학원생 되기 - 8편: 논문 리뷰"이라는 포스팅이 생각나서 이를 참고하여 앞으로 논문 읽기의 방향을 조금은 잡아보려고 합니다. 논문 리뷰는 크게 아래와 같이 리뷰를 진행한다고 합니다. 요약 → 평가 → (수정)제안 요약 1. 무엇을 했는지를 중심으로 3-4줄로 간단하게 요약한다. 2. Abstract를 보고 이해되지 않는다면 Related work를 보고 이해한 뒤 진행3 (presentatoin이 좋지 않아 읽기 어려울 경우 어차피 reject될 논문이니 굳이 읽을 필요 없다.) 평가 1. 논문이 합격되어야 할 좋은 점(Points in favor) 찾기 - Novel idea: 아무.. 2021. 3. 1.
[논문 리뷰] CVPR 2020 Meta-Transfer Learning for Zero-Shot Super-Resolution (feat. 딥러닝 논문 읽기 모임) 딥러닝논문읽기모임에서 처음으로 발표를 하게된 논문을 오늘 소개하려고 합니다. 발표영상은 YouTube에서 확인이 가능합니다! 해당 논문은 Super Resolution 즉 해상도 복원 분야의 논문으로 Meta-Transfer Learning for Zero-Shot Super-Resolution입니다. 해당 논문은 2020년CVPR에서 발표한 논문입니다. Index Introduction Previous Methods Proposed Methods Experiments Discussion Conclusion Introduction 간략하게 논문 내용을 말씀드리면 기존 CNN 기반의 방법은 제한된 condition에서만 높은 성능을 냈었는데 flexibility 개선하고 Meta-transfer learn.. 2021. 2. 28.
[Coursera 수료 ✅ ] Convolutional Neural Networks (Notion/GitHub) 논문을 읽는 과정에서 지식의 빈 틈이 너무 많은 것 같아 Coursera에서 제공하는 Convolutional Neural Networks 과정을 수료했습니다. Convolutional Neural Networks: www.coursera.org/learn/convolutional-neural-networks/ 개인적으로 정리한 Notion 페이지와 Github입니다. 개인 공부를 위해 정리한 거라 깔끔하게 정리되지는 않았지만, 큰 틀을 보시는 데에는 좋을 것 같습니다. 정리 노트: www.notion.so/Convolutional-Neural-Networks-f2a126dd6e274b35a4cd535c84061189 GitHub: github.com/sokim0991/Convolutional-Neura.. 2021. 2. 8.
[Coursera 수료 ✅ ] Neural Networks and Deep Learning (Notion/GitHub) Machine Learning 강의를 복습하는 마음에서 Coursera에서 제공하는 Neural Networks and Deep Learning 과정을 수료했습니다. Neural Networks and Deep Learning: www.coursera.org/learn/neural-networks-deep-learning 개인적으로 정리한 Notion 페이지와 Github입니다. 개인 공부를 위해 정리한 거라 깔끔하게 정리되지는 않았지만, 큰 틀을 보시는 데에는 좋을 것 같습니다. 정리 노트: www.notion.so/Neural-Networks-and-Deep-Learning-22025649aa1546fba7bcce4081b4f141 GitHub: github.com/sokim0991/Neural-Ne.. 2021. 2. 8.
[cs231n] Minimal Neural Network Case Study 간단한 2차원 신경망의 구현에 대한 전체 과정을 살펴 보겠습니다. 먼저 간단한 선형분류기를 구현한 다음 이 코드를 2 layer 신경망으로 확장하고자 합니다. Generating some datanp.linspace: np.linspace(배열의 시작 값, 배열의 마지막 값, 값의 개수)from builtins import range import numpy as np from random import shuffle from past.builtins import xrange import matplotlib.pyplot as plt N = 100 # number of points per class D = 2 # dimensionality K = 3 # number of classes X = np.zeros(.. 2021. 1. 14.