😄 Lee Sangmin’s Portfolio
Table of contents
- 😄 Lee Sangmin’s Portfolio
- 📬 Contact.
- ℹ️ Information.
- 💼 Career.
- :trophy: Award
- 💁🏻 Introdution.
- :computer: Tech stacks.
- 📘 University Personal Project.
- 📃 Graduation thesis.
- 🔬 Research Activity.
- 💡 Research Interests.
- 🌿 Smart Network Internet Of Thing Lab.
- 🌿 DIYA. Computer Vision 4th
- 1️⃣ [ImageNet Classification with Deep Convolutional Neural Networks.] [03]
- 2️⃣ [Network In Network.] [04]
- 3️⃣ [Visualizing and Understanding Convolutional Networks.] [05]
- 4️⃣ [OverFeat : InIntegrated Recognition, Localization and Detection using Convolutional Networks.] [06]
- 5️⃣ [Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition.] [07]
- 6️⃣ [VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.] [08]
- 7️⃣ [Going Deeper with Convolutions.] [09]
- ✏️ Personal Study.
- 📕 Team Project.
- 📄 첨부 사항
📬 Contact.
📱 Phone : +82 10-9130-9249
📮 Email : d9249@kyonggi.ac.kr
ℹ️ Information.
📛 Name : Lee Sangmin, Nickname : d9249
🏫 Affiliation : Kyonggi Univ. Department of Computer Engineering.
✍️ Github ✍️ Tistory Blog ✍️ Github blog
💼 Career.
Type | Date | Contents | Organization |
---|---|---|---|
Education | 2015.3 ~ Proceeding | Computer Science and Engineering | Kyonggi University |
Research activities | 2020.1 ~ Proceeding | Undergraduate Research Students | Kyonggi Univ. Smart I.O.T laboratory |
Research activities | 2021.3 ~ Proceeding | DIYA Computer Vision Team 4th | DIYA. Machine Learning Club. |
:trophy: Award
Date | Contents | Result | Organization |
---|---|---|---|
2020.06.04 | PoseNet을 활용한 헬스 트레이너 웹 서비스 | 동상 | 한국정보기술학회 대학생논문경진대회 |
2020.06.10 | 핏-시방(Fit-sibang) | 장려상 | 경기대학교 컴퓨터 공학부 |
💁🏻 Introdution.
“굳은 인내와 노력을 하지 않는 천재는 이 세상에서 있었던 적이 없다.”
“발명의 길은 부단한 노력이다.”
아이작 뉴턴(Isaac Newton)
현재 경기대학교 컴퓨터공학부 재학중이며, Smart I.O.T Lab에 소속되어 연구 활동을 진행중입니다.
2021년 하반기부터 경기대학교 일반대학원에 진학할 예정이고, 이에 대한 연구 준비를 진행하기 위해
DIYA라는 연합동아리에서 Computer Vision 4기로 활동하고 있습니다.
관심 있는 분야는 Computer Vison이며, 현재 Computer Vision 관련하여 논문에 대한 이해와,
문제를 발견했을 때 어떻게 이를 해결하는지, 이에 해당하는 실험을 통해 engineering적인 관점에 대한 이해도 향상을
목적으로 논문 리뷰를 진행하고 있으며, Notion에 논문을 읽고 해당 논문이 어떠한 식으로 논리가 전개되는지,
어떻게 문제를 해결하고자 하는지를 정리하고 있습니다.
그리고 해당 논문의 실험을 함께 진행하며, Network modeling과 Problem Solving Capabilities을 기르고 있습니다.
제가 작성한 코드들의 형상유지를 위해서 Github을 사용하여서 기록하였으며,
배운점들과 기록을 위해서 Notion을 사용하여서 기록하였습니다.
:computer: Tech stacks.
🌱 Vue.js
🔖 Explanation.
Inflearn을 통한 Vue.js를 학습하면서 느낌 점과 Vue.js에 대한 기록을 Notion을 사용하여서 진행하였으며,
프로젝트 결과물에 대한 기록을 Github를 통해 진행하였습니다.
👏 Lessons Learned.
- Vue.js를 통해서 Lab Homepage를 제작하기 위해서 학습을 시작하였으며, Vue.js를 배우면서 기존의 JS를 사용하여서 개발할때와의 차이점을 명확하게 알게 되었습니다.
- Vue.js의 기초적인 Framework를 이해할 수 있었으며, 데이터 흐름을 완전히 제어하면서 개발하여 웹페이지를 가볍게 만듦으로써 발생하는 많은 이점에 대해서 배울 수 있었습니다.
✍️ Vue.js Project Depoly address.
🌱 React.js
🔖 Explanation.
NomardCoders를 통해 React.js를 학습하면서 느낌 점과
React.js 프로젝트 결과물에 대한 기록을 Github를 통해 진행하였습니다.
🙏🏻 Lessons Learned.
- Vue.js를 배운 이후 비슷한 종류의 React.js의 웹프레임워크의 인기도가 높아지고 있는 소식을 접하고 Vue.js에 비해 React.js이 갖는 장점이 무엇인지 알기 위해서 React.js를 활용한 프로젝트를 진행하였습니다.
- React.js의 기초적인 프로젝트를 진행해보았을 때 Vue.js가 갖는 장점이 추가적인 라이브러리, 더 잘 정리되어있는 공식 문서, 자신에게 맞는 프로그래밍 스타일등 제가 경험한 바로는 Vue.js가 저에게 더욱 맞는 프레임워크라는 경험을 할 수 있었습니다.
- 해당 강의는 React.js의 기초적인 부분에 집중되어있어 Life Cycle hook과 같은 것을 추가적으로 배운 뒤 응용을 위해서는 추가적으로 배워야할 것 같다고 생각이 들었습니다.
✍️ Github Link.
** 🌱 Deep Learning **
🔖 Explanation.
설명
🙏🏻 Lessons Learned.
- 인프런, 코드잇
✍️ Github Link.
📘 University Personal Project.
2019 ~ 2021년 동안 진행한 개인 프로젝트의 결과들을 정리해둔 결과입니다.
1️⃣ 인공지능 DD313_2221
🗓 Course Date : 2020-01, 김인철 교수님
🔖 Explanation.
인공지능 과목을 수강하면서 느낀 점과 과목 수강 중 제작하였던 프로젝트의 기록을 위한 Github 링크입니다.
🙏🏻 Lessons Learned.
- 해당 과목을 수강하면서 개인프로젝트는 CNN, DQN에 대해서 배울 수 있었으며, 강의 초반에 이루어졌던 이론적인 측면에 학습 내용에 대해서 실제로 시험을 진행하면서 이론의 대한 증명, 학습 과정에 대한 전반적인 지식, AI modeling, 등등 많은 것을 배울 수 있었습니다.
- 해당 과목을 통해 CNN에 대해 많은 관심이 생겨 Computer Vision에 대해서 배우고 싶은 흥미가 생겨 현재 Computer Vision에 관한 연구를 진행하기 위해서 관련 지식들을 쌓고 있습니다.
2️⃣ 소프트웨어공학 DD316_2223
🗓 Course Date : 2020-01, 권기현 교수님
🔖 Explanation.
소프트웨어공학 과목을 수강하면서 느낀점과 과목 수강 중 제작하였던 프로젝트의 기록을 위한 Github 링크입니다.
👏 Lessons Learned.
- 해당 과목을 수강하면서 소프트웨어공학의 기반한 프로그램의 개발 방법에 대해서 알 수 있었으며, 그 중 애자일 개발방법론을 사용하여서 해당 프로젝트를 제작하였습니다.
- 개발기간이 2~3주 남짓이라 많은 기능을 구현하지는 못하였지만, 기본적인 회원관리와 CRUD, 관리자 기능을 구현하였습니다.
✍️ Code Link.
3️⃣ 자료구조론 CS343_2207
🗓 Course Date : 2020-1, 김광훈 교수님
🔖 Explanation.
자료구조론 과목을 수강하면서 느낀 점과 작성하였던 과제들에 대한 기록을 위한 Github 링크입니다.
👏 Lessons Learned.
- 컴퓨터 사이언스로서 기본 소양이라고 생각하는 자료구조에 대해서 원어를 수업을 들으면서 이에 대해 이해하고 원어 책을 보면서 책 속의 자료구조 관련 문제를 해결을 위한 과정을 진행하면서 기초소양을 많이 기를 수 있었습니다.
✍️ Code Link.
4️⃣ 지능웹설계 DD812_1838
🗓 Course Date : 2020-2, 정경용 교수님
🔖 Explanation.
지능웹설계 과목을 수강하면서 느낀점과 과목 수강 중 제작하였던 프로젝트의 기록을 위한 Github 링크입니다.
👏 Lessons Learned.
- 해당 과목을 수강하면서 기존의 Django에 대해서와 HTML5, CSS3에 대해서만 알고 있었는데 JS를 활용하여서 프로젝트를 진행하며, JS에 대한 지식들을 알 수 있었으며, JS를 활용한 프로젝트를 처음 진행하며 웹에 대한 기본적인 기술들을 알 수 있게 되었습니다.
✍️ Code Link.
📃 Graduation thesis.
🔖 Explanation.
캡스톤디자인 과목을 수강하면서 진행하였던 프로젝트에 대해 작성하였던 논문을
한국정보기술학회의 대학생논문경진대회의 투고하였으며, 2021년 6월 3일 ~ 5일 대회에 참가하였습니다.
이름(국문) : PoseNet을 활용한 헬스 트레이너 웹 서비스
이름(영문) : Health trainer web services with PostNet
저자(국문) : 이상민, 김도훈 ( * 경기대학교 소프트웨어경영대학 AI 컴퓨터공학부, ** 교신저자 )
저자(영문) : Lee Sang-min* and Kim Dohoon**
[“PoseNet을 활용한 헬스 트레이너 웹 서비스”] [01]
[학술대회 참가 확인증] [02]
[한국정보기술학회 대학생논문경진대회 부문 동상] [16]
🔬 Research Activity.
관심 분야, 연구 활동에 대한 결과와 기록을 정리한 링크입니다.
주로 Computer Vision 관련된 논문들을 Review를 진행하고 있으며, 2021년동안 모두 Review를 진행할 예정입니다.
💡 Research Interests.
</a> </a> </a> </a>
🌿 Smart Network Internet Of Thing Lab.
🗓 Period : 2020. 03 ~ 현재
📜 Relevant research paper.
Shadow Removal via Shadow Image Decomposition
Mask-ShadowGAN : Learning to Remove Shadows from Unpaired Data
Image Smoothing via Unsupervised Learning
From Shadow Segmentation to Shadow Removal
🔖 Explanation.
그림자가 있는 이미지의 이미지를 제거 후 GAN을 통해 재생성을하고 생성한 그림자의 이미지의 일치율을
판단하여서 원본이미지의 완벽한 그림자 제거를 위한 Task에 대해서 연구를 진행하고 있습니다.
위의 논문은 해당 Task를 해결하기 위한 다양한 방법에 대한 논문입니다.
🔖 Activity Explanation.
학부 연구생의 활동을 Github를 사용하여서 기록하였습니다.
✍️ Code Link.
🌿 DIYA. Computer Vision 4th
🗓 Period : 2021.03 ~ 현재
🔖 Explanation.
제가 DIYA에서 활동하는 이유는 Computer Vision의 기본 지식들을 쌓아 배워가면서 배웠던 지식들을 활용해
여러 문제에 대한 해결 능력을 키우고 싶어 아래에 첨부되어있는 논문들의 리뷰를 진행하고 있으며,
해당 문제만을 해결하는 능력을 갖는 것이 아닌 모든 문제를 해결할 수 있는 능력을 기를수 있도록
꾸준히 노력하는 것이 미래의 저에게 많은 도움이 될 것이라고 판단해 Computer Vision에 대해
흥미가 있는 사람들과 함께 지식을 쌓아가며 DIYA에서 프로젝트를 진행하고 있습니다.
DIYA에서 매주 진행하는 논문 리뷰와 매주 진행하는 발표의 결과를 정리하기위해 Notion을 사용하였으며,
추가적으로 활동에 대한 Issue 및 진행 사항을 기록하기 위해서 Github을 사용하였습니다.
추가적인 기록이나 자료에 관해서는 Github에 올려두었습니다.
📜 All Paper Management pages
DIYA에서 리뷰할 Computer Vision 관련 Paper에 대한 목록 및 순서입니다.
📕 Paper List.
Paper | Check |
---|---|
imageNet Classification with Deep Convolutional Neural Network | 완료 |
Network In Network | 완료 |
Visualizing and Understanding Convolutional Networks | 완료 |
OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks | 완료 |
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition | 완료 |
Very Deep Convolutional Networks for Large-Scale Image Recognition | 완료 |
Going Deeper with Convolutions | 완료 |
🔖 Paper Review Explanation.
Computer Vision 논문 리뷰 기록을 Notion을 사용하여 진행하였으며,
Computer Vision Paper Review의 결과를 기록하였습니다.
1️⃣ [ImageNet Classification with Deep Convolutional Neural Networks.] [03]
👏 Lessons Learned.
- 2012년 이미지 분류를 위한 크고 심층적인 Convolutional Neural Networks인 AlexNet의 등장으로 기존의 DNN 방식의 fully-connection 방식보다 더 적은 parameter로 효율적인 학습이 가능한 이유에 대해서 알 수 있게되었다.
- 추가적으로 AlexNet의 기본 구조, 과적합을 줄이기 위한 방법, 이미지 영역에서 CNN이 DNN보다 학습에서 효율적인 이유, 정규화, Pooling, Data Augumentation을 배울 수 있었습니다.
2️⃣ [Network In Network.] [04]
👏 Lessons Learned.
- 해당 논문에서는 NIN이라는 새로운 심층 네트워크 구조를 제안하였고, 기존의 CNN구조보다 더 복잡한 구조를 가진 마이크로 신경망을 구축하는데 이는 다층 퍼셉트론을 사용한 마이크로 신경망을 인스턴스화하는 방식을 사용하였습니다.
- 해당 논문에서의 주요 맹점은 MLP Convolution Layers와 Global Average Pooling 이라고 생각하며, mlpconv는 Feature map의 모든 값들을 1x1 Convolution하여 새로운 Featuer map에게 전달하는 과정을 통해 비슷한 성질을 추출하여 Feature map 크기를 줄일 수 있으며, 결과적으로 Feature map 크기를 줄여 연상량이 줄어들게 되고, 이를 이용하여서 더 깊은 Network를 생성할 수 있게됩니다.
- NIN에서는 Fullyconnected layer(FC layer)를 사용하는 대신 Global Average Pooling(GAP)을 사용하는데 기존의 FC layer를 사용하였는데 이 과정에서 Parameter의 수가 전체 Parameter의 수 중 대부분을 차지하기 때문에 Overfitting 문제가 발생하기 쉬운데 GAP를 사용하여서 이러한 문제를 해결하였습니다.
- 해당 논문을 통해서 mlpconv, GAP를 배울 수 있었으며, Parameter의 수를 줄여 Overfitting을 피하는 방법과 더 깊은 Network를 생성하는 방법에 대해서 배울 수 있었습니다.
3️⃣ [Visualizing and Understanding Convolutional Networks.] [05]
👏 Lessons Learned.
- 해당 논문의 ZFNet은 기존의 Large Convolutional Network model들이 ImageNet bench-mark에서 좋은 성능을 보이는지와 기존의 모델들이 어떻게 개선될 수 있는 지에 대한 명확한 이해를 설명하고 있습니다.
- ZFNet은 위와 같은 문제를 해결하기 위해서 CNN의 학습과정의 전체 Network의 과정에서 중간 Layer를 시각화하여 모델의 개선하였습니다.
- 기존의 AlexNet을 사용하였으며, sparse connection을 dense connection으로 변경, filter size를 11x11 → 7x7, stride를 4 → 2, learning rate : 0.01, momentum : 0.9 initalization of all weights : 0.01, biases : 0을 변경함으로써 Network의 세부조정을 통해 기존의 AlexNet의 아키텍쳐 구조를 세부 조정하여서 성능 향상을 이뤄냈으며, 추가적으로 feature의 수를 증가, 선명하게 하였으며, anti-aliasing현상을 없애는 효과를 보였습니다.
- ZFNet을 통해 알게 된 점은 Network의 최적화 문제가 Network 성능에 막대한 영향을 준다는 것을 알게되었으며, 이러한 시각화를 사용한 최적화를 통해 네트워크의 성능을 향상 시킬 수 있다는 것을 배울 수 있었습니다.
4️⃣ [OverFeat : InIntegrated Recognition, Localization and Detection using Convolutional Networks.] [06]
👏 Lessons Learned.
- OverFeat은 고해상도 이미지로부터 만들어진 fully connected layer를 1x1 convolutional layer로 변환함으로써 이미지 인식 CNN을 “sliding window” detector로 형태로 변환 합니다. 이후 그리드 형태의 최종 특징 벡터가 생성됩니다.
- OverFeat은 R-CNN과 다르게 One Stage Detector로 R-CNN처럼 Object Proposal을 생성하지 않고, single forward pass 방식으로 CNN 모델을 학습후, Multi-scale evaluation을 통해 사물을 검출합니다.
- OverFeat은 Object Detection에 초점을 맞춘 딥러닝 모델로 multi-task loss를 정의하며 (분류 및 경계상자 loss를 동시에 최소화), 네트워크 모델에 보통 사용되는 FC layer를 1x1 convolution으로 개념을 바꿔 생각함으로써, 입력되는 이미지 사이즈에 관계없이 CNN을 수행 할 수 있게 됩니다. FC 레이어를 1x1 convolution으로 바꾸게 되면, 입력 사이즈가 변경 되더라도 convolution을 수행할 수 있게 됩니다.
- 해당 논문에서 OverFeat은 ConvNet의 fully-connected layer를 1x1 convolution 개념으로 볼 수 있다는 점을 이용하여 연산량 절감 차원에서는 효과적이었지만, 근본적으로는 deeper network 이상의 성능을 얻을 수는 없었다. 하지만 ConvNet을 이용하여 localization/detection까지 통합 시도를 했다는 점에서 의미가 있고, 1년 뒤에 마이크로소프트 팀에서 발표할 SPPNet에 맥이 닿아 있다는 점에서 의미가 있는 것 같다.
5️⃣ [Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition.] [07]
👏 Lessons Learned.
- 해당 논문에서는 SPPNet에 대해서 제안하였다.
- 해당 논문에서의 주요 문제는 입력 이미지의 크기나 비율에 관계없이 CNN을 학습시킬 수는 없을까? 라는 문제를 기반으로 삼아 해당 문제를 해결해 나아갔으며, 해당 문제의 해결을 위한 주요한 아이디어는 입력 이미지의 크기에 관계 없이 Conv layer들을 통과시키고, FC layer 통과 전에 feature map들을 동일한 크기로 조절해주는 pooling을 적용하는 것을 문제 해결의 주요한 아이디어로 삼았습니다.
- SPP라는 새로운 Network를 제안하고 해당 문제를 해결하기 위해 사용하였으며, 추가적으로 Network Switching 방법, SVM을 사용하여서 네트워크를 구성하였다.
- 입력 이미지를 그대로 CNN에 통과시켜 feature map을 추출한 후 feature map에서 2000개의 영역을 찾아 SPP에 적용하여 고정된 크기의 feature를 얻어냈으며, 문제를 해결해 내었습니다.
- 하지만 SPPNet은 기존의 R-CNN에 비해 개선되었지만, 여전히 여러 한계점이 존재한다는 것을 알 수 있고, SPPNet의 한계점을 대폭 개선한 접근 방법인 Fast R-CNN이 제안되었습니다.
- 해당 논문의 Review를 진행하면서 R-CNN의 이해의 대한 필요성도 느끼게 되었으며, SPPNet 이후 대폭 개선된 Fast R-CNN에 대한 궁금증이 생겼습니다. 추가적으로 여러 이미지의 크기를 고정시키지 않고 Network를 학습시키는 방법에 대해서도 알게 되었습니다.
6️⃣ [VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.] [08]
👏 Lessons Learned.
- 해당 논문에서의 주요한 키워드는 ‘large scale image recognition’, ‘3x3 convolution filter’, ‘increasing depth’로 볼 수 있을거 같습니다.
- 이를 한문장으로 요약하자면 “3x3 conv filter를 통해 기존 CNN 모델의 layer의 갯수를 (deep하게) 늘렸고 (increasing depth), 이것이 large-scale image recognition에서도 좋은 결과를 얻게 만들었다” 정도가 될 것 같다고 생각합니다.
- 해당 논문의 저자는 CNN layer의 Depth를 중점적으로 연구를 진행하였는데, 이전의 Conv filter size를 조금씩 다르게 구성하였는데, VGGNet의 경우 모든 layer에 3x3 conv filter를 적용하였습니다.
- 해당 네트워크에서는 3x3 conv filter를 2개 사용하는 것이 하나의 5x5 conv filter를 사용하는 것과 같은 효과를 불러 온다고 설명하며 더 많은 conv filter를 사용하게 되면 여러개의 non linear function인 ReLU를 더 많이 사용할 수 있다는 장점이 있다고 설명하며, 이로 인해서 3x3 conv filter를 2번 사용하는것이 7x7 conv filter를 사용하는 것보다 Parameter수가 줄어들게 되며 줄어들게 된 Parameter들은 Overfitting을 줄여주는데 도움이 줍니다.
- VGGNet에서는 training image를 모델의 input size에 맞게 바꾸어 주어야하는 데 이를 위해 ‘single-scale training’ 방식과 ‘multi-scale training’ 중 ‘single-scale training’를 사용하여서 VGG model의 fine tuning을 진행하였습니다.
- 해당 논문에서 저자는 AlexNet에 비해 FC layer를 1x1 conv layer로 대체하고 약간의 큰 사이즈의 이미지를 넣어주고 학습을 시켰고 data augmentation도 horizontal flipping만 적용했는데도 좋은 효과를 얻어냈다고 언급하고 있으며, GoogLeNet에서 사용한 multi-crop 방식이 좋은 성능을 보였다는것을 인지하고 VGGNet에서 사용한 dense evaluation 방식을 보완(complementary)하기 위해 multi-crop evaluation 방식 또한 사용했다고 합니다.
- 해당 논문을 통해서 문제 해결을 위한 conv filter size가 학습의 큰 영향을 끼칠수 있다는 것을 알 수 있었으며, 해당 논문에서 1x1 conv filter를 사용하면 non linearity를 더 잘 표현할 수 있게 되지만, 3x3 conv filter 가 spatial context (공간 or 위치정보)의 특징을 더 잘 추출해주기 때문에 3x3 conv filter를 사용하는것이 좋다라고 설명하고 있기 때문에 이러한 점을 배워 추후에 Network를 구성할 때에 참조할 수 있다고 생각하며, 이러한 conv filter size가 다양하기 때문에 여러 문제마다의 최적화되 conv filter size가 존재할 수도 있겠다라는 것을 알 수 있게 되었습니다.
7️⃣ [Going Deeper with Convolutions.] [09]
👏 Lessons Learned.
- GoogLeNet의 주요 특징은 연산을 하는 데 소모되는 자원의 사용 효율이 개선되었다는 것이다. 즉, 정교한 설계 덕에 네트워크의 depth와 width를 늘려도 연산량이 증가하지 않고 유지된다는 뜻이다. 이때, Google 팀에서는 성능을 최적화하기 위해 Hebbian principle과 multi-scale processing을 적용하였다.
- GoogLeNet은 AlexNet보다 파라미터가 12배나 더 적음에도 불구하고 훨씬 정확했다고 한다. 이러한 개선은 마치 R-CNN처럼 deep 한 구조와 클래식한 컴퓨터 비전의 시너지 덕분이었다고 설명하고 있다.
- 해당 논문에서 “deep”은 두 가지의 의미를 갖는데 하나는 “Inception module”의 형태로 새로운 차원의 구조 도입과 네트워크의 깊이가 증가하였다는 직접적인 의미를 의미한다.
- GoogLeNet은 NIN의 많은 영향을 받았는데 병목현상을 제거하기 위한 차원 축소와 네트워크 크기 제한을 위해 NIN에서 사용하였던 1x1 Convolutional layer를 사용하였다고 한다.
- 과도한 연산량 문제없이 각 단계에서 유닛 수를 상당히 증가, Visual 정보가 다양한 Scale로 처리되고, 다음 layer는 동시에 서로 다른 layer에서 특징을 추출을 위해 효율적인 메모리 사용을 위해 낮은 layer에서는 기본적인 CNN 모델을 적용하고, 높은 layer에서 Inception module을 사용하는 것이 좋다고 한다.
- 해당 논문을 통해 Inception 구조는 Sparse 구조를 Dense 구조로 근사화하여 성능을 개선하였다. 이는 기존에 CNN 성능을 높이기 위한 방법과는 다른 새로운 방법이었으며, 성능은 대폭 상승하지만 연산량은 약간만 증가한다는 장점이 있다는 것을 알게 되었다.
🔖 DACON Pesonal Project Explanation.
DACON 컴퓨터 비전 학습 경진 대회의 과정 기록을 위한 Notion과 Github.
✏️ Personal Study.
🌱 Algoritms.
🔖 Explanation.
FastCampus를 통해 알고리즘에 대해서 공부한 내용과 알고리듬(DD772_1547, 배상원 교수님)을 수강하며,
개인적으로 공부하면서 느낀 점과 형상유지, 문제를 푼 Code 기록을 위한 Github 링크입니다.
👏 Lessons Learned.
- 알고리즘 문제를 해결하는 자료구조에 관한 지식들과 이산수학적인 사고를 통해 해당하는 문제를 푸는 과정에 적용이 필요하다는 것을 배웠습니다.
- 알고리즘을 풀어가는 과정은 언어별로 자료구조에 따라 다 다른 시간복잡도와 공간복잡도를 가지고 있기 때문에 계속해서 공부해나아가야하는 부문이라고 생각합니다.
- 여러 알고리즘을 풀어가며 문제 해결 능력을 기르는 이유는 한 문제를 풀기위해서만이 아닌 문제를 풀면서 생각했던 사고방식들이 현실에 존재하는 여러 인공지능 관련 문제 해결을 위한 사고와도 연관이 있다고 생각하여 여러 알고리즘을 배워나가야한다고 생각합니다.
✍️ Code Link.
🌱 Deep Learning.
🔖 Explanation.
6월 14일 ~ 7월 31일까지 Deep Learning 을 공부하기 위한 계획입니다.
Name | Organization | Data | Check |
---|---|---|---|
대학생 코딩 캠프 7기 | 코드잇 | 2021.06.23 ~ 2021.08.23 | |
쉽고 빠르게 배우는 딥러닝 | 인프런 | 2021.06.14 ~ 2021.06.20 | |
모두를 위한 딥러닝 시즌1 | 유투브 | 2021.06.21 ~ 2021.07.04 | |
모두를 위한 딥러닝 시즌2 | 유투브 | 2021.07.05 ~ 2021.07.18 | |
실전 인공지능으로 이어지는 파이토치 딥러닝 | 인프런 | 2021.07.19 ~ 2021.07.25 | |
실전 인공지능으로 이어지는 딥러닝 개념 잡기 | 인프런 |
📕 Team Project.
2021년에 함께 진행하였던 프로젝트의 대한 기록.
📛 Smart Network Internet of Things Lab.
Development personnel ( 장민호, 이상민 )
Development Period ( 2021.01 ~ 02 )
🔖 Explanation.
기존의 Lab Homepage를 새로운 Homepage로 제작한 기록이며,
개발 과정에서 느낀 점과, 배포 주소, 개발 문서를 정리해둔 링크입니다.
👏 Lessons Learned.
- 기존의 사용하던 Lab Homepage를 새롭게 개발하기 위해서 Vue.js를 적용하여서 새로이 제작하였으며, 혼자 강의를 보면서 배웠던 Vue.js를 응용함으로써 Vue.js에 대한 이해를 높일 수 있었으며, 동기와 함께 프로젝트를 진행하면서 Github를 통한 협업이 무엇인지 알 수 있게되었습니다.
- 해당 홈페이지에 사용한 주요 기술은 Vue.js와 Node.js이며, 저는 해당 프로젝트에서 Front-end 역할을 맡고 장민호 학생은 Back-end 역할을 맡아 개발을 진행하였으며, 장민호 학생이 Vue.js 개발의 여러 경험이 있어 개발과정에서 막히는 부분에 많은 도움을 주었습니다.
- 2개월동안 요구사항을 모두 만족하는 하나의 홈페이지를 완성하기 위해서 많은 시간이 들어갔으며, 보안적인 측면과, 기능적인 측면 모두 만족하는 홈페이지를 단기간에 개발을 완료하며, 프로그램의 막힌 부분을 해결하는 능력을 기를 수 있었으며, 이를 통해 Vue.js를 제대로 활용하는 것을 배웠습니다.
🔚 Project deliverables.
✍️ Docs Link.
✍️ Develop StackOverflow Link.
✍️ Code Link.
📛 컴퓨터공학캡스톤디자인 DD822_1558
👨💻 Team : Code-15
Development personnel ( 팀장 : 이상민, 팀원 : 이선우, 임한민, 정범식, 한상준 )
Development Period ( 2021.03 ~ 06 )
🔖 Explanation.
프로젝트를 진행하는 과정에서 느낀점과 프로젝트 결과물이며,
협업 과정에서 개발 과정 기록을 위해 사용한 Notion과 형상관리를 위한 Github의 링크입니다.
👏 Lessons Learned.
- 의견이 맞는 동기들과 모여서 프로젝트를 진행하였으며, 팀장을 맡아 프로젝트를 진행하였으며, 개발의 전반적인 측면을 관리함으로써 개발 기간, 개발 진행, 개발 문서, 팀원 관리, 일정 관리 등 많은 역할을 맡아 무리없이 프로젝트를 진행하면서 사용화 될 만한 서비스를 개발하기 위해서 얼마나 많은 인력과 시간이 필요하다는 것을 알 수 있었으며, 개발을 위해서는 개발 능력만을 필요로 하는 것이 아니다라는 것을 알게되었습니다.
- 해당 프로젝트를 통해 졸업논문 또한 작성하였으며, 특허와 소프트웨어 등록 또한 진행하면서 하나의 프로젝트의 기획, 개발, 서비스화 까지 진행하여 전체적인 프로젝트 개발 과정을 배울 수 있었습니다.
- 주요 사용기술은 React.js, Node.js, mongoose를 사용하였으며, AI모델의 설계를 위해서 Google의 Teachable Machine을 활용하여서 설계하였습니다.
🔚 Project deliverables.
📛 Project Name : fit-sibang Version 1.0.0
- 컴퓨터공학캡스톤디자인 장려상 수상 [17]
- [“PoseNet을 활용한 헬스 트레이너 웹 서비스”] [1]
- “PoseNet을 활용한 헬스 트레이너 웹 서비스” 투고 완료.
- [한국정보기술학회 대학생논문경진대회 부문 동상] [16]
- 특허청에 특허 출원 중. [10]
- 한국저작원위원회 저작권 등록.
- 핏-시방 Version 1.0.0 배포 완료. (최종 소스코드)
🔚 Calendar documents.
- 회의록
- 주간 업무 보고서
🔚 Development outputs.
- [최종 보고서.] [11]
- [사용자 인터페이스 설계서.] [12]
- [시스템 설계서.] [13]
- [최종 발표 자료.] [14]
- [DB 요구사항 명세서.] [15]
✍️ Docs Link.
✍️ Code Link.
📄 첨부 사항
[1] PoseNet을 활용한 헬스 트레이너 웹 서비스
[2] 학술대회 참가 확인증_이상민
[3] ImageNet Classification with Deep Convolutional Neural Networks.
[4] Network In Network.
[5] Visualizing and Understanding Convolutional Networks.
[6] OverFeat: InIntegrated Recognition, Localization and Detection using Convolutional Networks.
[7] Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition.
[8] VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.
[9] Going Deeper with Convolutions.
[10] 발명설명서(PoseNet 기반의 헬스 트레이닝 웹 서비스)
[11] 최종 보고서
[12] 사용자 인터페이스 설계서
[13] 시스템 설계서
[14] 최종 발표 자료
[15] DB 요구사항 명세서
[16] PoseNet을 활용한 헬스 트레이너 웹 서비스 상장.
[17] Code-15 AI컴퓨터공학부 장려상.