본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

다양한 구성요소 조합으로 만든 딥뉴럴넷 모델 성능 비교

이용수 44

영문명
Performance Comparison Among Deep Neural Networks Consisting of Various Constituents
발행기관
한국자료분석학회
저자명
탁유선(Yu Seon Tak) 정형철(Hyeong Chul Jeong) 정진명(Jin Myung Jung)
간행물 정보
『Journal of The Korean Data Analysis Society (JKDAS)』Vol.21 No.5, 2289~2301쪽, 전체 13쪽
주제분류
자연과학 > 통계학
파일형태
PDF
발행일자
2019.10.31
4,360

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

머신러닝 모델 중에 하나인 딥뉴럴넷 모델은 최근 월등한 성능을 보이며, 자율주행, 자연어 처리 등 다양한 분야에서 많이 연구되고 있다. 딥뉴럴넷 모델은 그 구성요소가 다양하기 때문에, 모델을 어떻게 구성하는지에 따라서 그 성능이 크게 달라진다. 본 연구에서는 딥뉴럴넷 모델의 구성 요소 5 가지 - 가중치 최적화, 활성화 함수, 드롭아웃, 정규화, 가중치 초기화 - 를 정하고, 5 가지 구성요소의 가능한 조합 48가지의 딥뉴럴넷 모델을 만들었다. 만든 모델들의 성능 평가를 위해서, 음식의 성분들을 가지고 20개의 나라 중 하나를 예측하는 Kaggle의 what s cooking 데이터를 활용하였다. 결과적으로, 적응모멘트추정(adaptive moment estimation, Adam) 최적화 기법, 정류선형단위(rectified linear unit, ReLU) 활성화 함수, 릿지(ridge) 정규화 미사용, 드롭아웃 사용, He 가중치 초기화라는 구성으로 딥뉴럴넷을 구성했을 때 가장 좋은 성능(정확도: 79.45%)을 보였다. 각 요소 별로 성능을 비교하였을 때에는, Adam 최적화 기법이 경사하강(gradient descent) 최적화 기법을 사용한 모델들 보다 평균적으로 56%정도의 성능이 좋은 것으로 나타났고, ReLU 활성화 함수가 시그모이드(sigmoid) 활성화 함수를 사용한 모델들 보다 평균적으로 약 3% 정도 성능이 좋은 것으로 나타났다. 이 연구의 결과가 더 성능 좋은 딥뉴럴넷 모델을 만드는데 기여할 수 있기를 기대한다.

영문 초록

In these days, deep neural networks (DNN) yield the most remarkable performance among machine-learning algorithms. Many researchers claim that the performance of DNN might be different according to its constituents. In this paper, we thoroughly analyze the performance of 48 DNNs that consist of various constituents in regard to the five factors, i.e. optimizer, activation function, dropout, regularization and weight initialization. What’s cooking data in Kaggle that contains ingredients of food and its nation are employed to train and test the 48 models. As a result, among the 48 DNNs, the DNN composed of Adam optimizer, ReLU activation function, He weight initialization, use of dropout, and no use of ridge regularization produce the best performance (accuracy: 79.45%) in predicting the nation based on food ingredients. The DNNs using Adam optimizer averagely show 56% higher accuracy than those using gradient descent optimizer, and the DNNs using ReLU activation function averagely show 3% higher accuracy than those using sigmoid activation function. We expect that the result of this study can assist to construct better performance DNN models.

목차

1. 서론
2. 딥뉴럴넷 모델의 구조
3. 딥뉴럴넷 모델의 구성 요소
4. 다양한 구성 요소 조합으로 만든 48가지 딥뉴럴넷 모델 성능 평가
5. 결론
References

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

탁유선(Yu Seon Tak),정형철(Hyeong Chul Jeong),정진명(Jin Myung Jung). (2019).다양한 구성요소 조합으로 만든 딥뉴럴넷 모델 성능 비교. Journal of The Korean Data Analysis Society (JKDAS), 21 (5), 2289-2301

MLA

탁유선(Yu Seon Tak),정형철(Hyeong Chul Jeong),정진명(Jin Myung Jung). "다양한 구성요소 조합으로 만든 딥뉴럴넷 모델 성능 비교." Journal of The Korean Data Analysis Society (JKDAS), 21.5(2019): 2289-2301

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제