본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

사전 학습된 한국어 BERT의 전이학습을 통한 한국어 기계독해 성능개선에 관한 연구

이용수 178

영문명
A Study of Fine Tuning Pre-Trained Korean BERT for Question Answering Performance Development
발행기관
한국IT서비스학회
저자명
이치훈(Chi Hoon Lee) 이연지(Yeon Ji Lee) 이동희(Dong Hee Lee)
간행물 정보
『한국IT서비스학회지』한국IT서비스학회지 제19권 제5호, 83~91쪽, 전체 9쪽
주제분류
경제경영 > 경영학
파일형태
PDF
발행일자
2020.10.30
4,000

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

영문 초록

Language Models such as BERT has been an important factor of deep learning-based natural language processing. Pre-training the transformer-based language models would be computationally expensive since they are consist of deep and broad architecture and layers using an attention mechanism and also require huge amount of data to train. Hence, it became mandatory to do fine-tuning large pre-trained language models which are trained by Google or some companies can afford the resources and cost. There are various techniques for fine tuning the language models and this paper examines three techniques, which are data augmentation, tuning the hyper paramters and partly re-constructing the neural networks. For data augmentation, we use no-answer augmentation and back-translation method. Also, some useful combinations of hyper parameters are observed by conducting a number of experiments. Finally, we have GRU, LSTM networks to boost our model performance with adding those networks to BERT pre-trained model. We do fine-tuning the pre-trained korean-based language model through the methods mentioned above and push the F1 score from baseline up to 89.66. Moreover, some failure attempts give us important lessons and tell us the further direction in a good way.

목차

1. 서 론
2. 관련 연구
3. 이론적 배경
4. 실험 및 결과
5. 결 론
참고문헌

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

이치훈(Chi Hoon Lee),이연지(Yeon Ji Lee),이동희(Dong Hee Lee). (2020).사전 학습된 한국어 BERT의 전이학습을 통한 한국어 기계독해 성능개선에 관한 연구. 한국IT서비스학회지, 19 (5), 83-91

MLA

이치훈(Chi Hoon Lee),이연지(Yeon Ji Lee),이동희(Dong Hee Lee). "사전 학습된 한국어 BERT의 전이학습을 통한 한국어 기계독해 성능개선에 관한 연구." 한국IT서비스학회지, 19.5(2020): 83-91

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제