본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

다중목표 대화형 추천시스템을 위한 사전 학습된 언어모델들에 대한 성능 평가

이용수 41

영문명
Pre-trained Language Models in Multi-Goal Conversational Recommender Systems
발행기관
한국스마트미디어학회
저자명
김태호 장형준 김상욱
간행물 정보
『스마트미디어저널』Vol12, No.6, 35~40쪽, 전체 6쪽
주제분류
공학 > 컴퓨터학
파일형태
PDF
발행일자
2023.07.31
4,000

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

본 연구는 대화형 추천 시스템인 다중 목표 대화형 추천 시스템(MG-CRS)에서 사용되는 다양한 사전 학습된 언어 모델들을 고찰하고, 각 언어모델 성능을 비교분석한다. 특히, 언어 모델의 크기가 다중 목표 대화형 추천 시스템의 성능에 어떤 영향을 미치는지에 대. BERT, GPT2, 그리고 BART의 세 종류의 언어 모델을 대상으로 하여, 대표적인 다중 목표 대화형 추천 시스템 데이터셋인 DuRecDial 2.0에서 '타입 예측'과 '토픽 예측'의 정확도를 측정하고 비교한다. 실험 결과, 타입 예측에서는 모든 모델이 뛰어난 성능을 보였지만, 토픽 예측에서는 모델 간에 혹은 사이즈에 따라 성능 차이가 관찰되었다. 이러한 결과를 바탕으로 다중 목표 대화형 추천 시스템의 성능 향상을 위한 방향을 제시한다.

영문 초록

In this paper, we examine pre-trained language models used in Multi-Goal Conversational Recommender Systems (MG-CRS), comparing and analyzing their performances of various pre-trained language models. Specifically, we investigate the impact of the sizes of language models on the performance of MG-CRS. The three types of language models of BERT, GPT2, and BART, and compare their accuracy in two tasks of 'type prediction and topic prediction on the MG-CRS dataset, DuRecDial 2.0. Experimental results show that all models demonstrate excellent performance in the type prediction task, but provide significant in performance depending on models or their sizes in the topic prediction task. Based on these findings, the study provides directions for improving the performance of MG-CRS.

목차

Ⅰ. 서론
Ⅱ. 본론
Ⅲ. 결론
REFERENCES

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

김태호,장형준,김상욱. (2023).다중목표 대화형 추천시스템을 위한 사전 학습된 언어모델들에 대한 성능 평가. 스마트미디어저널, 12 (6), 35-40

MLA

김태호,장형준,김상욱. "다중목표 대화형 추천시스템을 위한 사전 학습된 언어모델들에 대한 성능 평가." 스마트미디어저널, 12.6(2023): 35-40

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제