학술논문
설명가능한 인공지능(XAI) 방법론의 산업별 적용가능성에 관한 연구
이용수 581
- 영문명
- A Study on the Applicability of eXplainable Artificial Intelligence(XAI) Methodology by Industrial District
- 발행기관
- 글로벌경영학회
- 저자명
- 배재권
- 간행물 정보
- 『글로벌경영학회지』제20권 제2호, 195~208쪽, 전체 14쪽
- 주제분류
- 경제경영 > 경영학
- 파일형태
- 발행일자
- 2023.04.30
4,480원
구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

국문 초록
기계학습(machine learning) 및 딥러닝(deep learning) 등 인공지능 기술의 학습 성능은 인간에 근접해 있거나 또는 앞서고 있으며, 인간은 인공지능이 찾아낸 숨겨진 패턴과 규칙을 통해 새로운 통찰력을 얻고 있으나 인공지능이 제시한 결과물에 대한 전달력과 설명력은 부족한 상황이다. 산업별로 인공지능 기술 활용이 확대됨에 따라 정확도 이외에도 투명성, 공평성, 책임성 등의 가치가 지속적으로 요구되고 있다. 이에 최근 설명가능한 인공지능(eXplainable Artificial Intelligence, XAI)에 대한 요구 및 필요성이 강조되고 있다. XAI는 인공지능 모델이 산출한 결과물에 오류가 발생하였다면 그 이유가 무엇인지 설명해주는 것으로 인공지능 결과에 대한 신뢰성 판단 기준을 위한 분석 모델이자 프로세스 및 서비스를 의미한다. 본 연구는 XAI 방법론인 SHAP, LIME, LRP에 대해 고찰하고, 이들 방법론의 산업별 적용 가능성에 대해 탐색하였다. 금융분야는 인공지능이 신용등급평가, 대출의사결정, 투자의사결정 등의 주요 의사결정을 지원하고, 이들의 설명가능성, 해석가능성을 보장하기 위해 SHAP, LIME, LRP 등의 알고리즘이 적용될 수 있다. 이것으로 금융소비자와 금융기관 간 인공지능 결과물에 대한 공정성과 신뢰성을 높일 수 있다. 국방 및 군사분야는 인공지능 참모(AI Staff)가 군 주요 의사결정자의 보조수단으로 활용되고 있다. XAI를 적용하여 결과물의 설명가능성 및 해석가능성이 보장된다면 인공지능 참모의 역할은 적극적인 활용 형태로 바뀔 것이다. 산업재해 분야에서는 산업재해를 예측하는 모형에서 SHAP를 활용하여 산업재해 발생에 영향을 미치는 변수의 영향도를 파악할 수 있다. 이처럼 XAI 방법론은 다양한 분야에서 의사결정을 지원하는 인공지능 기반 예측모형의 설명가능성 및 해석가능성을 높이는데 기여할 수 있다.
영문 초록
The learning performance of artificial intelligence (AI) technologies such as machine learning and deep learning is approaching or surpassing that of humans, and humans are gaining new insights through hidden patterns and rules discovered by AI, but their delivery and explanatory power is in short supply. As the use of AI technology expands by industry, values such as transparency, fairness, and accountability are continuously required in addition to accuracy. Accordingly, the demand and necessity for eXplainable Artificial Intelligence (XAI) has recently been emphasized. XAI is an analysis model, process, and service for determining the reliability of AI results by explaining what the reason is if there is an error in the output produced by the AI model. This study reviewed SHAP, LIME, and LRP, which are XAI methodologies, and explored the applicability of these methodologies to each industry. In the financial field, algorithms such as SHAP, LIME, and LRP can be applied to support credit rating prediction, loan decision-making, and investment decision-making, and to ensure their explainability and interpretability. This can increase fairness and reliability of AI results between financial consumers and financial institutions. In the defense and military fields, AI staff is being used as an auxiliary tool for key decision makers. If the explainability and interpretability of the results are guaranteed by applying XAI, the role of AI staff will change to active utilization. In the field of industrial accidents, SHAP can be used in a model that predicts industrial accidents to determine the degree of influence of variables that affect the occurrence of industrial accidents. As such, the XAI methodology can contribute to increasing the transparency and interpretability of models in various AI-based prediction models.
목차
Ⅰ. 서 론
Ⅱ. 비즈니스 영역의 XAI 선행연구
Ⅲ. XAI 방법론과 적용가능한 산업영역
Ⅳ. 결론 및 시사점
참고문헌
키워드
해당간행물 수록 논문
- 중고거래 플랫폼에서의 소유효과에 관한 연구
- 중국 상장기업의 ESG 경영과 이익조정에 관한 연구
- 기업의 린 운영 달성을 위한 조직자본의 영향력 분석
- 코칭리더십이 조직 구성원의 심리적 안전감과 혁신행동에 미치는 영향에 관한 연구
- 신용등급과 기업의 혁신활동
- 시간가변 전이효과를 고려한 글로벌 대체투자 자산들의 변동성 파급경로에 관한 연구
- 인적자본과 기술혁신간의 관계
- 글로벌경영학회지 제20권 제2호 목차
- 공급망관리에서 전략적 파트너십이 기업성과에 미치는 영향
- 내부회계관리제도에 관한 고찰
- 설명가능한 인공지능(XAI) 방법론의 산업별 적용가능성에 관한 연구
참고문헌
교보eBook 첫 방문을 환영 합니다!
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!
