본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

대규모 언어모형 인공지능의 법적 쟁점

이용수 334

영문명
Legal Challenges in Large-Scale Language Models
발행기관
한국정보법학회
저자명
김병필(Kim, Byoungpil)
간행물 정보
『정보법학』정보법학 제26권 제1호, 173~217쪽, 전체 45쪽
주제분류
법학 > 민법
파일형태
PDF
발행일자
2022.04.30
8,200

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

이 글은 대규모 언어모형 인공지능과 관련된 주요한 법적 쟁점을 개괄한다. ‘언어모형(language model)’이란 어떤 문장이 존재할 확률 분포를 계산해 내는 통계 모형을 의미한다. 딥러닝 기법을 활용한 대규모(large-scale) 언어모형은 현재 인공지능이 자연어를 이해하고 새로운 말과 글을 생성해 내는 여러 과제에 있어 공통으로 활용되는기본적 수단이 되고 있다. 그러나 대규모 언어모형의 개발, 학습, 활용에 있어 여전히상당한 법적 불확실성이 존재하며, 이를 해소하기 위한 여러 노력이 요구된다. 이 글이 분석한 대규모 언어모형 인공지능의 법적 쟁점은 크게 3가지이다. ① 대규모 언어모형의 학습데이터 확보 과정과 관련된 법적 쟁점이 있다. 언어모형의 학습데이터는 주로 웹 스크래핑을 통해 확보되는데, 이 과정에 있어 저작권과 데이터베이스제작자의 권리와 공정이용의 범위, ‘정보통신망 침해’에 대한 해석, 반경쟁적인 웹 스크래핑 제한 조항에 대한 공정거래법⋅약관법상 규율, 웹 스크래핑을 통한 다른 이용자의 프라이버시 침해 문제 등 다양한 법적 쟁점이 다층적으로 얽혀 있다. ② 대규모언어모형은 학습데이터에 포함된 개인정보를 암기하여 이를 그대로 재현해 낼 위험이 지적된다. 따라서 그 학습데이터에 개인정보가 포함되지 않도록 적절한 비식별조치 또는 가명처리를 취할 필요가 있다. ③ 대규모 언어모형은 학습데이터에 포함된사회의 기존 편향⋅편견이 반영된 텍스트, 차별적 발언 또는 혐오 표현을 그대로 재현할 위험이 있다. 언어모형에 반영된 편향이 초래하는 위해는 장기적, 확산적, 문화적 성격을 갖고, 개별 피해자를 특정하기도 어려운 특징을 가지므로, 이를 법적으로규율하는 것은 매우 어렵다. 이에 따라 인공지능 개발자나 서비스 제공자들에 의한자율 규제 또는 언어모형의 편향을 예방하거나 제거하기 위한 여러 기술적 시도들이진행 중이다.

영문 초록

This Article outlines key legal challenges related to large-scale language model AI. A language model refers to a statistical model that calculates the probability distribution of a sentence. A large-scale language model using a deep-learning method is now becoming a standard method commonly used by AI in various tasks of understanding natural language and generating new texts. However, there remain significant legal uncertainties in developing, training, and using large-scale language models. Accordingly, substantial efforts are required to resolve them. The legal issues of the large-scale language model analyzed in this Article are largely summarized in three points. First, there is an issue of collecting learning data through web-scraping. These practices involve multi-layered issues such as copyright and database producers’ rights and scope of fair use, interpretation of information and communication network infringement, anti-competitive prohibition and restriction of web-scraping and privacy violation through web-scraping. Second, it has been pointed out that the recent large-scale language models can memorize personal information contained in training data and reproducing it as it is. As a result, it is necessary to take appropriate de-identification or pseudonymization measures to prevent personal information from being included in the training data. Finally, the vast training data of the language model may include text reflecting existing biases or prejudices in society, discriminatory remarks, or hate speeches. As a result, as the use of the large-scale language model increases, the possibility of reproducing the inherent bias may also proportionally increase. However, the harm caused by the bias reflected in the language model has long-term, diffusive, and cultural characteristics, and it is difficult to specify individual victims. Thus, it is very difficult to legally regulate them. Accordingly, it inevitably relies heavily on self-regulation in accordance with the voluntary internal ethical principles established by AI developers or service providers. At the same time, various technical attempts are currently underway to prevent biases from being reflected in language models in training process or to remove biases reflected in language models.

목차

Ⅰ. 서론
Ⅱ. 대규모 언어모형 기술의 개요
Ⅲ. 대규모 언어모형의 학습데이터 수집 과정의 법적 쟁점
Ⅳ. 대규모 언어모형에 의한 개인정보자기결정권 침해 위험성
Ⅴ. 언어모형에 반영된 편향의 문제
Ⅵ. 결론

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

김병필(Kim, Byoungpil). (2022).대규모 언어모형 인공지능의 법적 쟁점. 정보법학, 26 (1), 173-217

MLA

김병필(Kim, Byoungpil). "대규모 언어모형 인공지능의 법적 쟁점." 정보법학, 26.1(2022): 173-217

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제