본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

인공지능 활용에 따른 차별에 대한 법적 고찰

이용수 60

영문명
Legal Study on Discrimination causedby the Use of AI
발행기관
전남대학교 공익인권법센터
저자명
홍석한(Seokhan Hong)
간행물 정보
『인권법평론』제 32호, 341~378쪽, 전체 38쪽
주제분류
법학 > 법학
파일형태
PDF
발행일자
2024.02.28
7,360

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

인공지능이 일상생활과 경제, 산업 전반에 큰 영향을 미치면서 다양한 문제가 제기된다. 그 가운데 불합리한 차별의 문제에 특별히 주목해야 한다. 앞으로도 계속해서 빅데이터가 확대되고 인공지능 기술이 더 발전하여 공공과 민간을 불문하고 입법과 사법, 교육과 의료 등 모든 생활 영역에 인공지능이 활용될 것이므로 그에 따른 차별의 문제는 매우 중대한 사회문제가 될 것이다. 인공지능 활용에 따른 불합리한 차별의 문제가 수면 위로 드러날 가능성이 큰 만큼 법적 대응 방안을 세심하게 살펴야 한다. 이러한 배경에서 본 논문은 인공지능 활용에 따른 부당한 차별의 문제를 방지하고 이에 대응하기 위한 법적 대응 방안을 고찰한다. 헌법과 법률이 규정하고 있는 차별의 의미와 유형을 간략하게 정리하고, 인공지능 활용에 따라 차별이 발생하는 원인과 그러한 차별의 위험성, 이에 대한 법적인 규율의 필요성과 어려움을 살펴본 다음, 이러한 논의를 토대로 인공지능 활용에 따른 차별을 방지하고 이를 규율하기 위한 법적 대응 방안을 제시한다. 인공지능은 우리 사회에 내재한 편향성을 그대로 반영하는 것에 그치지 않고 이를 강화, 영속시킬 위험이 크다. 인공지능 활용에 의한 예측과 의사결정의 위험성은 인공지능 알고리즘이 우리 사회에 존재하는 편향성을 그대로 반영하는 데 그치지 않고 이를 증폭하고 영속시킨다. 특수한 규율의 필요성이 인정되는 것이다. 반면 인공지능 특유의 불투명성과 복잡성 등으로 인하여 그에 따른 차별을 인식, 수정하고 분쟁을 해결하기가 어렵다. 인공지능은 불투명성의 특성을 갖는다. 따라서 책임소재를 분명히 밝히는 것, 불합리한 차별을 방지하고 드러난 차별을 바로 잡아 권리를 구제하는 것이 어려울 뿐만 아니라 애초에 차별을 인식하는 것 자체가 쉽지 않다. 이에 인공지능에 기반한 디지털 전환이 우리 사회의 편견과 차별을 더욱 공고하게 만들 위험의 심각성을 인식하고 그러한 위험의 특성에 부합하는 규범적 대응 방안을 마련해야 한다. 우선, 법적 규율에 반영되어야 할 평등과 공정성에 관한 기준을 마련해야 한다. 인간이 극복해야 하는 차별의 의미와 내용, 준수해야 하는 비차별과 공정성의 가치, 차별 대우의 정당성을 평가하기 위한 기준, 그리고 인공지능을 활용하여 달성하려는 특정한 목표에 부합하는 지표의 범위 등에 대해 합리적인 결론을 도출하기 위한 노력을 선행해야 한다. 다음으로, 불합리한 차별이 발생하지 않도록 사전에 인공지능 시스템의 위험성을 평가, 검사하고 투명성을 확보하도록 하는 것이 중요하다. 이에 영향평가를 통해 인공지능 도입 여부를 고려하는 단계에서 공공과 민간을 모두 포함하여 인공지능 시스템을 도입하는 주체가 영향평가를 하고 그 결과 드러난 위험성을 완화할 방안을 제시하도록 하며, 국가 또는 전문성과 독립성을 갖춘 기관이 인공지능 시스템 활용을 감사하는 제도를 도입하는 방안이 고려되어야 한다. 이밖에 다양한 맥락에서 발생하는 불합리한 차별을 방지하고, 차별이 발생하였을 때 그에 책임을 지는 주체를 분명히 하고, 분쟁 해결에 관한 절차적 규율을 명확히 해야 한다. 기본적으로 인공지능 시스템을 도입한 사용자가 책임을 지도록 하되 편향성 방지 책임자를 두도록 할 필요가 있다. 또한 인공지능 활용 사실을 평가대상자에게 통지하고, 사후에 알고리즘의 입력 데이터와 출력 데이터를 공개하도록 해야 한다. 아울러 공공데이터의 공개 확대, 불합리한 차별에 대한 입증책임의 완화 및 전환도 고려되어야 한다.

영문 초록

As AI has a significant impact on daily life, the economy, and industry, various problems are raised. Among them, special attention should be paid to the problem of unreasonable discrimination. If big data continues to expand and AI technology develops further in the future, and AI is used in all areas of life, the problem of discrimination will become a very serious social problem. As there is a high possibility that the problem of unreasonable discrimination due to the use of AI will surface, legal countermeasures must be carefully considered. So this paper examines legal measures to prevent and respond to the problem of unfair discrimination caused by the use of AI. We briefly summarize the meaning and types of discrimination, examine the causes of discrimination due to the use of AI, the risks of such discrimination, and the necessity and difficulty of legal regulation regarding this, and then based on this discussion, present legal measures to prevent and regulate discrimination. There is a high risk that AI will not only reflect the biases inherent in our society, but also strengthen and perpetuate them. On the other hand, due to the opacity and complexity unique to AI, it is difficult to recognize and correct discrimination and resolve disputes. Accordingly, we must recognize the seriousness of the risk that AI will further solidify prejudice and discrimination in our society, and prepare normative response measures that meet the characteristics of such risk. First of all, standards for equality and fairness that should be reflected in legal regulations must be established. Reasonable conclusions must be made about the meaning and content of discrimination, the values of non-discrimination and fairness that must be observed, standards for evaluating the legitimacy of discriminatory treatment, and proper indicators. Next, it is important to conduct impact assessment and inspect the risks of AI systems in advance and ensure transparency to prevent unreasonable discrimination. In addition, the entity responsible for unreasonable discrimination that occurs in various contexts must be clearly identified, and procedural rules regarding dispute resolution must be clarified. Basically, it is necessary to hold the user who adopts the AI system accountable and appoint a person responsible for preventing bias. Above this, the fact that AI is being used must be notified to the person being evaluated, and the input and output data of the algorithm must be disclosed afterwards. Also, expansion of public data disclosure and relaxation and transition of the burden of proof for unreasonable discrimination should also be considered.

목차

Ⅰ. 서론
Ⅱ. 차별의 의미와 유형
Ⅲ. 인공지능 활용에 따른 차별의 원인과 문제점
Ⅳ. 인공지능 활용에 따른 차별에 대한 법적 대응 방안
Ⅴ. 결론

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

홍석한(Seokhan Hong). (2024).인공지능 활용에 따른 차별에 대한 법적 고찰. 인권법평론, (), 341-378

MLA

홍석한(Seokhan Hong). "인공지능 활용에 따른 차별에 대한 법적 고찰." 인권법평론, (2024): 341-378

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제