본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

소위 ‘약한 인공지능(AI)’ 영역에서의 민사책임에 관한 연구

이용수 40

영문명
A Study on Civil Liability in the So-Called ‘Weak Artificial Intelligence’ Area
발행기관
한국민사법학회
저자명
윤석찬
간행물 정보
『민사법학』제106호, 171~201쪽, 전체 31쪽
주제분류
사회과학 > 사회과학일반
파일형태
PDF
발행일자
2024.03.31
6,520

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

급속도로 발전하는 첨단기술로서의 인공지능(AI)이 극심한 사회문제 해결을 넘어서 인류가 직면한 수많은 난제들을 어떻게 해결하는지가 논의의 핵심이다. 그리하여 총기 사건과 같은 사회문제에서부터 인류의 식량난, 난치병, 탄소배출로 인한 지구온난화와 같은 인류가 당면한 거대한 문제를 해결하고 인류발전에 기여하는 것이 첨단기술로서의 인공지능(AI)의 진정한 가치라는 것이다. 그럼에도 우려되는 점은 그 누구도 지금의 인공지능(AI)이 어떻게 작동하는지 정확히 알지 못한다는 것이다. 비유컨대, 언제 터질지 모르는 폭탄을 안전장치없이 개발하는 것과 비슷하다는 것이다. 이미 인공지능(AI)가 거짓 정보를 제공하여 피해를 낳고 있다는 점이다. 그리하여 지금보다 더 뛰어난 인공지능(AI)이 이 세상에 출현하였을 때에 이를 통제하는 방법을 모른다면 심각한 위험이 현실화 될 수 있다. 따라서 인공지능(AI)에 대한 국제규범이 필요할 것이고, 이는 국제조약으로도 통제가 가능할 것이다. 이미 유럽연합이 인공지능(AI)에 관한 최초의 규제법으로서 ‘AI 규제법(The AI Act)’를 제정하였다. 이는 미국이나 아시아에 비하여 AI 산업에 대한 강한 규제를 담고 있다. 게다가 2022년 9월 유럽연합(EU)은 인공지능책임 지침안을 발표했다. 인공지능(AI)으로 인하여 발생된 손해에 대한 배상법리에 초점을 둔 것이다. 이외에도 최근에는 심각한 사회문제가 되고 있는 딥페이크의 피해에 대하여 징벌적 손해배상책임 입법화가 요구된다. 민사책임으로서 피해자의 손해에 대하여는 정신적 손해는 물론이고 금전적 손해가 발생하였다면 이에 대한 가중된 손해배상책임도 인정되어야 할 것이다. 그러한 구체적 입법적 방안으로서 가해자에게 피해자에 대한 악의에 찬 고의적 피해발생을 위한 인공지능(AI)의 이용행위와 피해자의 인격권 침해라는 피해가 발생하면 가해자에게 징벌적 손해배상(punitiv damage)책임이 인정되어야 할 것이다. 인공지능(AI)이라는 소위 위험책임에서의 危險源의 운영을 통하여 막대한 수익을 가지는 인공지능(AI)의 제조업자는 무과실책임으로서 위험책임(Gefährdungshaftung)을 부담해야 할 것이다. 이러한 위험책임법리를 수용한 것이 우리나라의 제조물책임법이다. 인공지능(AI)에 제조물책임법이 적용되기 위해서는 제조물에 장착된 인공지능(AI)에 결함이 존재하여야 한다. 그런데 인공지능(AI)이 제조물에 장착되면 대개는 인공지능(AI)은 소프트웨어로 볼 수 있고, 이러한 소프트웨어를 제조물책임법에서의 제조물로 확대해석이 되기에 바로 제조물책임법이 적용될 수 있다. 만약 인공지능(AI)이라는 소프트웨어를 제조물로 인정치 않는다고 하더라도 소프트웨어로서 부품적 성격을 지니는 인공지능(AI)의 결함이 인정되면인공지능(AI) 제조업자는 부품업자로서 제조물책임이 인정되고 그에게는 제조물책임법이 적용되게 된다. 물론 인공지능(AI)은 소프트웨어이기에 소프트웨어를 제조물로 볼 수 없기에 제조업자에게 일반불법행위책임이 인정되어야 한다고 보더라도 인공지능(AI)을 기반으로 한 의료제조물의 생산에는 일반적인 주의의무보다 한층 강화된 주의의무가 의료제조물의 개별적 유형에 따라 달리 인정되어야 할 것이다.

영문 초록

Now, the core of the discussion is how artificial intelligence (AI), as a rapidly developing advanced technology, can solve many of the most difficult problems facing humanity beyond solving severe social problems. Therefore, the true value of artificial intelligence (AI) as a cutting-edge technology is to solve huge problems facing humanity, such as social problems such as gun violence, food shortages, incurable diseases, and global warming caused by carbon emissions, and to contribute to human development. The concern, though, is that no one knows exactly how current artificial intelligence (AI) works. In other words, it is similar to developing a bomb that does not know when it will explode without a safety device. Already, artificial intelligence (AI) is causing damage by providing false information. So, if we don't know how to control better artificial intelligence (AI) when it appears, dangerous things can happen. Therefore, there will be a need for international norms on artificial intelligence (AI), which will be made possible by international treaties. The European Union has already enacted the AI Act as the first regulatory law on AI. This contains stronger regulations on the AI industry than in the United States or Asia. In particular, the Act stipulates the obligation to display AI-generated content. Thus, the EU's AI regulation law can be evaluated as legislation designed to ensure the safety of AI-generated products, such as cars and toys. In addition, in September 2022, the European Union (EU) issued a directive on AI accountability. It focuses on the legal principles of compensation for damages caused by artificial intelligence (AI). Legislation on punitive damages for deepfake harms is required. As a civil liability, the victim's damages should be recognized not only for mental damages, but also for aggravated damages for monetary damages, if any. As such a legislative measure, so-called punitive damages should be introduced for malicious and deliberate use of artificial intelligence (AI) as a perpetrator. In the so-called risk liability of artificial intelligence (AI), the operator of artificial intelligence (AI), which has enormous profits through the operation of the risk source, will have to bear the risk liability as a no-fault liability. Korea's product liability law has embraced this principle of risk liability. In order for product liability law to apply to artificial intelligence (AI), there must be a defect in the artificial intelligence (AI) installed in the product.

목차

Ⅰ. 머리말
Ⅱ. 인공지능(AI) 자율주행 자동차의 오류로 인한 사고에 대한 민사책임
Ⅲ. 인공지능(AI)기술을 이용한 딥페이크 (Deepfake)에 대한 민사책임
Ⅳ. 의료영역에 있어 인공지능(AI) 기술의 적용과 민사책임
Ⅴ. 외국의 인공지능(AI) 규제와 입법안
Ⅵ. 맺음말

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

윤석찬. (2024).소위 ‘약한 인공지능(AI)’ 영역에서의 민사책임에 관한 연구. 민사법학, (), 171-201

MLA

윤석찬. "소위 ‘약한 인공지능(AI)’ 영역에서의 민사책임에 관한 연구." 민사법학, (2024): 171-201

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제