본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

거대 언어모형에 대한 대학교육의 대응

이용수 47

영문명
How Should College Education Respond to Large Language Models?
발행기관
국문학회
저자명
나수호
간행물 정보
『국문학연구』제48호, 7~42쪽, 전체 36쪽
주제분류
어문학 > 한국어와문학
파일형태
PDF
발행일자
2023.11.30
7,120

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

작년 말에 출시된 ChatGPT로 인해 학계에 우려가 커지고 있는바 본고는 인공지능과 대학 교육의 미래에 대해서 탐색하고자 했다. 먼저 ChatGPT와 같은 거대 언어모형(large language model)이 어떻게 ‘훈련’하고 ‘학습’하는지를 설명하고 이러한 생성형 인공지능의 능력과 한계를 알아보았다. 즉, 그럴듯한 말을 생성하기는 하지만 실제로는 언어에 대한 이해가 없는 소위 ‘확률적 앵무새(stochastic parrot)’라고 할 수 있다. 이어서 생성형 인공지능의 위험성을 탐구했는데 허위 정보 생성 및 보급의 위험이 있음을 알 수 있었다. 악의로 사용하지 않더라도 훈련 데이터 집합이 지배적인 이념 등을 반영하는 인터넷에서 수집되기 때문에 사회적 불평등이나 주도권의 고정관념, 편견 등을 영속시키며 증폭시킬 수 있기도 하다. 반면에 훈련 데이터 집합에서 빠진 것을 생각하면 이미 소외된 목소리들이 계속해서 소외되기 마련이다. 사회적 취약층의 문제를 차치하더라도 거대 언어모형은 디지털화된 자료로만 훈련할 수 있어서 아날로그 자료가 무시된다. 이는 일찍이 인공지능의 위험성에 대해 경고한 바이젠바움(Joseph Weizenbaum)이 말한 ‘역사의 파괴’라는 문제와 같은 맥락이다. 다음으로 인간과 기계의 관계에 관하여 논하면서 문제적인 관계와 올바른 관계가 무엇인지를 고려해보았다. 항공계 연구에서 일찍이 ‘자동화 편향(automation bias)’의 문제를 감지하였는데 사회 다른 분야에서도 볼 수 있는 현상이다. 즉, 기계에 대한 과신으로 인간이 의사결정의 책임을 기계에 전가하면서 기계에 고장이 나거나 문제가 발생할 경우 민첩하게 반응하여 문제를 해결할 수 없게 되는 것이다. 거대 언어모형은 항공기처럼 생명을 위협하는 기술은 아니지만 비슷한 편향이 보인다. 그러나 이것보다 더 중요한 문제는 사람을 온전한 인간이 아니라 기계로 본다는 점이다. 컴퓨터가 생기기 전에도 인간의 지능을 수량화하려는 지능지수시험 등 같은 맥락의 문제가 있어왔지만 인공지능 시대에 특별히 유의해야 할 것이다. 마지막으로 이러한 상황에서 대학 교육이 나아갈 방법에 대해서 고민했다. 특히 미국 교육자들이 ChatGPT의 문제를 다루면서 거대 언어모형 그 자체보다 교육의 ‘거래적(transactional) 성격’을 문제시하고 있음을 알 수 있었다. 즉, 교육이 진정한 배움의 과정보다는 그저 성적과 학위를 받는 ‘거래’가 된 지 오래되었다는 것이다. 이러한 거래적 환경 속에서 학생들이 ChatGPT를 과도하게 사용하는 것은 당연한 것인데 사고하는 방법을 제대로 배우지 못할 위험, 학문적 정보가 부족할 위험, ‘인공지능식 글쓰기’를 배울 위험 등과 같은 부작용이 있을 수 있다. 이 문제를 해결하기 위해서 미국 교육자들은 ‘채찍’(거대 언어모형을 사용할 수 없게끔 하는 전략)과 ‘당근’(학생이 알고리즘이 아니라 인간처럼 배우게 하는 전략)을 제안했는데 그 골자는 ‘책임감’이라고 생각된다. 학생이 스스로 책임감을 키울 수 있는 교육 환경을 조성하는 것이 인공지능 시대에 교육이 살길이다. 그렇게 한다면 거대 언어모형이 두려워할 적이 아니라 유용한 도구가 될 수 있을 것이다.

영문 초록

The release of ChatGPT to the public at the end of last year had many in the field of education worried. In response, this paper explored the future of college education and artificial intelligence (AI). First, a proper understanding of how large language models (LLMs) “train” and “learn,” along with their abilities and limitations, was established. Simply put, while LLMs produce plausible linguistic output, they are “stochastic parrots” that have no actual understanding of language. Next, we examined the dangers of generative AI and discovered that they might help in the creation and dissemination of misinformation. Even if these AI are not used with malicious intent, the fact that their training data sets are drawn from the internet—which reflects majority thinking—means that they can perpetuate and amplify social inequality and hegemonic stereotypes and biases. On the other hand, if we consider what is missing from the training data, it is only natural that marginalized voices should be even more marginalized. In addition, leaving the issue of the socially vulnerable aside, LLMs can only be trained on digital data, meaning analog data is ignored. This is in line with the idea of “the destruction of history” put forth by Joseph Weizenbaum, an early critic who warned of the dangers of artificial intelligence. We then discussed the relationship between humans and machines and considered which relationships were problematic and which were desirable. Researchers in the aviation industry recognized the problem of automation bias from an early date, but this phenomenon can be seen in other areas of society as well. Put simply, if a human places too much trust in a machine, they abdicate their decision-making responsibility to that machine and thus fail to respond quickly to solve any problems that may arise should that machine malfunction. LLMs do not endanger lives in the same way that airplanes do, but a similar bias can be seen with them as well. A more important issue, though, is the fact that people are no longer seen as whole human beings but as computers. This tendency was evident long before the advent of computers, for example in the attempts to quantify human intelligence through IQ tests, but it is a problem we must be particularly wary of in the age of AI. Lastly, we considered means for college education to find its way in the present situation. Educators in the US in particular, while dealing with ChatGPT, have pinpointed not the LLMs themselves but the “transactional nature” of education as the problem. That is, they argue that education has long since become less a process of learning and more a transaction in which students receive grades and degrees. Given this transactional environment, it is no wonder that student would rely too much on ChatGPT. This over-reliance, however, comes with side effects: not learning how to think properly, a lack of sufficient academic information, and learning an AI-based writing style. In response, US educators have proposed both “stick” (strategies that make it difficult for students to use LLMs) and “carrot” (strategies that encourage students to learn like human beings, not algorithms) solutions, but the heart of the matter seems to be a sense of responsibility. Creating an educational environment in which students can develop a sense of responsibility for themselves is the path forward for education in the age of AI. If we do this, LLMs can become a useful tool rather than an enemy to fear.

목차

Ⅰ. 들어가며
Ⅱ. 생성형 인공지능의 사실과 허구
Ⅲ. 생성형 인공지능의 위험성
Ⅳ. 인간과 기계의 관계
Ⅴ. 생성형 인공지능에 대한 대학 교육의 올바른 대응은 무엇일까?
Ⅵ. 나오며

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

나수호. (2023).거대 언어모형에 대한 대학교육의 대응. 국문학연구, (), 7-42

MLA

나수호. "거대 언어모형에 대한 대학교육의 대응." 국문학연구, (2023): 7-42

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제