[해외 사서 칼럼] 인공지능은 인간의 학습을 어떻게 바꾸고 있는가? ⑤ 사고의 출발점이 흔들릴 때: 학습의 동기와 책임
최유진_The University of Texas at Austin 정보학 박사과정
2025-12-2316:37
지난 11월 미국 버지니아에서 열린 ASIS&T(Association for Information Science and Technology) Annual Meeting에 연구 발표차 다녀왔다. 올해 컨퍼런스의 주제는 ‘Difficult Conversations: The Role of Information Science in the Age of Human-Centered Artificial Intelligence(어려운 대화들: 인간 중심 인공지능 시대에서 정보학의 역할)’였다. 지금 우리가 마주한 인공지능과 인간의 관계가 단순히 기술적 해법으로 풀리지 않는 복잡한 문제임을 시사하는 제목이었다. 실제로 컨퍼런스에서 가장 자주 오간 화제는 생성형 인공지능이었다.
AI 시대 대학 수업에서 마주한 장면, ‘공정’ 대신 호출된 인공지능
여러 세션에서 교수자들은 공통된 고민을 공유했는데, 생성형 인공지능이 대학 수업의 풍경을 좋지 못한 방향으로 바꾸어놓고 있다는 점이었다. 인공지능 사용이 점점 늘어가는 가운데, 학생들의 수업 참여 방식과 학습 태도 자체에서 긍정적이지 않은 사례들이 여럿 공유되었다. 앞으로 과제나 수업 방식을 어떻게 바꾸어야 하는지, 학생들에게 어떻게 해야 인공지능에 의존하지 않고 스스로 해내는 것의 가치를 느끼게 할 수 있는지 등의 논의가 오갔다.
나 또한 아주 비슷한 사례를 경험했다. 이번 가을 학기 나는 학부 개론 수업의 TA(Teaching Assistant)로서 주 1회 토론 수업(Discussion section)을 맡아 진행하고 있었다. 이 90분 토론 수업에서는 매주 리딩을 바탕으로 학생들이 질문을 먼저 올리면, 수업 시간에는 질문을 묶어 선별하거나 주제 기반으로 흥미로울 법한 액티비티를 고안해 진행했다.
하루는 공정한 알고리즘을 설계한다는 것의 딜레마에 대한 주의 리딩을 바탕으로, 이를 학생들이 조금 더 와닿게 이해할 수 있도록 어떤 액티비티가 좋을지 고민하다가 ‘장학생 선발 알고리즘을 설계하는 상황’을 만들었다. 각 그룹이 가상의 학생 열 명의 배경(학점, 가정의 소득, 봉사활동 시간, 파트타임 잡 여부, 학교 액티비티 활동, 인종 등)을 검토한 뒤 ‘공정’의 기준을 세우고 의사결정 트리를 만들게 했으며, 무엇을 우선순위로 두었는지와 그 이유, 그리고 각 그룹이 모두 공정을 추구했음에도 차이가 나타나는 점에 대해 토론하도록 구성했다. 각 그룹의 학생들은 공유 노트에 들어와 그 결과를 미리 작성하고, 그런 다음 돌아가며 발표하는 방식이었는데, 강의실을 돌아다니다가 한 그룹이 거의 즉시 ChatGPT에 의존해 답을 도출하는 장면을 목격했다.
이는 시험에 들어가는 활동도 아니었고, 고난도의 문제도 아니었다. 그럼에도 ‘일단 인공지능이 뭐라고 하는지부터 볼까’라는 마음으로 사고의 출발점을 인공지능에게 넘겨버리는 모습은 상당한 충격으로 남았다. 솔직히 말하자면, 그 순간은 가르치는 입장에서도 동기가 크게 꺾이는 경험이었다. 최대한 수업을 흥미롭고 참여적으로 만들려 애썼고, 학생들이 자유롭게 여러 생각을 펼칠 수 있도록 쉬운 액티비티를 고안했는데, 이마저도 스스로 해보려 하지 않는다면 학생들에게 어떻게 동기부여를 해야 할지 막막해졌다. 내재적 동기를 교수자가 어떻게 길러낼 수 있는지에 대한 고민을 많이 하게 되었다.
학습에서 사라지는 사고의 과정
다른 교수님들도 같은 고민을 나누었다. 학생들의 과제 및 참여 동기가 약해지고, 현재의 기술로는 인공지능이 한 것인지 아닌지 정확히 체크하기 어렵다 보니, 심증은 있어도 딱히 짚어내기 어렵기 때문에 글쓰기 과제를 줄이거나 아예 현장에서 손글씨로 시험을 보기, 대면 발표 등으로 평가 방식을 바꾸는 것에 대한 이야기도 있었다. 평가 방식이라는 도구에 대한 이야기 외에도, 인공지능의 흐름을 어떻게 받아들여야 하느냐의 문제를 많이 이야기했다. 공통적으로는 윤리적 사용과 결과물에 대한 책임을 교육의 중심에 두어야 한다는 입장이 있었고, 서로 상반된 의견도 나왔다. 한쪽은 인공지능은 앞으로도 더 강해질 것이므로 사용을 인정하고, 인공지능을 다루는 능력 또한 인간의 역량으로 보아야 한다는 입장이었고, 다른 한쪽은 설령 수업 정책으로 허용 범위를 공지하더라도 학생들의 의존은 구조적으로 커질 수밖에 없으며, 학습 환경에서는 ‘스스로 하는 것’을 강조해야 한다는 입장이었다. 나는 후자에 조금 더 마음이 기울었다. 그 이유는 단순히 부정행위의 문제가 아니라, 학습이란 결국 생각하는 힘을 길러내는 훈련 과정이라는 점에서 ‘의존의 확대가 곧 생각하는 훈련의 약화를 의미할 수 있다’고 보았기 때문이다.
물론 인공지능을 두고 공학계산기의 예를 들며, 복잡한 일을 도구에 맡기면 더 중요한 일에 집중할 수 있다고 말하는 사람도 있다. 그러나 학습에서의 생성형 인공지능은 결이 다르다. 공학계산기는 대개 사용자가 이미 이해한 규칙과 개념을 더 빠르게 적용하도록 돕는다. 반면 생성형 인공지능은 과제의 핵심인 읽기, 해석, 비교, 주장 구성, 반론 검토 같은 사고 과정을 통째로 대리할 수 있다. 학생이 수행해야 할 ‘사고의 과정’을 인공지능이 먼저 수행하고, 인간은 검수자처럼 앉아 있는 구도가 형성되기 쉽다. 문제는 그 검수 능력 자체가 오랜 읽기와 쓰기의 훈련을 통해 길러진다는 점이다. 스스로 아직 훈련이 되지 않은 상태에서 그럴듯한 결과물을 평가한다는 것은, 실제로는 평가라기보다 수용에 가까워지기 쉽다. 결국 도구를 활용한다는 말이 성립하려면, 도구의 산출물을 판별할 내적 기준이 먼저 존재해야 한다.
연구 현장에서 드러난 신뢰의 위기, 존재하지 않는 논문들
이처럼 인공지능에 과도하게 의존하는 문제는 비단 학생들만이 아니라 연구 현장에서도 드러난다. 어느 날, 내 박사학위 논문 주제와 관련한 챕터북을 읽고 있었다. 나는 주제를 정하기 전 관련 영역에서 발표된 논문들을 무수히 검색하고 정리했기 때문에, 내 주제가 여태까지는 별로 탐색되지 않은 주제라는 이해가 있었다. 그런데 그 챕터북은 내 주제와 관련한 여러 논문들을 문헌 리뷰하고 있었다. 시기적으로도 내 주제와 관련된 논문이 벌써 출판되어 심지어 다른 연구자의 챕터북에 리뷰로 실리는 것에 깜짝 놀라 참고문헌 목록을 확인했다. 그런데 그 논문이 실린 저널도 저자들도 하나도 인식할 수가 없었다. 적어도 이 분야의 유명한 저널과 주요 연구자들은 알고 있었는데, 연구자가 누구인지 어느 저널인지 아무것도 알 수가 없었다.
라이브러리 데이터베이스, 학술 데이터베이스에 들어가 직접 그 저널과 권호를 체크한 결과, 그 논문들은 존재하지 않는다는 믿기 힘든 결론에 이르렀다. 그 책의 출판사는 학술 출판사로는 아주 유명한, 문헌정보학 학부 수업에서도 배우는 곳 중 하나였다. 이런 일이 벌어지는 것을 보며 이제는 정말 이름 있는 출판사의 책마저도 믿을 수 없겠다는 위기감과 함께, 이미 학위를 받고 학교에 적을 두고 연구하는 사람의 윤리의식에 대해 충격을 받았다. 그 책이 출판된 연도를 미루어보았을 때, 인공지능에 의존했고 꼼꼼한 검수를 하지 못한 결과라는 짐작을 조심스럽지만 할 수밖에 없었다.
AI를 탐지하는 GPTZero (출처 : https://gptzero.me/)
연구를 업으로 하는 경우도 이런데, 아직 동기부여가 확실하지 않고 세상에 더 재미있는 것이 한참 많은 학생들은 오죽할까 싶은 생각이 들었다. 그리고 이 문제는 비단 해당 저자만의 문제가 아니었다. 동료 심사 과정에서도 인공지능 남용이 문제가 되는 경우가 늘어나고 있다. 최근 인공지능 사용 판독기인 GPTZero(https://gptzero.me/news/iclr-2026/)는 오픈 리뷰 시스템을 적용하고 있는 ICLR 2026 제출 논문들 중 50개 이상이 존재하지 않는 참고문헌을 인용한 사례를 발견했다고 발표했다. 그중 일부는 심지어 10점 만점에 8점으로 리뷰 스코어가 상당히 높은, 게재가 될 논문이기도 했다. 내가 함께 일하는 교수님도 권위 있는 학회의 리뷰어 체어를 맡고 계셨는데, 인공지능 활용 때문에 논문 리뷰가 인공지능으로 작성된 것 같다는 항의 메일을 이전과는 비교할 수 없을 만큼 받고 있다고 하셨다.
인공지능의 윤리적 활용의 선을 벗어나는 것은 물론이거니와, 이렇게 책을 쓰는 과정도, 논문을 쓰는 과정도, 리뷰를 하는 과정도 모두 인공지능에 의존한다면 어디서 재미와 보람을 찾고 무슨 의미가 있어서 그 일을 하는 것인지에 대한 회의마저 들었다. 그리고 이는 분명 학계 전체에 악영향을 줄 것이다. 인공지능의 활용으로 일을 쉽게 처리하는 사람이 곧 다른 사람도 그렇겠거니 하는 인식을 갖게 되기 마련이고, 여러 대화를 통해 그런 경우가 상상이 아님을 알 수 있기 때문이다.
이전에 읽었던 대니얼 리버먼(Daniel Lieberman)의 《우리 몸 연대기(The story of human body)》에 언급되었던 ‘use it or lose it’이라는 문구가 떠올랐다. 이는 사용하지 않는 신체기관과 근육은 결국 없어진다는 말이다. 이를 인공지능 의존에 적용하면 꽤 무서운 말이 된다. 우리가 조금 긴 텍스트도 읽지 않고 인공지능에게 요약을 맡겨버리면서 잃게 되는 기능은 무엇인지, 인공지능에게 다른 글을 읽고 피드백을 주는 일을 맡겨버리면서 잃는 기능은 무엇인지, 더 나아가 이런 환경이 구축되면 실질적으로 발생하게 될 문제는 무엇인지 생각해야 한다. 인공지능을 우리 사고의 일부로 받아들인다면, 그 너머에서 우리가 개발하게 될 능력 또는 개발해야 하는 능력은 무엇인지, 인공지능의 결과물을 1부터 100까지의 질로 평가했을 때 어느 지점에 있는지(필자의 막연한 추정으로는 60–70% 정도이다), Mastery 레벨의 인공지능이 대체할 수 없는 뛰어난 결과물을 위해서는 어떠한 인지적 과정과 능력이 필요하며 무엇을 개발해야 하는지, 탐색하고 생각해봐야 할 게 많은 것 같다. 허용과 금지의 논의를 넘어, 학습과 연구에서 어떤 능력을 잃지 않기 위해 무엇을 지켜야 하는가에 대해서도 생각할 것들이 많다.
마지막으로, 이 지점에서 도서관이 할 수 있는 역할은 생각보다 크다. 도서관은 단지 자료를 제공하는 곳이 아니라, 이제는 지식의 검증과 책임, 윤리와 관련해서도 학술 공동체에 실무 도구뿐만 아니라 가이드를 제시할 수 있는 허브 역할을 할 수 있을 것 같다. 학술 공동체 내의 모두가 인공지능이 학습을 약화한다는 진단에서 멈추지 않고, 인공지능이 결과물을 쉽게 만드는 시대에도 학습을 단단하게 만드는 사회적 장치를 실제로 구축하는 방향에 대한 논의가 앞으로 기대된다.
최유진_The University of Texas at Austin 정보학 박사과정
텍사스대학교 오스틴(The University of Texas at Austin, UT Austin) 정보학 박사과정 4년 차에 있다. 주요 연구 분야는 사람들의 학습 과정(특히 흥미 개발과 창의성 지원)을 돕는 AI 기반 정보 시스템이다. 인공지능과 도서관의 역할을 다루는 미국 박물관·도서관 서비스 연구소(The Institute of Museum and Library Services, IMLS) 지원 프로젝트에 펠로우로 참여 중이다.
AI 시대, ‘삶의 맥락’이 사라지고 있다나는 요즘 일상생활에 필요한 정보를 검색할 때 결과 기간을 ‘2023년 이전’으로 제한하는 습관이 생겼다. 이유는 단순하다. 생성형 인공지능이 만들어낸 개성 없는 정보가 너무나 많아졌기 때문이다. 예를 들어 특정 시대를 이해할 수 있는 영화 콘텐츠, 요리 레시피, 심지어 어두운 곳에서 모기를 잡는 방법과 같은 정보를
최근 교육 현장과 일상에서 인공지능 기술이 활용되는 방식을 살펴보면, 배움의 방식이 조용히 재편되는 전환점을 지나고 있다고 느낀다. 생성형 인공지능, 대표적으로 챗지피티(ChatGPT)의 등장은 단순한 기술 혁신을 넘어 학습의 본질을 다시 묻게 만든다. 당초 많은 사람들은 인공지능이 등장하면 계산 업무, 자료 입력, 일정 관리처럼 단순하고 반복적인 업무가
흰 바탕에 흰 글씨, 인공지능의 조작“이러다 연구자도 필요 없겠어.” 인공지능(AI)에게 자리를 빼앗길지도 모른다는 농담 반, 우려 반의 말들이 종종 들려온다. 그 말들에 크게 흔들리지는 않는다. 결과물에 대한 책임은 여전히 인간에게 있고, 생성형 인공지능의 윤리적 활용에 대한 논의도 활발히 진행되고 있다. 그러나 짧은 시간 안에 ‘그럴듯한 결과물’을 손쉽