대규모 언어모델(LLM, Large Language Model)의 등장은 인간이 언어를 기반으로 지식을 구성해온 방식에 근본적인 질문을 던지고 있다. 전통적으로 언어는 지식 전달의 매개이자 세계를 이해하는 창구로 인식되었다. 그러나 오늘날의 LLM은 언어를 이해하기보다는, 수많은 텍스트에서 추출된 확률적 패턴을 조합하여 가장 자연스럽게 보이는 문장을 생성한다(Bender et al., 2021). 이러한 차이는 언어의 유창함이 지식의 신뢰성을 보증하지 않는다는 사실을 분명히 드러낸다.
특히 LLM이 사실·지식·믿음과 같은 개념을 안정적으로 구분하지 못한다는 연구(Suzgun et al., 2025)는, 텍스트가 가진 외형적 설득력과 그 내용의 진실성이 별개라는 점을 강조한다. 현대 정보환경은 다양한 정보가 혼재하여 빠르게 소비되는 만큼, ‘잘 쓰인 문장’이 신뢰의 신호로 기능하는 경향이 강하다. LLM의 등장은 이러한 신뢰 구조의 취약성을 더욱 드러내고 있다. LLM 시대의 언어는 단순한 표현이 아니라, 해석과 검증을 필요로 하는 텍스트로 이해될 필요가 있다.
LLM 환각이 초래하는 사회적 신뢰 체계 위협과 정보 혼란
언어·지식·의미를 둘러싼 문제는 인공지능 내부의 오래된 논쟁과 맞닿아 있다. 기호주의(symbolic AI)는 규칙과 구조적 의미 체계를 기반으로 지능을 설명하며, 연결주의(connectionism)는 신경망 기반 학습을 통해 지능을 모델링한다. GPT와 같은 LLM은 연결주의의 확장된 형태로, 유창한 언어 생성 능력은 제공하지만 의미의 기반은 취약하다.
존 설(John R. Searle)이 1980년 “Minds, Brains, and Programs”에서 제안한 ‘중국어 방(Chinese Room)’ 사고 실험은 이러한 구조적 한계를 명확히 보여준다(Searle, 1980). 중국어를 모르는 사람이 규칙집을 따라 중국어 문장에 응답할 수 있는 상황은, LLM이 의미를 이해하지 못한 채 자연스러운 문장을 생성하는 방식과 유사하다. 이 사고 실험은 자연스러운 언어 생성 능력이 이해의 증거가 아니라는 점을 강조하며, 기계적 처리와 의미론적 판단 사이의 간극을 분명히 드러낸다.
LLM의 환각(hallucination)은 모델의 구조적 특성에서 비롯된다. 모델은 질문을 이해하지 못한 채, 가장 그럴듯한 문장을 생성하려는 통계적 목적을 수행한다(Dang et al., 2025). 이 때문에 환각은 예외적 오류가 아니라 LLM의 작동 방식에 내재된 현상이다. 특히 LLM이 오류를 제시할 때 오히려 더 자신감 있는 문장 구조를 사용하는 경향은 사용자에게 잘못된 신뢰를 부여할 가능성을 높인다.
가짜 판례를 생성해 법원 제출 문서에 포함된 사례(Milmo, 2023)나 존재하지 않는 언론 기사·출처를 제시한 사건은 환각이 단순한 기술적 문제가 아니라 사회적 신뢰 체계를 위협할 수 있음을 보여준다. 이러한 사례는 오류가 단순히 잘못된 정보의 제공을 넘어, 정보환경 전체에 구조적 혼란을 일으킬 수 있다는 점을 시사한다.
도서관의 새로운 역할: AI 리터러시의 중심 그리고 정보의 검증 전문가
LLM의 환각 문제는 도서관 현장에서 매우 실제적인 문제로 나타나고 있다. 여러 도서관에서는 이용자가 존재하지 않는 책을 요청하거나, 생성형 AI가 만든 허위 서지 정보를 토대로 자료를 찾는 사례가 증가하고 있다(Sellmeijer, 2025). 이는 LLM이 만들어낸 오류가 단순한 디지털 텍스트 차원에서 머무르지 않고, 실제 정보환경으로 유입되어 이용자의 경험과 정보 접근에 직접적인 영향을 미치고 있음을 보여준다.
이러한 변화를 고려할 때, 도서관과 정보 전문직의 역할은 기존의 틀을 넘어 확장될 필요가 있다. 첫째, 정보 문해력 교육의 중심 기관으로서 도서관은 이제 AI 리터러시 교육을 본격적으로 포함해야 한다. 오리건주립대 도서관의 AI 리터러시 센터 사례(Hogue, 2025)처럼, LLM의 작동 방식과 환각의 구조, 자동화 편향의 문제를 설명하는 교육이 점차 중요한 역할로 자리 잡고 있다.
둘째, 정보 전문직은 생성 정보의 검증자로서 더 높은 수준의 판단 능력을 요구받게 된다. 사서는 기존에도 정보의 품질과 신뢰성을 검토해왔지만, AI가 만들어내는 허위 출처·가짜 논문·왜곡된 서지 정보는 새로운 검증 기술을 필요로 한다. 이 과정에서 사서는 단순한 정보 제공자가 아니라, 생성된 텍스트의 진위 여부를 판단하고 그 의미를 해석하는 전문가로서 역할을 수행하게 된다.
셋째, 도서관은 AI 기술의 도입과 활용 과정에서 윤리적·정책적 기준을 마련하는 기관으로서 기능해야 한다. 자동 분류, 추천 알고리즘, 자동 요약 등 AI 기반 기능은 편리함을 제공하지만, 오류 발생 시 이용자에게 직접적인 피해가 돌아갈 수 있다. 또한 편향된 데이터가 시스템에 내재되어 있을 경우 특정 집단에 불이익을 초래할 가능성도 존재한다. 따라서 도서관은 기술 도입 여부를 결정하는 과정에서 이용자 보호, 공정성, 투명성 등 다양한 요소를 고려해야 하며, 이러한 판단은 정보 전문직의 전문성과 사회적 책임을 기반으로 수행되어야 한다.
AI 시대 지식 생태계에서 신뢰의 기반을 마련하는 도서관
LLM 시대의 언어는 더 이상 진실을 보증하는 기준이 될 수 없다. 언어의 유창함이 신뢰를 대체하던 시대는 지나가고 있으며, 앞으로의 정보환경에서는 근거·맥락·검증이 신뢰의 핵심 요소로 자리 잡게 될 것이다. Searle(1980)의 중국어 방 사고 실험이 보여주듯, 언어적 능력과 의미 이해는 본질적으로 다른 차원의 문제이다. 따라서 LLM이 생산하는 텍스트는 자연스러울 수 있지만, 그 자연스러움이 곧 신뢰로 이어질 수 없다는 사실을 분명히 이해해야 한다.
이러한 맥락에서 도서관과 정보 전문직의 역할은 점점 더 중요해지고 있다. 도서관은 환각 시대의 신뢰 기준을 재정의하는 핵심 기관으로서, AI를 비판적으로 활용하는 사회적 지능의 중심이 되어야 한다. 또한 정보 전문직은 인간 고유의 판단 능력을 기반으로 생성 텍스트를 평가하고 맥락화하는 역할을 수행함으로써, LLM 시대의 지식 생태계에서 신뢰의 기반을 마련하게 된다.
〈참고문헌〉
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Dang, A.-H., Tran, V., & Nguyen, L.-M. (2025). Survey and analysis of hallucinations in large language models: Attribution to prompting strategies or model behavior. Frontiers in Artificial Intelligence, 8, 1622292. https://doi.org/10.3389/frai.2025.1622292
Hogue, T. (2025, October 10). New AI Literacy Center helps ask hard questions about generative AI. OSU Today (Oregon State University)
Milmo, D. (2023, June 23). Two US lawyers fined for submitting fake court citations from ChatGPT. The Guardian.
Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–457.
Sellmeijer, J. (2025, September 22). AI hallucinations are flooding libraries with phantom books that don’t exist. JimSellmeijer.com (Tech Blog).
Suzgun, M., Gur, T., Bianchi, F., Ho, D. E., Icard, T., Jurafsky, D., & Zou, J. (2025). Language models cannot reliably distinguish belief from knowledge and fact. Nature Machine Intelligence. Advance online publication. https://doi.org/10.1038/s42256-025-01113-8
박진호_한성대 크리에이티브인문대학 지식정보문화트랙 교수
한성대 크리에이티브인문대학 지식정보문화트랙에서 교수로 재직중이다. 한국예술종합학교와 국립중앙도서관에서 사서로 근무했다. 주요 연구 관심사는 오픈 데이터와 시맨틱 웹이며, 정보기술 관련 주제 강의를 진행하고 있다.
두 개의 지능과 언어(문자)인공지능(AI) 기술의 급부상은 현대사회의 지형을 근본적으로 변화시키고 있다. OpenAI가 대화 형식의 인공지능 챗봇 ChatGPT를 2022년 11월 30일에 공개한 이후, 전 세계적으로 대규모 언어 모델(LLM)을 활용한 생성형 인공지능 서비스의 개발과 활용이 급속히 확산되었으며, 다양한 산업 분야에서 업무 자동화, 정보 검
새로운 시대의 거점이 왜 도서관이어야 하는가?The Liverary는 2025년 6월 4일 새정부 출범을 기해 새정부에 바라는 도서관 정책, 도서관 인들이 향후 논의해야 할 이슈와 아젠더를 제안하는 전문가 칼럼 코너를 마련하였다. 문헌정보학자, 현직 도서관 사서, 협회장 등 총 네 분의 필자가 참여하는 이 칼럼을 통해 도서관이 AI 시대 지식정보의 허브
예술 분야의 AI 활용2022년 미국 콜로라도주 박람회 미술대회에서 AI가 생성한 그림이 1등상을 수상했다. 제이슨 앨런이라는 참가자가 ‘미드저니(Midjourney)’라는 AI 프로그램으로 만들어낸 디지털 회화 작품 〈스페이스 오페라 극장〉이 그 주인공이다. 이 작품의 우승 소식이 알려지자 예술가들과 대중 사이에서는 ‘예술의 죽음’, ‘창작 일자리의