스마트폰을 켜는 순간부터 우리는 AI의 눈앞에 선다. 검색어, 시청 기록, 위치 정보, 심지어 감정의 변화까지도 데이터로 남는다. 인공지능은 이 흔적을 학습하며 우리의 다음 행동을 예측하고, 그 예측은 다시 새로운 행동을 유도한다. 이 구조를 이해하기 위해 사회학자 토마스 마티센(Thomas Mathiesen, 1997)이 제시한 ‘시놉티콘(Synopticon)’ 개념을 떠올릴 수 있다. 이는 소수가 다수를 감시하던 벤담의 ‘파놉티콘(Panopticon)’과 달리, 다수가 미디어를 통해 소수를 관찰하는 현대사회의 역감시 구조를 의미한다. 하지만 디지털 시대의 시놉티콘은 더 이상 단순히 권력자나 유명인을 바라보는 대중의 시선을 뜻하지 않는다. 오히려 우리는 소셜미디어, 검색엔진, 스트리밍 플랫폼 등을 통해 스스로 데이터를 생산하며, 플랫폼은 그 데이터를 수익화하는 새로운 ‘역(逆)시놉티콘’의 질서를 만들어내고 있다.
이러한 상호 감시 구조가 결합된 현대의 AI 환경은 결국 ‘알고리즘 파놉티콘(Algorithmic Panopticon)’으로 진화했다. Ferrara(2024)는 인공지능이 18세기 벤담의 파놉티콘이 상징하던 감시와 통제의 권력 구조를 디지털 환경 속으로 재현했다고 분석한다. 그는 특히 AI가 인간의 행동을 직접 감시하기보다, 데이터를 통해 간접적으로 감시와 자기 규율(Self-Discipline)을 유도한다는 점에서 고전적 감시 체계보다 더 정교하고 침투적이라고 지적했다. 이에 더해 Arciaga & Pajo(2025)는 이러한 기술적 감시가 사회 전반으로 확산되며 인간의 주체성까지 알고리즘이 재구성하는 현상을 ‘알고리즘 파놉티콘’이라 명명했다. 그들은 현대사회의 AI 플랫폼이 ‘주의 경제(Attention Economy)’라는 비즈니스 모델을 통해 이용자의 시선을 상품화하고, 이를 반복적인 데이터 추출과 예측적 피드백 구조로 연결시켜 이용자의 행동을 통제한다고 설명한다. 즉, 사용자는 정보를 탐색하고 서비스를 이용할수록 더 많은 데이터를 제공하게 되고, 그 데이터는 다시 알고리즘의 학습 재료가 되어 사용자의 선택과 감정을 미세하게 조정하는 구조가 완성된다(Ferrara, 2024; Arciaga & Pajo, 2025).
이러한 현상은 ‘편리함과 투명성의 역설’로 귀결된다. AI 서비스는 사용자의 삶을 간편하게 만들지만, 그 대가로 사용자는 자신의 프라이버시와 통제권을 점차 잃는다. 즉, 우리는 더 나은 사용자 경험을 얻기 위해 스스로 데이터를 제공하고, 그 데이터로 인해 오히려 ‘보이는 존재’가 된다. 결국 ‘편리함의 대가로 스스로를 투명하게 만든 사회’라는 표현은 오늘날 디지털 시민이 감시와 복지, 기술과 윤리 사이에서 어떤 균형을 선택해야 하는지를 보여주는 상징적 문장이라 할 수 있다.
편향된 AI, 공정성을 위협하다
AI는 인간이 만든 데이터를 학습한다. 따라서 데이터 속의 불평등, 편견, 차별이 그대로 AI의 판단 기준이 된다. 이른바 알고리즘 편향(Algorithmic Bias)은 데이터 수집 단계의 왜곡(Sampling Bias), 설계자의 주관이 개입된 코드 편향(Algorithmic Bias), 그리고 인간의 해석 과정에서 생기는 상호작용 편향(Interaction Bias)으로 나타난다(Wang et al., 2024).
실제 사례는 많다. 채용 AI가 특정 성별을 우대하거나, 범죄 예측 알고리즘이 인종에 따라 위험도를 다르게 계산하는 문제 등이 이미 보고되었다. 이는 기술이 공정성을 향상시키기보다, 오히려 기존 사회의 불평등을 ‘자동화’하는 결과로 이어진다.
한국지능정보사회진흥원(NIA, 2024)은 AI 이용 격차가 소득과 교육 수준에 따른 사회경제적 불평등을 강화할 수 있다고 경고한다. 이런 상황에서 도서관이 오랫동안 지켜온 ‘정보 접근의 평등’이라는 가치가 위협받고 있다. EBSCO Information Services(n.d.)는 AI의 편향 문제에 대한 우려를 표했다. 도서관은 단순히 AI를 도입하는 기관이 아니라, AI가 공정하고 책임 있게 작동하는지를 점검하는 사회적 장치가 되어야 함을 시사한다.
데이터의 주권, 누구의 것인가
AI가 작동하기 위해 필요한 것은 데이터다. 그러나 이 데이터는 물리적 국경을 자유롭게 넘는다. 예를 들어, 우리나라의 이용자가 생성한 데이터가 해외 클라우드 서버에 저장될 경우, 그 서버가 위치한 국가의 법률이 데이터를 열람할 수 있다. 미국의 CLOUD Act(Clarifying Lawful Overseas Use of Data Act)는 그러한 가능성을 보여주는 대표적인 사례다.
이 문제는 단순한 기술 이슈를 넘어 국가의 데이터 주권(Data Sovereignty)과 개인의 정보 통제권에 관한 것이다. Broadcom(2025)은 AI 혁신의 핵심 조건으로 ‘주권 AI(Sovereign AI)’를 제시하며, 데이터가 자국 내에서 안전하게 처리되고 관리되는 환경이 필요하다고 주장한다.
도서관의 상황도 다르지 않다. 대출 기록, 검색 이력, 전자정보 이용 로그 등은 모두 개인의 정보 행태를 드러낸다. 따라서 도서관은 데이터의 보관 위치와 접근 주체, 암호화 수준을 명확히 규정한 정보 보호 체계를 마련해야 한다. 이것이 정보기관으로서의 신뢰를 지키는 출발점이다.
도서관의 윤리적 거버넌스
AI 시대의 도서관은 기술을 단순히 ‘활용’하는 곳이 아니라, 윤리적 기준을 제시하는 공공기관이어야 한다. 국제도서관협회연맹(IFLA, 2020)은 도서관이 AI를 활용할 때 반드시 개인정보 보호, 알고리즘 투명성, 그리고 공정성 확보를 원칙으로 삼아야 한다고 강조한다.
이 원칙을 현실화하기 위해서는 정책적, 기술적, 그리고 인적 대응이 모두 필요하다. 예를 들어, ISO/IEC 20889에서 제시한 차등정보보호(differential privacy)나 동형암호(homomorphic encryption) 기술을 적용하면, 데이터의 가치와 개인 정보 보호를 동시에 지킬 수 있다(Samsung SDS, 2022).
도서관은 또한 국가 정책이나 법제 논의 과정에서 이용자의 권리와 정보 접근권을 적극적으로 옹호해야 한다. 기술의 속도를 따라가는 것이 아니라, 기술의 윤리적 경계를 설정하는 주체로서 자리매김해야 한다(박진호, 2025).
사서, 알고리즘을 감사하는 사람
AI의 결정 과정은 종종 ‘블랙박스’로 불린다. 사용자는 결과만 보고 그 근거를 알기 어렵다. 이런 불투명성을 해결하기 위해 사서는 이제 알고리즘 감사자(Auditor)로서의 역할을 수행해야 한다.
사서는 AI 시스템의 결과를 검증하고, 데이터 처리의 공정성을 점검하며, 이용자가 정보를 비판적으로 이해할 수 있도록 돕는다. UNESCO(2021)는 인간의 존엄과 자율성을 보장하기 위해, AI 수명주기 전반에서 윤리적 감시가 필요하다고 권고한다. 도서관은 이 감시의 최전선에 서야 한다.
모두를 위한 지식의 주권
AI의 발전은 거스를 수 없지만, 그것이 인간의 가치보다 앞설 수는 없다. 기술은 도구일 뿐, 목적은 모두가 평등하게 지식에 접근할 수 있는 사회이다. 도서관은 그 사회의 가장 오랜 약속을 지켜온 기관이다. AI 시대의 도서관은 정보의 저장소를 넘어, 윤리와 신뢰를 바탕으로 지식의 공공성을 지키는 거버넌스 기관이 되어야 한다. 그것이 바로 기술의 편향을 넘어, 인간의 주권을 지키는 길이다.
박진호_한성대 크리에이티브인문대학 지식정보문화트랙 교수
한성대 크리에이티브인문대학 지식정보문화트랙에서 교수로 재직중이다. 한국예술종합학교와 국립중앙도서관에서 사서로 근무했다. 주요 연구 관심사는 오픈 데이터와 시맨틱 웹이며, 정보기술 관련 주제 강의를 진행하고 있다.
새로운 시대의 거점이 왜 도서관이어야 하는가?The Liverary는 2025년 6월 4일 새정부 출범을 기해 새정부에 바라는 도서관 정책, 도서관 인들이 향후 논의해야 할 이슈와 아젠더를 제안하는 전문가 칼럼 코너를 마련하였다. 문헌정보학자, 현직 도서관 사서, 협회장 등 총 네 분의 필자가 참여하는 이 칼럼을 통해 도서관이 AI 시대 지식정보의 허브
LLM 시대, 텍스트의 외형적 설득력과 내용의 진실성은 별개대규모 언어모델(LLM, Large Language Model)의 등장은 인간이 언어를 기반으로 지식을 구성해온 방식에 근본적인 질문을 던지고 있다. 전통적으로 언어는 지식 전달의 매개이자 세계를 이해하는 창구로 인식되었다. 그러나 오늘날의 LLM은 언어를 이해하기보다는, 수많은 텍스트에서 추출된
두 개의 지능과 언어(문자)인공지능(AI) 기술의 급부상은 현대사회의 지형을 근본적으로 변화시키고 있다. OpenAI가 대화 형식의 인공지능 챗봇 ChatGPT를 2022년 11월 30일에 공개한 이후, 전 세계적으로 대규모 언어 모델(LLM)을 활용한 생성형 인공지능 서비스의 개발과 활용이 급속히 확산되었으며, 다양한 산업 분야에서 업무 자동화, 정보 검