AI Literacy가 GenAI 사용에 어떤 영향을 미치는가
How AI Literacy Shapes GenAI Use
배경 및 소개
검색, 창작, 커뮤니케이션 방식이 genAI로 재편되면서 디지털 리터러시의 범위가 확장되고 있다. 이제 정보 탐색과 생산 능력은 키워드 검색이나 전통적 소프트웨어 숙련만으로 설명되지 않고, 대화형 모델과 상호작용하는 새로운 심리 모형과 절차적 감각을 요구한다. 그러나 실제 사용은 불균등하다. 모두가 genAI를 쓰는 것도 아니고, 사용자마다 쓰는 방식과 성숙도가 크게 다르다. 기술 업계 내부의 ‘당연한’ 숙련을 일반 사용자에게 투영하면 포용적 UX를 놓치기 쉽다. 이 글은 디지털 포용 관점에서 관찰 연구를 수행해, genAI 사용 성패를 좌우하는 핵심 역량을 ‘prompt fluency’와 ‘output literacy’라는 이원 구조로 정리하고, 단일 연속선으로는 설명할 수 없는 다차원적 AI 리터러시의 실체와 그에 맞는 디자인 지원 방안을 제시한다.
주요 내용
연구팀은 23~65세 참여자들이 스스로 정한 과제를 전통적 웹과 genAI로 조사하는 과정을 비밀스럽게 관찰했다. 초기 선택 도구는 자유였고, AI 초점 연구라는 사실은 뒤늦게만 알려 주었다. 참가자의 경험치는 초보부터 개인·업무 모두에서 genAI를 정기적으로 쓰는 사용자까지 다양했다. 분석 결과, genAI 활용의 성패를 가르는 두 역량이 뚜렷했다. 첫째, prompt fluency는 의도·제약·맥락을 충분히 전달해 유용한 출력을 끌어내는 능력이다. 숙련자는 길고 구체적인 맥락과 제약을 넣고, 여러 질문을 한 번에 요청하며, 표·랭킹 등 의사결정 친화적 포맷을 지정하고, 같은 대화 맥락을 이어가며 보정한다. 초보자는 검색엔진처럼 키워드 위주로 입력하거나, 매번 대화를 새로 시작해 누적 맥락을 소거했다. 둘째, output literacy는 답을 비판적으로 평가·검증하는 능력이다. 가격·가용성·UI 조작 절차처럼 오류가 잦은 정보를 교차확인하고, 출처를 찾고, 고위험 상황에서는 임시 결론으로 다루는 태도다. 흥미롭게도 두 역량은 함께 자라지 않았다. 노출이 늘며 prompt fluency는 빠르게 향상되지만, output literacy는 뒤처질 수 있다. 실제로 ‘naive power user’들은 유창하게 요청하면서도 사실 검증을 소홀히 했다. 반대로 ‘skeptical abstainer’는 AI 한계를 잘 이해하지만 신뢰·윤리 이유로 사용을 꺼려 prompt fluency가 낮게 머물렀다. 연구는 사용자 유형을 네 사분면으로 정리했다: AI novice, naive power user, skeptical abstainer, AI expert. 이 구분은 현장에서 모두 관찰되었다. 또한 개념적 AI 지식이 낮을수록 AI 수용성이 높아지는 ‘지식-수용 역설’이 정성 데이터에서도 드러났다. 한 초보 고급 사용자에겐 ChatGPT가 “마법처럼 느껴진다”는 경외가 비판적 평가를 약화시켰다. 반면 한 전문가 사용자는 자동차 트림을 Gemini로 비교하던 중 Nightshade 제공 여부가 외부 사이트와 불일치하자 반복 질의와 Google 교차검색으로 오류와 데이터 시차를 추적했다. 도구 선택도 역량 차이를 반영했다. output literacy가 높은 사용자는 NotebookLM, Cursor, Gemini Pro의 Flash/Pro/Deep Research 등 모델·모드별 장단을 태스크에 맞춰 전략적으로 조합했다. 초보자와 naive power user는 처음 접한 단일 도구에 고정되거나, 도구 간 차이를 설명하지 못했다. 디자인 관점에서 기존 온보딩 안내나 하단 경고문은 잘 읽히지 않았고, 유용한 힌트가 장문의 AI 답변 속에 파묻히는 문제가 확인됐다. 이에 따라 인터페이스는 두 축을 분리해 지원해야 한다: 선택 탭으로 전환 가능한 프롬프트 제안, 한 번 클릭으로 제약 추가·표 요약·인기순 정렬 같은 빠른 보정, 모호한 요청에 대한 짧은 명료화 질문, 예산/위치/기간 등 경량 필터 제공으로 prompt fluency를 돕고, 불확실·시효성 높은 정보에는 의도적 불확실 언어와 맥락 경고, Show sources·Check key claims·Compare with web results 같은 Verify 액션의 가시화, 신뢰할 만한 출처 부재의 명확한 표기로 output literacy를 북돋는 방식이다.
결론 및 시사점
AI 리터러시는 사용 빈도로 환원되지 않는 다차원 역량이며, 핵심은 prompt를 잘 쓰는 힘과 출력을 비판적으로 읽는 힘의 결합이다. 둘은 비동조적으로 발달하므로, genAI 경험 설계는 ‘얼마나 자주 쓰는가’가 아니라 ‘어떻게 요청하고 어떻게 검증하는가’를 기준으로 사용자를 만날 필요가 있다. 온보딩 배너나 미세한 경고문에 의존한 교육은 무시되기 쉽다. 대신 과업 흐름 속에 스캐폴딩을 내장해, 표현(입력)과 해석(출력) 모두를 실시간 지원해야 한다. 본 연구는 소규모 정성 관찰이라는 한계가 있으나, 현장에서 반복되는 사용자 패턴과 외부 연구의 경향을 정합적으로 뒷받침한다. 실무적으로는 사분면 관점의 퍼소나와 평가 지표를 도입해 두 축을 분리 측정하고, 위험도 기반으로 검증·출처 기능의 가시성과 마찰을 조절하는 것이 중요하다.
💡 리서치와 평가에서 prompt fluency와 output literacy를 분리해 측정·세분화하고, UI에는 클릭형 프롬프트 보정·명료화 질문·출처/검증 affordance를 과업 맥락에 맞춰 기본 제공하라. 특히 고위험·고정확도 시나리오에서는 신뢰 메타데이터와 교차검증 동선을 전면에 배치해 ‘유창하지만 순진한’ 사용을 안전하게 교정하라.
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.