인공지능(AI) 모델이 빠르게 대중화되면서, 이를 둘러싼 '신뢰의 격차'가 새로운 갈등 요소로 떠오르고 있다. 챗GPT 등 생성형 AI의 답변을 전적으로 신뢰하는 집단과, 할루시네이션(Hallucination·AI 환각현상) 등의 이유로 AI를 경계하는 집단 간의 인식 차이가 뚜렷해지고 있기 때문이다.
20일 <메트로경제> 취재에 따르면, 최근 AI를 둘러싼 사회적 신뢰 논쟁이 거세지고 있다. 특히 AI 활용에 익숙한 젊은 층과, 이를 경계하는 장년층 사이의 'AI 리터러시' 차이가 직장, 일상 등 다양한 영역에서 갈등으로 표출되고 있다. 메트로경제>
AI 모델의 신뢰성 문제는 이미 오래전부터 지적돼 왔다. 대표적인 사례가 바로 '할루시네이션'이다. 이는 AI가 잘못된 정보를 사실처럼 생성하는 현상으로, ▲학습 데이터의 부족 ▲데이터 편향 ▲모델의 잘못된 전제 ▲문맥 오해 등이 주요 원인으로 꼽힌다.
AI 모델은 기본적으로 '모든 질문에 답하려는' 구조를 갖고 있어, 학습 범위를 벗어난 질문에도 확률적으로 그럴듯한 답변을 만들어낸다. 하지만 이 과정에서 오답이 자주 발생하면서, AI에 대한 맹신에 우려를 제기하는 목소리도 커지고 있다.
직장인 김나영(38) 씨는 "회사 동료 중 한 명이 챗GPT 전도사처럼 굴고 있다"며 "이제는 점심 메뉴뿐만 아니라 사업 타당성 검토까지 챗GPT에 맡기자고 한다. 게다가 부하 직원에게도 챗GPT 활용을 강요하는 바람에 스트레스가 크다"고 토로했다.
반면 장준재(61) 씨는 "요즘 친구들 중에도 AI를 공부하거나 도입하려는 사람이 많다"며 "나 역시 대세를 따라야겠다는 생각이 들어 챗GPT를 조금씩 익히고 있다"고 말했다. 그러나 장 씨는 "정작 회사 차원에서는 구체적인 활용 가이드도, 교육도 없어 막막한 상황"이라고 덧붙였다.
세대 간 인식 차이는 각종 통계에서도 드러난다. 미국 갤럽과 월튼 패밀리재단의 설문조사에 따르면, 20대 응답자의 30%가 "AI 정보를 자주 신뢰한다"고 답한 반면, 50~60대의 비율은 12%에 그쳤다. 연령대가 높을수록 AI를 신뢰하는 비율이 눈에 띄게 낮은 것이다.
국내 연구도 유사한 결과를 보인다. 한국법제연구원의 보고서에 따르면, 20대는 AI 기술에 대해 가장 높은 친숙도를 보였지만, AI 기술에 대한 '불안감'은 2.87점(5점 만점)으로 낮은 편이었다. 반면 40~50대의 우려 수준은 평균 4.12점으로 훨씬 높아, 기술 친숙도와 신뢰감 사이의 간극이 뚜렷했다.
한 IT 업계 관계자는 "AI 활용은 이제 거스를 수 없는 흐름"이라며 "그러나 기술에 대한 과신이나 막연한 불신 모두 문제다. 사용자의 리터러시 수준을 높이기 위한 체계적 교육이 시급하다"고 말했다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성