메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 CEO와칭 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
김서현
기사사진
네이버, 하이퍼클로바X 상업용 무료 오픈소스로 공개

네이버의 생성형 AI '하이퍼클로바X(HyperCLOVA X)'가 24일 상업용으로 사용할 수 있는 무료 오픈소스로 공개된다. 네이버클라우드는 하이퍼클로바X의 경량 모델 3종 ▲HyperCLOVA X SEED 3B, ▲HyperCLOVA X SEED 1.5B ▲HyperCLOVA X SEED 0.5B의 개발을 완료하고 오픈소스로 공개한다고 밝혔다. 이번 공개로 국내·외 기업과 연구기관 등에서는 해당 모델을 내려 받아 필요에 맞게 조정하여 비즈니스 및 학술 연구에 이용할 수 있다. 공개하는 오픈소스 모델인 HyperCLOVA X SEED는 연구용으로만 사용 가능했던 기존 국내 기업들의 주요 모델과 달리 상업 목적으로도 무료로 이용할 수 있어, 비용 부담이나 라이선스 제한 등의 문제로 생성형 AI 도입을 망설였던 중?소규모 비즈니스를 중심으로 국내 AI 생태계가 더욱 활성화될 것으로 기대된다. 특히 HyperCLOVA X SEED 3B는 텍스트뿐만 아니라 이미지와 영상 정보도 처리할 수 있는 시각언어모델로, 도표 이해, 개체 인식, 사진 묘사 등의 능력도 갖췄다. HyperCLOVA X SEED 3B는 상품 페이지의 정보를 인식해 광고 카피를 제안하는 솔루션을 구축하거나, 사진 및 영상 콘텐츠와 함께 국내 여행지 정보를 안내하는 서비스를 설계하는 것과 같은 다양한 비즈니스에 활용될 수 있다. 네이버클라우드 김유원 대표는 "네이버의 온 서비스 AI(On-Service AI) 전략이 가속화되면서 네이버 서비스에 안정적, 비용 효율적 적용이 가능한 경쟁력 있는 특화 모델들을 생산하고 있고, 최근 가장 니즈가 많은 모델이 경량 모델과 추론 모델이었다" 면서 "이 중 기업들이 GPU 리소스 부담 없이 가장 범용적으로 활용할 수 있는 경량 모델을 오픈소스로 공개한 것"이라고 배경을 설명했다. /김서현기자 seoh@metroseoul.co.kr

2025-04-23 10:00:16 김서현 기자
기사사진
AI에 예의 차리다 전기요금 폭탄? ‘고마워’가 불러온 비용

인공지능(AI) 모델에 무심코 건넨 '고마워요' 한마디가 전구를 켤 정도의 전력을 소모하는 것으로 나타났다. AI 모델에게 사람들이 무심코 건네는 공손한 인사말이 막대한 비용을 발생시킨다는 증언이 나왔다. 이는 AI 모델이 작동할 때, 사람이 입력한 문자와 모델이 생성한 응답을 모두 '토큰(token)' 단위로 처리하며, 이 과정에서 상당한 연산 자원이 요구되기 때문이다. 토큰은 AI 모델이 이해하거나 생성할 수 있는 최소한의 문자다. 22일 <메트로경제신문> 취재를 종합해보면 AI 모델이 이용자의 요구에 따라 답변을 출력하기 위한 과정에서 고난이도·대용량 연산이 비용부담을 더 가중시키는 것으로 확인됐다. '고마워' '미안해'와 같은 공손한 표현을 덧붙이는 것도 AI 모델 특유의 알고리즘으로 인해 비용을 추가로 발생시켰다. 최근 샘 올트먼 오픈AI CEO는 SNS 플랫폼 X(구 트위터)에서 한 이용자가 "사람들이 챗GPT에 '제발' '고맙습니다'를 반복할 때마다 전기 비용이 얼마나 들었는지 궁금하다"고 묻자 "수천만 달러의 전기요금을 발생 시켰다"고 답했다. 사람들의 공손한 표현만으로도 수천만 달러의 비용이 소모되는 이유는 생성형 AI가 텍스트를 분해해서 이해하고 연산, 출력하는 과정의 특수성 때문이다. GPT 모델은 입력 텍스트를 자주 등장하는 문자열 단위로 분해해 토큰화하며, 한국어의 경우 보통 한 음절 또는 짧은 단어 하나가 1토큰 정도로 처리한다. 영어는 4~5자당 1토큰 정도가 소모된다. 이에 따라 '사과'는 2토큰, '사랑해'는 3토큰이 된다. 여기에 출력시에도 토큰을 하나씩 생성하는 방식이기 때문에, 대화가 길어질수록 연산량이 기하급수적으로 늘어난다. 샘 올트먼의 말대로 '고마워' 한 마디도 수천 번의 연산이 이뤄질 수밖에 없는 셈이다. 이러한 연산 과정에서 탄소 발생 논란도 일어난다. GPT-4 등의 대형 모델은 연산을 위해 수천 개의 고성능 GPU가 연결된 대규모 데이터센터를 이용하는데, 토큰 수가 많아질수록 해당 GPU 자원의 점유율과 동작 시간도 함께 증가하고, 필요로 하는 전력량 또한 비례해 늘어난다. 대표적인 AI 모델인 챗GPT를 기준으로 할 때 1토큰은 단순계산 기준 입출력 난이도에 따라 최소 0.000001㎾h(1μWh)에서 최대 0.000005㎾h (5μWh)를 소모한다. 이는 전구를 약 0.4초에서 2초 가량 켤 수 있는 수준이다. 즉, '사과'는 9W 전구를 0.4초, '사랑해'는 4초 가량 켤 수 있게 된다. 챗GPT를 다양한 고난이도 연산에 사용하는 이용자들(개발자 등)의 평균 이용량인 1일 1만~2만 토큰은 0.01~0.1 ㎾h로, 9W 전구를 약 1시간 6분에서 11시간 6분 켤 수 있는 수준에 달한다. 이는 생수 40병 분량의 물을 1℃ 데우는데 드는 전력량이다. 토큰에 따른 비용이 막대하게 늘어나면서 생성형 AI 모델을 상업적으로 운용하는 기업은 토큰 사용량에 따라 정해진 AI 모델 이용 비용을 줄이기 위해 토크나이저 최적화나 출력 제한 기술도 고도화하는 추세다. IT 업계 관계자는 "최근 AI 기술은 전력 소모량을 줄이고 데이터 입출력을 효율화 하는 데에 중점을 두고 있다"며 "사람들이 AI에도 '고마워' '사랑해' 등 인사를 하는 현상은 무척 흥미롭다"고 말했다.

2025-04-22 15:34:36 김서현 기자
기사사진
직장인 10명 중 8명, 회사에서 챗GPT 쓴다

직무 상관 없이 직장인 10명 중 7명은 거의 매일 챗GPT를 사용하는 것으로 나타났다. 잡플래닛 운영사 브레인커머스가 직장인 762명을 대상으로 실시한 '챗GPT 활용 경험' 조사 결과를 22일 발표했다. 현재 재직 중인 회사에서 챗GPT 사용이 가능한지를 묻는 질문에는 93.7%가 "업무에 사용해도 된다"라고 응답했다. 이 중 82.7%는 챗GPT를 눈치 보지 않고 자연스럽게 사용하는 반면, 17.3%는 여전히 눈치를 보며 활용하고 있다고 답했다. 챗GPT의 주요 활용 공간은 '회사'였다. 전체 응답자의 78.9%가 일상보다 회사에서 챗GPT를 더 자주 사용한다고 답했으며, 일상에서 더 많이 쓴다고 답한 비율은 21.1%에 그쳤다. 회사 내 활용 방식으로는 ▲글 작성이나 요약본 생성(40.1%)이 가장 많았고, 이어 ▲아이디어 기획 및 정보 탐색(28.4%) ▲코드 생성 등 기술적 작업(24.8%) ▲생소한 툴 사용법 확인(4.7%) 등의 순으로 나타났다 AI를 적극 활용하는 동료에 대한 인식도 긍정적인 분위기다. 응답자의 91.1%는 "AI를 잘 활용하는 것도 업무 능력의 일부"라고 답했으며, 이는 AI 도구를 효율적으로 다루는 것이 실질적인 직무 역량으로 인정받고 있음을 시사한다. AI로 인해 자신의 직업이 위협받고 있다고 느끼는지에 대한 질문에는 57.6%가 "위협을 느끼지 않는다"라고 답했다.

2025-04-22 13:20:02 김서현 기자
기사사진
SKT 유심 정보 유출 정황…“이중 인증·금융 해킹 우려”

SK텔레콤이 자사 고객의 유심(USIM) 관련 일부 정보가 악성코드에 의해 유출된 정황을 포착해 정부에 즉각 사고를 접수하고 사후처리를 진행하고 있다, 보안업계 관계자들은 이번 유심 해킹으로 인해 만일 정보 유출이 일어나면 막대한 피해가 예상된다며 우려하고 있다. 22일 SK텔레콤에 따르면 지난 19일 오후 11시경 내부 감사를 통해 악성코드로 인한 고객 유심 정보 유출 정황을 인지했다. 즉시 악성코드를 삭제하고 해킹이 의심되는 장비를 격리 조치했다. 이어 4월 20일 오후 4시 46분 한국인터넷진흥원(KISA)에 침해사고 사실을 신고했고, 22일 오전 10시에는 개인정보보호위원회에도 관련 사실을 통보하고 조사에 협조하고 있다. 과학기술정보통신부와 KISA는 SK텔레콤으로부터 사고 접수 후 즉시 대응에 착수했다. 과기정통부는 21일 오후 2시 10분 SK텔레콤에 자료 보존 및 제출을 요구하고, KISA 전문가들을 같은 날 밤 8시부터 현장에 파견해 기술지원을 진행 중이다. 과기정통부는 침해 사고의 중대성을 고려해 정보보호네트워크정책관을 단장으로 하는 비상대책반을 구성했으며, 필요시 민관합동조사단도 꾸려 심층 원인 분석 및 재발 방지 대책을 마련할 계획이다. 현재까지 유출 정보의 정확한 범위, 항목, 피해 규모는 조사 중이며, 외부에 악용된 사례는 아직 확인되지 않았다. 보안업계에서는 이번 사고로 유심(USIM) 관련 정보가 유출됐을 경우, 피해는 단순한 개인정보 노출을 넘어 통신 인증과 금융 보안 전반에 심각한 영향을 미칠 수 있다며 우려하고 있다. 유심은 단말기의 전화번호뿐만 아니라 가입자 식별 번호(IMSI), 유심 일련번호(ICCID) 등 통신망에서 사용자의 신원을 식별하는 핵심 데이터를 저장하고 있다. 이 때문에 정보가 외부로 유출될 경우, 불법 유심 복제나 도용이 이뤄질 수 있으며, 피해자는 자신도 모르는 사이에 통신망에 접속된 다른 단말기로부터 개인정보를 탈취당하거나, 본인 인증을 우회당하는 등 2차 피해에 노출될 수 있다. 특히 휴대폰 번호를 기반으로 한 이중 인증(2FA) 시스템이 널리 사용되는 국내 환경에서, 유심 정보 유출은 금융 계좌 해킹이나 소셜미디어 계정 탈취, 온라인 쇼핑몰 부정 접속 등으로 이어질 가능성이 높다. 이 외에도, 피싱 문자나 스미싱을 통한 사회공학적 공격, 불법 개통 및 소액결제 사기, 명의 도용 등도 발생할 수 있다는 지적이다. 해킹 피해를 입은 장비는 ▲유심 인증 및 가입자 정보를 관리하는 HLR(Home Location Register) 또는 HSS(Home Subscriber Server), ▲고객관계관리(CRM) 등 가입자 정보가 통합 저장된 시스템, ▲접속 인증을 담당하는 AAA 서버, ▲운영자용 내부 PC나 파일서버 등 외부 접근이 가능하거나 관리자가 자주 사용하는 터미널일 가능성이 높다. 보안업계 관계자는 "이번 사고가 단순한 단말기 해킹이 아닌 내부 인프라 감염으로 인한 정보 유출 정황이라는 점에서, 사고 장비가 고객 데이터베이스에 직접 접근하거나, 인증 절차에 관여한 핵심 시스템일 수 있다"고 설명했다. SK텔레콤은 ▲전체 시스템 전수 조사 ▲불법 유심 기기 변경 및 비정상 인증 시도 차단 강화 ▲피해 의심 징후 발생 시 즉시 이용 정지 및 고객 안내 조치 등의 예방책을 시행 중이다. 과기정통부는 사고 조사 과정에서 드러난 SK텔레콤의 기술적·관리적 보안 취약점에 대해 시정명령을 통해 개선을 요구할 예정이라고 밝혔다. 최우혁 과기정통부 정보보호네트워크정책관은 "국민 생활과 밀접한 정보통신 서비스에 대한 정보보호 강화를 위해 주요 기업에 대한 관리·감독을 철저히 하겠다"고 말했다. SK텔레콤 관계자는 "보안 체계를 전면적으로 강화하고 고객 정보 보호에 만전을 기하겠다"며 "이번 사고로 고객 여러분께 심려를 끼쳐드린 점 깊이 사과드린다"고 밝혔다.

2025-04-22 13:11:59 김서현 기자
기사사진
SK텔레콤, 악성코드로 유심 정보 일부 유출 정황…“KISA·개보위 신고 완료”

SK텔레콤이 유심 관련 고객 정보 일부가 악성코드로 인해 유출된 정황을 포착하고, 당국에 관련 사실을 신고했다고 22일 밝혔다. SK텔레콤에 따르면 지난 19일 오후 11시경, 악성코드로 인한 고객 유심 관련 정보 유출 정황이 내부 감사를 통해 발견됐다. SK텔레콤은 해당 사실을 확인한 즉시 악성코드를 삭제하고 해킹이 의심되는 장비를 즉각 격리 조치했다. 그 후 20일 한국인터넷진흥원(KISA)에 침해사고 사실을 신고했으며, 22일 오전 10시에는 개인정보보호위원회에도 관련 사실을 신고하고 조사에 협조 중이다. 현재 정확한 유출 경위와 규모, 유출된 정보 항목 등은 파악 중에 있으며, 아직까지 해당 정보가 외부에 실제로 악용된 사례는 확인되지 않았다. SK텔레콤은 고객 피해 예방을 위해 ▲전체 시스템 전수조사 ▲불법 유심 기기 변경 및 비정상 인증 시도 차단 강화 ▲피해 의심 징후 발견 시 즉시 이용 정지 및 안내 조치 등 대응책을 시행 중이다. 또한 고객 불안을 줄이기 위해 홈페이지 및 T월드 앱을 통해 무료 '유심보호 서비스'를 제공하고 있다. 해당 서비스 가입은 홈페이지에서 가능하다. SK텔레콤 관계자는 "보안 체계를 전면적으로 강화하고 고객 정보 보호에 최선을 다하겠다"며 "이번 사고로 고객 여러분께 심려를 끼쳐드린 점 깊이 사과드린다"고 전했다. /김서현기자 seoh@metroseoul.co.kr

2025-04-22 09:50:16 김서현 기자
기사사진
'누가 AI에 백인남성을 심었나' … IT 업계 편향성 해결 노력 총력

지브리풍 이미지 생성으로 화제를 모은 챗GPT 등 생성형 AI는 성별이나 인종 정보를 명시하지 않아도 대부분 '백인 남성'을 주인공으로 설정한다. 이는 반복 실험에서도 동일한 결과를 보인다. AI 모델들이 훈련 데이터에 내재된 사회적 편견을 학습해 성별, 인종, 나이 등에 따른 차별을 재생산하는 구조 때문이다. 21일 <메트로경제> 취재 결과 AI 모델의 차별, 혐오표현, 편향성 등이 여전히 문제시 되는 가운데 이를 해결하기 위한 다양한 방책이 쏟아지고 있다. AI 모델의 편향성은 훈련 데이터에 내재된 사회적 편견을 그대로 학습해 성별, 인종, 나이 등에 따른 차별을 학습, 재생산하는 현상을 뜻한다. 데이터의 불균형과 알고리즘 설계자의 무의식적 편향이 주요 원인으로 꼽힌다. AI 모델의 편향성은 생성형 AI 대중화 이전부터 문제로 지적돼 왔다. 중국 난징항공우주대 천지성 연구원은 AI 채용 시스템이 효율성을 높이면서도 비백인 남성에 불리한 차별적 결과를 낳았다고 밝혔다. 그는 "AI의 편향은 데이터셋과 알고리즘 설계자의 편견에서 비롯되며, 기존 사회적 불평등을 강화할 수 있다"고 경고했다. 헬스케어 분야에서도 단일 인종·성별 중심의 학습은 특정 집단에 대한 과잉 해석 등 왜곡을 유발할 수 있다는 우려가 제기된다. 편향으로 인한 각종 문제는 사회적 불평등을 심화시키고, AI 모델이 생성하는 결과물의 품질에도 영향을 미친다. 이에 따라 AI 모델을 개발하는 기업들은 적극적으로 편향을 해결하기 위해 노력하고 있다. 카카오는 지난해 10월 AI 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고 관리하는 리스크 관리 체계인 '카카오 AI 세이프티 이니셔티브(Kakao AI Safety Initiative(카카오ASI)'를 구축했다. 카카오 ASI는 ▲Kakao AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다. 카카오 관계자는 "카카오 ASI는 지난해 5월 개최된 'AI 서울 서밋(AI Seoul Summit)'에서 선언한 '서울 AI 기업 서약'을 위한 실천에 해당한다"며 "AI 윤리와 안전을 위해 다양한 선제적 노력을 이어갈 예정"이라고 설명했다. 네이버 또한 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계를 갖고 있다. 네이버의 AI 모델 하이퍼클로바X는 레드팀 테스트, 전문 데이터 확보, 강화학습 알고리즘 개선 등을 통해 생성 정보의 정확성, 편향성, 안전성 등을 개선하고 있다. 또한 타 문화권과의 협업을 통해 특정 문화의 특징과 사회적 맥락을 학습하는 데도 주력하고 있다. 정부 또한 AI 모델의 편향성을 개선하기 위한 노력을 이어가고 있다. 한국지능정보사회진흥원(NIA)와 한국정보통신기술협회(TTA)는 대규모 언어모델(LLM) 학습용 데이터 내 '유해 표현 검출 인공지능 모델 및 유해 표현 학습용 데이터'를 공개하기도 했다. 공개된 인공지능 모델은 주어진 말뭉치 데이터 내에서 유해 표현을 검출하고 다양한 유해 표현 카테고리로 분류하는 기능을 수행할 수 있다. 과학기술정보통신부의 초거대 AI 확산 생태계 조성 사업의 일환으로, LLM 데이터의 품질 검증 과정에서 '유해성'을 측정하기 위해 개발됐다. 자체 성능 검증 결과, 해당 모델은 80~90% 수준의 높은 정확도를 기록하며 유해 표현 검출의 실효성을 입증했다. 학습용 데이터는 ▲유해 표현 검출용 데이터 20만 건 ▲유해 표현 카테고리 구분용 데이터 21만 건으로 구성돼 있다. 황종성 NIA 원장은 "인공지능 기술의 발전은 기술적 진보뿐만 아니라 사회적 책임을 담보할 수 있는 윤리적 고려가 반드시 병행돼야 한다"며 "이는 지속 가능한 인공지능 생태계 조성을 위한 핵심 요소"라고 강조했다.

2025-04-21 15:07:59 김서현 기자
기사사진
인포빕 "카카오 메시지량 전년 대비 56% 증가"

커뮤니케이션 플랫폼 기업 인포빕이 전 세계 5300억 건 이상의 고객 상호작용 데이터를 분석한 결과, AI 기반 메시징 기술이 기업-소비자 간 소통 방식에 결정적 변화를 이끌고 있는 것으로 나타났다. 21일 인포빕이 발간한 '2025 메시징 트렌드 보고서'에 따르면 AI 챗봇과 자동화 도입이 금융·보험 업계를 중심으로 확산 중이다. 고객 응대의 개인화, 실시간 지원, 사기 방지 등에서 실제 활용이 빠르게 진행되고 있다. 특히 소비자들이 메신저 앱으로 직접 결제하거나 AI 챗봇으로 실시간 상담을 받는 사례가 증가하면서, 메시징 앱이 '서비스형 대화창구'로 진화하고 있다는 평가다. 국내 시장에서는 모바일 메시징 사용량이 전년 대비 125% 증가한 가운데, 왓츠앱 사용량은 무려 647% 폭증하며 가장 빠른 성장세를 보였다. 다만 여전히 카카오톡이 B2C 커뮤니케이션의 핵심 채널로 카카오톡 메시지 사용량의 87%가 국내 브랜드와 소비자 간 상호작용에서 발생, 국내 사용량도 56% 증가했다. 글로벌 차원에서는 카카오톡 사용량이 전년 대비 65% 늘었고, 일부 싱가포르 기업들도 카카오톡을 활용하는 사례가 확인됐다. 또한, 아시아·태평양(APAC) 소비자들은 현지 문화에 기반한 메시징 채널 선호가 뚜렷한 것으로 조사됐다. 베트남에선 잘로(Zalo)가 대화형 메시징의 63%, 태국·대만·싱가포르에선 라인(LINE)이 전체의 98%를 차지하며 주도권을 잡고 있다. 인포빕 성경식 한국지사장은 "AI 및 RCS 기반의 고도화된 메시징 기술이 국내외 기업의 실시간 고객 소통 역량을 혁신적으로 끌어올릴 것"이라며, "메시징은 단순 커뮤니케이션 채널을 넘어 브랜드와 고객 간의 가장 중요한 연결고리로 자리 잡았다"고 밝혔다. /김서현기자 seoh@metroseoul.co.kr

2025-04-21 11:04:31 김서현 기자
기사사진
“지도 내놔” 다시 고개 든 구글… 韓 안보논리 재부상

구글이 다시 한 번 한국 정부에 고정밀 지도 데이터의 국외 반출을 요구하면서, 안보·형평성 문제를 둘러싼 논란이 커지고 있다. 구글은 지난 18일 국토교통부 산하 국토지리정보원에 1:5000 축척의 고정밀 한국 지도 데이터 반출을 요구했다. 앞서 미국 무역대표부(USTR)는 지도 반출에 대한 정부의 반출 거부를 두고 "디지털 무역 장벽"이라고 주장하기도 했다. 정부는 우리나라가 세계 유일 분단국가로서 안보 등의 이유를 들어 계속 해외 반출을 거부하고 있다. 20일 <메트로경제> 취재에 따르면 오는 7~8월 중 국토교통부 국토지리정보원이 지도 국외 반출 협의체 회의를 통해 최종 결정을 내릴 것으로 알려졌다. 구글이 요구하는 1:5000 축적 지도는 50m 거리를 1㎝로 줄여 골목길 모습까지 식별할 수 있는 지도다. 구글은 현재 한국에 대해 1:2만5000 축적 지도를 사용 중이다. 이번 요구는 구글의 세 번째 지도 반출 시도다. 구글 맵을 한국에 론칭하기 전해인 2007년 국가정보원에 1:5000 축적 지도데이터 국외 반출을 요구했으나 거절당했고, 2016년 재차 요구했다. 2016년에는 게임 앱 '포켓몬 고' 출시를 위해서라고 주장했으며 정부는 일부 지역을 흐릿하게 하는 블러(Blur)처리를 조건으로 지도 반출을 허용했다. 문제는 구글이 요구하는 1:5000 축적 지도의 활용 방향과 형평성의 문제다. 구글 측에서 든 주장은 지도 앱 서비스 정교화지만, 일반적인 지도 앱 서비스는 1:2만5000 축척을 사용한다. 1:5000 축척 지도는 B2B 환경에서 인프라 구축, 토목공사 등에 활용되는 수준의 데이터로, 일반 소비자 대상 지도 서비스에 활용하기에는 과하다는 지적이 나온다. 같은 빅테크 기업들인 애플과 마이크로소프트(MS)의 네비게이션 및 지도 서비스도 1:2만5000 축척을 사용 중이다. 구글의 설명이 서비스 목적에 부합하지 않는 만큼, 국가 안보와 관련된 의심이 제기되고 있다. 구글이 팔레스타인, 아프가니스탄 등 미국과 전쟁 중인 국가에 대해 특별히 구글 맵 표시를 번복하는 등의 여러 정황은 구글과 미국의 관계에 대한 의혹을 키울 수밖에 없다. 여기에 더해 구글의 요구에 응할 경우 이후 닥칠 형평성 문제도 크다. 구글의 요구를 들어준다면, 다른 빅테크 기업과 중국의 바이두 등 유력 기업들의 요구 또한 들어주지 않을 수 없게 된다. 더불어, 지도 앱이 정교해질 때 따라오는 부수적인 서비스들이 국내 기업을 위협할 수도 있다. 이미 구글은 법인세 회피 의혹을 받으며 국내 기업과의 세제 형평성에서 큰 우위를 점유하고 있다. 지난해 네이버는 3902억원의 법인세를 납부했으나 구글은 2023년 155억 원을 납부하는 데 그쳤다. 올해도 비슷할 전망이다. 이는 구글이 앱마켓 수수료, 유튜브 광고 수익, 유튜브 프리미엄 멤버십 요금 등 주요 수입원을 한국 법인인 구글코리아 매출이 아닌 싱가포르 법인의 매출로 계산하기 때문이다. 대신 한국에서 영업하는 구글코리아는 단순히 구글 서비스의 대행만을 하는 기업으로 돼 있다. IT 관계자는 "국내 기업에 대한 역차별이라는 말이 나오는 이유가 다른 데 있지 않다"며 "우리 기업에 대한 유리한 정황을 마련해달라는 게 아니라, 글로벌 기업들도 같은 환경에서 경쟁하게 해달라는 게 우리의 요구"라고 말했다. /김서현기자 seoh@metroseoul.co.kr

2025-04-20 15:39:01 김서현 기자
AI 모델, 믿어야 할까?…신뢰하는 MZ vs 의심하는 중장년, 'AI 리터러시'

인공지능(AI) 모델이 빠르게 대중화되면서, 이를 둘러싼 '신뢰의 격차'가 새로운 갈등 요소로 떠오르고 있다. 챗GPT 등 생성형 AI의 답변을 전적으로 신뢰하는 집단과, 할루시네이션(Hallucination·AI 환각현상) 등의 이유로 AI를 경계하는 집단 간의 인식 차이가 뚜렷해지고 있기 때문이다. 20일 <메트로경제> 취재에 따르면, 최근 AI를 둘러싼 사회적 신뢰 논쟁이 거세지고 있다. 특히 AI 활용에 익숙한 젊은 층과, 이를 경계하는 장년층 사이의 'AI 리터러시' 차이가 직장, 일상 등 다양한 영역에서 갈등으로 표출되고 있다. AI 모델의 신뢰성 문제는 이미 오래전부터 지적돼 왔다. 대표적인 사례가 바로 '할루시네이션'이다. 이는 AI가 잘못된 정보를 사실처럼 생성하는 현상으로, ▲학습 데이터의 부족 ▲데이터 편향 ▲모델의 잘못된 전제 ▲문맥 오해 등이 주요 원인으로 꼽힌다. AI 모델은 기본적으로 '모든 질문에 답하려는' 구조를 갖고 있어, 학습 범위를 벗어난 질문에도 확률적으로 그럴듯한 답변을 만들어낸다. 하지만 이 과정에서 오답이 자주 발생하면서, AI에 대한 맹신에 우려를 제기하는 목소리도 커지고 있다. 직장인 김나영(38) 씨는 "회사 동료 중 한 명이 챗GPT 전도사처럼 굴고 있다"며 "이제는 점심 메뉴뿐만 아니라 사업 타당성 검토까지 챗GPT에 맡기자고 한다. 게다가 부하 직원에게도 챗GPT 활용을 강요하는 바람에 스트레스가 크다"고 토로했다. 반면 장준재(61) 씨는 "요즘 친구들 중에도 AI를 공부하거나 도입하려는 사람이 많다"며 "나 역시 대세를 따라야겠다는 생각이 들어 챗GPT를 조금씩 익히고 있다"고 말했다. 그러나 장 씨는 "정작 회사 차원에서는 구체적인 활용 가이드도, 교육도 없어 막막한 상황"이라고 덧붙였다. 세대 간 인식 차이는 각종 통계에서도 드러난다. 미국 갤럽과 월튼 패밀리재단의 설문조사에 따르면, 20대 응답자의 30%가 "AI 정보를 자주 신뢰한다"고 답한 반면, 50~60대의 비율은 12%에 그쳤다. 연령대가 높을수록 AI를 신뢰하는 비율이 눈에 띄게 낮은 것이다. 국내 연구도 유사한 결과를 보인다. 한국법제연구원의 보고서에 따르면, 20대는 AI 기술에 대해 가장 높은 친숙도를 보였지만, AI 기술에 대한 '불안감'은 2.87점(5점 만점)으로 낮은 편이었다. 반면 40~50대의 우려 수준은 평균 4.12점으로 훨씬 높아, 기술 친숙도와 신뢰감 사이의 간극이 뚜렷했다. 한 IT 업계 관계자는 "AI 활용은 이제 거스를 수 없는 흐름"이라며 "그러나 기술에 대한 과신이나 막연한 불신 모두 문제다. 사용자의 리터러시 수준을 높이기 위한 체계적 교육이 시급하다"고 말했다. /김서현기자 seoh@metroseoul.co.kr

2025-04-20 14:54:00 김서현 기자