생성형 AI 추론 특화 모델 ‘제미나이 2.5 플래시’
전력 효율·연산 성능 대폭 개선한 7세대 TPU ‘아이언우드’ 연말 출시
삼성·카카오·LG와의 협업 통해 AI·클라우드 생태계 확장 본격화
구글이 인공지능(AI) 추론 성능과 연산 효율을 극대화한 신규 AI 모델과 클라우드 인프라, 고성능 AI 반도체를 대거 공개하며 생성형 AI 시장 경쟁력 강화에 나섰다.
구글은 9일(현지시간) 미국 라스베이거스 만달레이베이 컨벤션센터에서 개최한 '구글 클라우드 넥스트 2025(Google Cloud Next '25)' 행사에서 보급형 AI 모델 '제미나이 2.5 플래시(Gemini 2.5 Flash)'와 AI 추론 전용 7세대 텐서처리장치(TPU) '아이언우드(Ironwood)'를 공개했다.
'제미나이 2.5 플래시'는 지난달 출시된 제미나이 2.5 프로(Pro)에 이어 선보인 경량화 모델로, 응답 지연을 줄이고 연산 비용을 절감했다. 명령어(Prompt) 복잡도에 따라 자동으로 추론 수준을 조절하며, 간단한 질문에는 빠르고 저렴한 응답을 제공하고 복잡한 요청에는 정밀한 응답을 우선 처리한다.
현재 제미나이 2.5 플래시는 AI 개발자 및 연구자를 위한 플랫폼 '버텍스 AI'와 제미나이 애플리케이션에서 미리보기 버전을 사용할 수 있다.
순다르 피차이 구글 CEO는 "제미나이 2.5 플래시는 예산과 성능의 균형을 맞추는 데 최적화된 모델로, 추론의 정밀도를 사용자가 직접 제어할 수 있다"고 설명했다.
토마스 쿠리안 구글 클라우드 CEO는 "제미나이 2.5 플래시를 자사의 AI 하이퍼컴퓨터 환경에서 구동하면 GPT-4o 대비 2배, 딥시크의 R1 대비 5배 이상의 비용 효율을 보일 것"이라며 경쟁 우위를 강조했다. 해당 모델은 현재 '버텍스 AI(Vertex AI)'와 제미나이 앱에서 미리보기 형태로 제공된다.
구글은 또, 생성형 AI 수요 증가에 대응하기 위한 전용 인프라로 추론에 특화된 7세대 TPU '아이언우드'도 함께 공개했다. 아이언우드는 포드(Pod)당 9000개 이상의 칩을 탑재해 총 42.5 엑사플롭스(EFlops, 100경)의 연산 능력을 제공하며, 이전 세대인 트릴리움 대비 전력 효율이 2배, 연산 성능은 최대 10배 이상 향상됐다. 또한 고대역폭 메모리(HBM) 용량도 직전 TPU 트릴리움 대비 6배 증설돼 데이터 처리 효율을 크게 개선했다.
구글은 이날 행사에서 국내 기업들과의 협업 사례도 다수 공개했다. 삼성전자는 상반기 출시 예정인 홈 AI 로봇 '볼리'에 구글의 제미나이 모델을 탑재해 고도화된 실시간 반응 기능을 구현할 예정이며, 자체 언어 모델과 결합해 사용자 맞춤형 AI 인터랙션을 강화할 계획이다.
LG AI연구원은 구글 클라우드의 AI 하이퍼컴퓨터 인프라를 기반으로 자사의 초거대언어모델(LLM) '엑사원(EXAONE)' 고도화 사례를 소개했고, 카카오는 TPU와 GPU 환경에서 머신러닝 성능을 최적화해 대규모 차세대 모델을 구축한 프로젝트를 발표했다.
피차이 CEO는 "구글은 최신 AI 기술을 제품과 플랫폼에 전방위적으로 적용해 나갈 것"이라며 "AI 하이퍼컴퓨터를 포함한 클라우드 네트워크와 파트너십으로 전 세계 기업의 혁신을 지원하겠다"고 말했다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성