본문 바로가기
Google 소식

Google I/O 2025 Project Astra + 검색 AI 모드 총정리

by Padawan Joy 2025. 6. 15.

Google I/O 2025에서 공개된 Project Astra의 Gemini Live 진화와 Google 검색의 혁신적인 AI 모드를 완벽 분석합니다. 범용 AI 어시스턴트의 실현과 Deep Research 기능까지, 검색의 미래를 바꿀 모든 기술을 실무 관점에서 해부합니다.

Project Astra에서 Gemini Live로: 범용 AI 어시스턴트의 실현

Project Astra는 세상을 이해하는 범용 AI 어시스턴트의 미래를 탐구하는 초기 연구 프로젝트에서 시작되었습니다. Google I/O 2025에서 이 프로젝트의 카메라 및 화면 공유 기능이 Gemini Live에 적용되어 사용자가 눈에 보이는 것에 관해 자연스럽게 소통할 수 있게 되었습니다.

 

Gemini Live는 단순한 음성 어시스턴트를 넘어 conversational AI optimization 분야에서 새로운 표준을 제시합니다. 취업 면접 연습, 마라톤 훈련, 일상적인 문제 해결 등 다양한 활용 사례를 통해 개인화되고 능동적이며 강력한 범용 AI 어시스턴트로 발전하고 있습니다.

 

Gemini Live 소개

혁신적인 멀티모달 기능과 실시간 상호작용

Gemini Live의 가장 혁신적인 특징은 동영상 이해, 화면 공유, 메모리 기능이 통합되어 더욱 자연스러운 대화와 주변 상황 이해를 가능하게 한다는 점입니다. 오늘부터 Android와 iOS에서 누구나 사용할 수 있으며, enterprise AI assistant deployment 분야에서 새로운 가능성을 열어줍니다.

자전거 수리 상황을 예시로 한 시연에서는 사용자가 말하는 대로 온라인 설명서를 찾고, YouTube 동영상을 검색하며, 이메일에서 필요한 정보를 찾아주고, 심지어 자전거 가게에 전화하여 재고를 확인하는 등 일상적인 작업을 완벽하게 처리하는 모습을 보여주었습니다.

  • 실시간 화면 분석 및 상황 맥락 이해
  • 음성, 텍스트, 이미지를 통합한 멀티모달 상호작용
  • 개인 데이터와 웹 정보의 지능적 연계
  • 복잡한 다단계 작업의 자동화 처리

Gemini Live 기능 체험해보기

Google 검색의 AI 모드: 검색의 완전한 재정의

AI 개요에서 AI 모드로의 진화

Google 검색은 Gemini 모델의 도입으로 더욱 지능적이고 실제적이며 개인화된 경험으로 발전했습니다. 작년 I/O에서 처음 선보인 AI 개요는 현재 매달 15억 명 이상이 전 세계 200개국 이상에서 사용하고 있으며, 지난 10년간 검색 분야에서 가장 성공적인 출시 중 하나로 평가받고 있습니다.

 

AI 모드는 기존 검색을 완전히 새롭게 재구성한 것으로, 더욱 발전된 추론 능력을 갖췄습니다. 사용자들은 AI 모드에서 기존 검색보다 2~3배 더 길고 복잡한 질문을 할 수 있으며, 후속 질문을 통해 더 깊이 파고들 수 있습니다.

쿼리 팬아웃 기법과 Deep Research

AI 모드의 핵심 기술인 쿼리 팬아웃 기법(Query Fanout Technique)은 고급 추론이 필요한 질문을 여러 하위 주제로 나누고 수많은 쿼리를 동시에 자동으로 생성합니다. 웹을 전반적으로 검색하고 Google의 실시간 데이터 세트(지식 그래프, 쇼핑 그래프, 지도 커뮤니티 등)를 활용하여 comprehensive search optimization을 실현합니다.

 

Deep Research 기능은 사용자를 대신해 수십, 수백 개의 검색을 수행하고 이질적인 정보를 추론하여 전문가 수준의 완벽한 보고서를 단 몇 분 만에 생성합니다. 이는 research automation consulting 분야에서 혁신적인 도구로 활용될 것으로 예상됩니다.

  1. 복잡한 분석 및 시각화 기능 (올여름 도입 예정)
  2. 스포츠 및 금융 데이터의 표/그래프 시각화
  3. Mariner 프로젝트 기반 에이전트형 기능
  4. 이벤트 티켓, 식당 예약, 지역 서비스 예약 자동화

Google 검색 AI 모드

Project Mariner: 웹 상호작용 에이전트의 혁신

컴퓨터 사용 기능과 멀티태스킹

Project Mariner는 웹과 상호작용하여 작업을 처리하는 에이전트 연구 프로토타입입니다. 사용자의 제어를 기반으로 대신 일을 처리하며, 컴퓨터 사용 기능(브라우저 및 소프트웨어 상호작용)이 주요 기능입니다.

 

멀티태스킹 기능이 도입되어 최대 10개 작업을 동시에 관리할 수 있으며, 사용자가 작업을 한 번 시연하면 학습하여 유사 작업을 처리하는 '학습 및 반복' 기능도 갖췄습니다. 이는 web automation optimization 분야에서 완전히 새로운 패러다임을 제시합니다.

  • Gemini API를 통한 개발자 접근 (올여름 확대 예정)
  • 오스틴 룸메이트 집 찾기 시나리오 완벽 처리
  • Zillow 등 부동산 사이트에서 조건별 매물 검색
  • 방문 일정 예약까지 완전 자동화

Gemini API 컴퓨터 사용 기능 문서 보기

에이전트 모드의 실무 활용

Gemini 앱의 에이전트 모드 실험 버전이 곧 구독자를 대상으로 출시됩니다. 이 기능은 복잡한 온라인 작업을 사용자 대신 처리하여 시간과 노력을 크게 절약할 수 있게 해줍니다.

 

오스틴에서 룸메이트와 함께 살 집을 찾는 시나리오에서 보여준 것처럼, 조건에 맞는 매물을 찾고 방문 일정을 예약하는 과정을 완전히 자동화할 수 있습니다. 이는 intelligent task automation 분야에서 새로운 표준을 제시할 것으로 기대됩니다.

Search Live와 개인화된 AI 경험

멀티모달 Search Live 기능

Astra 프로젝트의 Live 기능이 AI 모드에 도입되어 사용자가 카메라를 통해 보고 있는 것을 Google 검색이 이해하고 실시간으로 유용한 정보를 제공합니다. DIY, 학교 과제, 새로운 기술 학습 등에 활용될 수 있어 visual search optimization 분야에서 혁신을 이끌고 있습니다.

Google 렌즈의 시각적 검색 성장을 촉진하며, 올해 이미 1,000억 건이 넘는 시각적 검색이 이루어졌습니다. 이는 전년 대비 놀라운 성장률을 보여주며, 시각적 정보 처리의 중요성을 입증합니다.

개인화된 AI와 맥락 이해

사용자의 동의하에 Gemini 모델이 Google 앱 전반의 관련 맥락을 활용하여 개인화된 경험을 제공하는 Personal Context 기능이 도입됩니다. Gmail 스마트 답장 기능의 예시로, 친구의 로드 트립 질문에 Drive 메모, 지난 이메일 예약 정보, Docs 여행 일정, 사용자의 말투와 자주 쓰는 단어를 바탕으로 맞춤형 답변을 자동으로 생성합니다.

  • 올여름 Gmail에서 구독자 대상 제공 시작
  • 검색, Docs, Gemini 앱에도 확대 적용
  • 이전 검색 기록 기반 개인화된 제안
  • 항공편 예약, 갤러리 뉴스레터 등 연계 정보 활용

시각적 검색과 실시간 정보 제공이 결합된 Search Live의 혁신적 기능

쇼핑과 가상 체험의 혁신

AI 기반 쇼핑 경험의 진화

AI 모드는 웹 정보, Google의 실시간 데이터, Google 이미지, 쇼핑 그래프(500억 개 이상 제품 정보)를 결합하여 쇼핑에 새로운 차원의 지능형 기능을 제공합니다. 시각적 아이디어를 제공하고, 사용자의 필요에 맞춰 제품을 추천하며, 고려사항을 제안하는 intelligent shopping optimization 서비스가 구현되었습니다.

 

가상 시착(Virtual Try-on) 기능은 사용자가 옷을 가상으로 입어보고 어떤 느낌일지 확인할 수 있는 혁신적인 기능입니다. 고급 3D 형태 인식 기술과 패션 특화 이미지 생성 모델을 사용하여 다양한 체형의 사람들에게 옷이 어떻게 보일지 시각화합니다.

  • Search Labs에서 오늘부터 체험 가능
  • 가격 추적 및 자동 알림 기능
  • 결제 에이전트를 통한 자동 구매 처리
  • 개인화된 스타일링 추천 시스템

Google Search Labs 가상 시착 체험하기

음성 기술과 실시간 상호작용

혁신적인 TTS와 Live API

Google I/O 2025에서 공개된 텍스트 음성 변환(TTS) 기술은 최초로 두 명의 화자를 지원하고 네이티브 오디오 출력을 기반으로 모델이 더욱 표현력 있게 대화할 수 있습니다. 24개 이상의 언어를 지원하며 언어 간 전환도 자연스럽게 처리합니다.

 

Live API는 2.5 Flash 프리뷰 버전으로 네이티브 오디오 대화가 출시되어, 발화자와 주변 사람의 음성을 구분하여 언제 응답할지 판단이 가능합니다. 이는 conversational AI development 분야에서 새로운 표준을 제시하며, 오늘부터 Gemini API에서 사용 가능합니다.

  1. 자연스러운 대화 흐름과 감정 표현
  2. 실시간 언어 전환 및 번역
  3. 주변 환경 소음 필터링
  4. 개발자 친화적 API 구조

다음 글 미리보기: Android XR과 생성형 미디어

다음 글에서는 삼성과 협력하여 개발한 Android XR 플랫폼과 Project Starline에서 발전한 Google Beam, 그리고 Veo와 Flow를 활용한 생성형 미디어의 혁신까지 심도 있게 다룰 예정입니다. Gemini 시대의 새로운 폼 팩터와 창의성의 경계를 확장하는 기술들을 확인해보세요.

 

Google I/O 2025 AI 업데이트 전체 보기

 

Project Astra에서 Gemini Live로의 진화와 Google 검색의 AI 모드는 단순한 기능 개선을 넘어 우리가 정보를 찾고 활용하는 방식을 근본적으로 바꾸고 있습니다. 범용 AI 어시스턴트의 실현과 검색의 완전한 재정의가 만들어낼 무한한 가능성을 지금부터 경험해보세요.