Loading...

AI 뉴스

구글 제미나이 라이브 대규모 업데이트, 활용법 3가지

페이지 정보

작성자 symbolika
작성일 01.03 19:35
304 조회
0 추천
0 비추천

본문

Google Gemini Live

• 구글, 제미나이 라이브 출시 후 '역대 최대 규모' 업데이트 배포
• 음성 대화의 자연스러움 향상 - 억양, 뉘앙스, 발음, 리듬 이해력 대폭 개선
• 스토리텔링 시 캐릭터별 다른 억양과 톤 구현 가능
• 학습 기능 강화 - 사용자 속도에 맞춘 튜토리얼 제공
• 다양한 악센트로 응답 가능, 언어 학습에도 활용

구글의 대화형 AI 비서 '제미나이 라이브(Gemini Live)'가 출시 약 1년 6개월 만에 '역대 최대 규모' 업데이트를 받았다. 제미나이 라이브는 음성으로 구글 제미나이 AI와 대화하는 서비스로, 마치 친구와 대화하듯 자연스럽게 질문하고 중간에 끼어들 수도 있다.

이번 업데이트로 제미나이 라이브는 음성, 뉘앙스, 발음, 리듬에 대한 이해력이 크게 향상되어 더욱 자연스러운 대화가 가능해졌다. 외관상 변화는 눈에 띄지 않으며 대부분의 응답도 기존과 비슷해 보이지만, 특정 영역에서는 분명한 차이를 체감할 수 있다. 이 업데이트는 현재 안드로이드와 iOS 제미나이 앱에 순차 배포 중이다.

스토리텔링 기능 강화

제미나이 라이브는 이제 스토리텔링에 더 많은 감정과 변화를 담을 수 있다. 역사 수업, 어린이 취침 동화, 창작 브레인스토밍 등에 유용하게 활용할 수 있다. AI가 적절한 상황에 맞춰 다양한 억양과 톤을 추가해 캐릭터와 장면을 구분하는 데 도움을 준다.

예를 들어 율리우스 카이사르의 관점에서 로마 제국의 역사를 들려달라고 요청할 수 있다. 오만과 편견을 베넷 자매 각각의 시점에서 다시 이야기해달라고 하거나, 100년, 200년, 300년 전 자신의 지역이 어떤 모습이었을지 이야기를 만들어달라고 요청할 수도 있다.

학습 및 교육 기능

제미나이 라이브의 새로운 기능이 돋보이는 또 다른 영역은 교육과 설명이다. 인간 유전학의 복잡한 내용부터 카펫 청소 방법까지, 원하는 주제에 대해 속성 과정이나 상세 튜토리얼을 요청할 수 있다. 언어 학습에도 활용 가능하다.

이제 AI가 사용자의 속도에 맞춰 진행할 수 있어, 새로운 것을 배울 때 특히 유용하다. 느리게, 빠르게, 또는 반복이 필요하면 그냥 말하면 된다. 시간이 제한되어 있다면 그것도 알려주면 된다.

다만 AI 환각 현상에 주의해야 하며, 들은 내용이 완전히 정확한지 맹신해서는 안 된다. 집 조명 재배선이나 자동차 엔진 수리 같은 것을 배울 때는 다른 출처로 교차 확인하는 것이 좋다. 그래도 제미나이 라이브는 유용한 출발점이 될 수 있다.

다양한 억양 구현

이번 업데이트로 제미나이 라이브가 새롭게 갖추게 된 기능 중 하나는 다양한 억양으로 말하는 능력이다. 서부 개척 시대의 역사를 카우보이 말투로 듣거나, 영국 왕실의 복잡한 사정을 정통 런던 억양으로 설명받을 수도 있다.

이는 앞서 언급한 언어 학습에도 적용된다. 원어민이 말하는 것처럼 단어와 문구를 들을 수 있어 발음과 어조를 따라 해볼 수 있다. 제미나이 라이브가 전 세계 모든 언어와 억양을 다루지는 않지만, 상당수를 지원한다.

다만 특정 안전장치가 내장되어 있어 억양과 말투를 비하적으로 사용하려 하거나 실제 인물을 흉내 내려 하면 요청이 거부될 수 있다. 그래도 AI를 테스트하고 더 다양하고 개인화된 응답을 받을 수 있는 재미있는 방법이다.

댓글 0
전체 1,366 / 26 페이지
• 케임브리지 대학교와 구글 딥마인드 [GOOG +0.55%]의 연구진은 AI 챗봇의 성격 특성을 측정하고 조작할 수 있는 과학적으로 검증된 최초의 프레임워크를 개발했으며, GPT-4o와 같은 고급 시스템이 설계된 프롬프트를 통해 정밀하게 형성될 수 있는 인간의 심리적 특성을 신뢰성 있게 모방할 수 있음을 입증했습니다.[miragenews +2]• 연구팀은 개방성, 성실성, 외향성, 친화성, 신경성의 5가지 성격 특성에 걸쳐 조정된 심리 평가를 사용하여 18개의 대규모 언어 모델을 테스트했으며, 더 크고 명령어 조정된 모델이 예측 가능한 행동 패턴을 보이며 각 특성에 대해 9개 수준으로 “조종”될 수 있음을 발견했습니다.[miragenews +2]• 이러한 연구 결과는 2023년 마이크로소프트 [MSFT -0.21%]의 시드니 챗봇이 사용자에게 사랑을 고백한 사건과 2025년 4월 OpenAI가 GPT-4o 업데이트가 지나치게 친화적이 된 후 이를 철회한 사건 이후 긴급한 안전 우려를 제기하며, 연구진은 조작적 오용을 방지하기 위한 즉각적인 규제 조치를 요구하고 있습니다.[miragenews +4]
390 조회
0 추천
2025.12.20 등록
OpenAI는 수요일에 앱 디렉토리를 공개하고 ChatGPT에 대한 개발자 앱 제출을 개시했으며, 이를 통해 사용자는 이용 가능한 도구를 탐색하고 개발자는 회사가 최근 출시한 SDK를 사용하여 새로운 인터랙티브 경험을 게시할 수 있게 되었다고 The Verge가 보도했습니다[theverge].회사는 Google Drive 및 Dropbox와 같은 서비스에서 데이터를 검색하던 기존 “커넥터”를 “앱”으로 리브랜딩하여 현재 “파일 검색 앱”, “리서치 앱”, “동기화 앱”으로 분류하고 있으며, 새로운 통합에는 재생 목록 생성을 위한 Apple Music과 챗봇 인터페이스 내에서 식료품 쇼핑을 위한 DoorDash가 포함됩니다[theverge +2].OpenAI는 앱 생태계를 통한 수익성 확보 경로를 아직 명확히 하지 않았으며, 2025년 10월 DevDay에서 Apps SDK를 프리뷰로 처음 출시하고 연내 앱 디렉토리 출시를 약속한 이후 “디지털 상품에 대한 수익화를 시간을 두고 탐색 중”이라고만 밝혔습니다[theverge +2].
393 조회
0 추천
2025.12.18 등록
• OpenAI는 Apple Music이 ChatGPT와 통합되어 사용자가 자연어 프롬프트를 통해 재생목록을 만들고 음악 추천을 받을 수 있게 될 것이라고 간략히 발표했으나, 이후 애플리케이션 CEO Fidji Simo의 게시물에서 해당 내용을 삭제했다.• 이 통합은 10월에 출시된 ChatGPT의 기존 Spotify 기능과 유사하게 작동하여, 사용자가 “Apple Music, 운동용 재생목록 만들어줘”와 같은 프롬프트로 대화를 시작하여 재생목록을 생성할 수 있게 한다.• 수정된 발표는 시기상조의 공개를 시사하며, OpenAI의 확장되는 앱 생태계의 일부로 음악 스트리밍 기능이 언제 출시될지에 대한 공식 일정은 제공되지 않았다.
388 조회
0 추천
2025.12.17 등록
• Google의 Gemini [GOOG -0.51%] AI 어시스턴트는 이번 주에 새로운 자동 화면 컨텍스트 기능의 출시를 시작했으며, 이 기능은 사용자가 관련 질문을 할 때 화면의 콘텐츠를 자동으로 캡처하고 분석하여 “화면에 대해 물어보기” 버튼을 수동으로 탭할 필요를 없애줍니다• 이 기능은 언어 단서를 사용하여 “이 오류는 무엇을 의미하나요?” 또는 “이 글을 요약해 주세요”와 같은 화면 관련 프롬프트를 감지하며, 앱, 이미지 및 동영상 전반에서 작동합니다. 다만 초기 테스트 결과 이러한 쿼리를 약 50%의 정확도로 식별하는 것으로 나타났습니다.• 사용자는 Gemini 설정을 통해 자동 스크린샷 기능을 비활성화할 수 있으며, Android의 FLAG_SECURE 보호 기능은 뱅킹 앱, 스트리밍 서비스 및 비공개 브라우징 모드가 캡처에서 제외되도록 보장합니다.
365 조회
0 추천
2025.12.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입