AI 뉴스

ChatGPT가 메인 인터페이스에 음성 모드를 통합

페이지 정보

작성자 xtalfi
작성일 2025.11.26 15:53
619 조회
0 추천
0 비추천

본문

ChatGPT-Voice-mode.jpg

OpenAI는 화요일에 ChatGPT에서 별도의 음성 모드가 필요 없어졌다고 발표했으며, 사용자가 이제 지도 및 이미지와 같은 시각적 콘텐츠와 함께 실시간 대화 내용을 볼 수 있는 메인 채팅 인터페이스에 음성 대화를 직접 통합했습니다.​

모바일 및 웹 플랫폼의 모든 사용자에게 배포되는 이번 업데이트는 이전에 음성 상호작용이 애니메이션 파란색 구체가 표시되는 격리된 화면에서 이루어지던 오랜 제한 사항을 해결합니다. 사용자는 응답을 보지 못한 채 듣기만 할 수 있었으며, ChatGPT가 말한 내용을 텍스트로 검토하려면 음성 모드를 종료해야 했습니다.​


원활한 멀티모달 경험

새로운 통합 기능으로 사용자들은 ChatGPT의 텍스트 입력란 옆에 있는 파형 아이콘을 탭하여 음성 대화를 시작할 수 있으며, 말하는 동안 응답이 나타나는 것을 볼 수 있습니다. OpenAI의 시연 영상에 따르면, 시스템은 대화 내용의 텍스트를 표시하는 동시에 관련 시각 자료를 보여줄 수 있습니다. 회사가 공유한 한 예시에서 ChatGPT는 음성 대화 중에 인기 있는 제과점들의 지도와 샌프란시스코 타르틴 베이커리의 페이스트리 사진들을 표시했습니다.​

OpenAI는 X에 올린 공지에서 "대화하고, 답변이 나타나는 것을 보고, 이전 메시지를 검토하며, 이미지나 지도 같은 시각 자료를 실시간으로 볼 수 있습니다"라고 밝혔습니다. 사용자들은 텍스트 입력으로 다시 전환하기 전에 음성 대화를 중지하려면 여전히 "종료"를 탭해야 합니다.​


사용자 선택 보존

통합 음성 모드는 앱 업데이트 시 기본 경험이 되지만, OpenAI는 오디오 전용 경험을 선호하는 사용자를 위해 기존 인터페이스를 보존했습니다. 이전 형식을 원하는 사용자는 설정의 음성 모드에서 "분리 모드"를 활성화할 수 있습니다.​

이 변경 사항은 사용자가 대화 맥락을 잃지 않고 음성과 텍스트 사이를 보다 유동적으로 이동할 수 있도록 하는 멀티모달 AI 상호작용을 향한 OpenAI의 지속적인 노력을 나타냅니다. Google은 음성 대화 중 오버레이로 실시간 비디오의 특정 부분을 강조 표시할 수 있는 Gemini Live를 통해 유사한 영역을 탐구했습니다.

댓글 0
전체 1,366 / 16 페이지
네이버클라우드가 텍스트·이미지·음성을 단일 모델에서 통합 학습하는 국내 첫 네이티브 옴니모달 AI 모델 ‘하이퍼클로바X SEED 8B Omni’와 추론형 모델 ‘32B Think’를 과학기술정보통신부의 독자 AI 프로젝트 첫 성과로 29일 오픈소스 공개했다.32B Think 모델은 올해 수능 문제 풀이에서 국어·수학·영어·한국사 전 과목 1등급을 달성하고 영어·한국사 만점을 기록했으며, 글로벌 AI 평가 벤치마크에서 주요 해외 모델과 유사한 성능을 보였다.네이버클라우드는 기존 인터넷 문서 중심 학습을 넘어 현실 세계 맥락 데이터 확보에 집중하며, 검색·커머스·공공·산업 등 다양한 분야에서 활용 가능한 AI 에이전트를 단계적으로 확장할 계획이다.
363 조회
0 추천
2025.12.29 등록
카카오는 정부 주도 GPU 확보 사업에서 연내 목표치의 4배를 초과하는 255노드(GPU 2040장)를 경기 안산 데이터센터에 조기 구축 완료했다고 29일 밝혔다.지난 8월 최종 사업자로 선정된 카카오는 AI 3대 강국을 위한 핵심 인프라로 엔비디아 B200 GPU 총 2424장을 확보해 5년간 위탁 운영하며 국내 AI 연구·개발을 지원할 계획이다.카카오는 자체 데이터센터의 전력·냉각 시스템과 공급사와의 긴밀한 협력으로 조기 구축에 성공했으며, 내년 1월부터 산·학·연 과제에 베타서비스를 제공할 예정이다.
374 조회
0 추천
2025.12.29 등록
구글이오픈소스모델인'젬마3(Gemma3)'의내부작동원리를분석할수있는도구인'젬마스코프2(GemmaScope2)'를출시하며AI의'블랙박스'현상을규명하기위한연구결과를공개했습니다.이도구모음은인공지능이탈옥이나환각증상을보이거나아첨하는태도를취할때내부의어떤기능이활성화되고네트워크를통해어떻게전달되는지를실시간으로추적하여AI의안전성과정렬상태를정밀하게검사할수있도록돕습니다.특히모든레이어에포함된'트랜스코더'기술을통해인공지능내부에서정보가어떻게전파되고계산되는지그구체적인경로를파악할수있게함으로써,AI모델의신뢰도를높이고윤리적인행동제어를가능하게하는데기여할것으로기대됩니다.
360 조회
0 추천
2025.12.29 등록
구글은생성AI가단순히텍스트답변을내놓는것을넘어,대화맥락에맞는사용자인터페이스(UI)를직접생성할수있도록돕는오픈소스프로토콜'A2UI'를출시했습니다.기존에는AI가HTML코드등을보내UI를구현하려했으나,보안위험과앱디자인과의부조화문제가있었습니다.A2UI는UI구성요소를'데이터(JSON)'형태로전달하여각앱의프레임워크에맞춰안전하고자연스럽게렌더링하도록설계되었습니다.이프로토콜의가장큰특징은보안성과유연성입니다.실행가능한코드가아닌사전에약속된컴포넌트정보만주고받기때문에임의스크립트실행과같은보안공격을방지할수있습니다.또한앵귤러,플러터,리액트등다양한개발환경에서재사용이가능하며,AI가계산을수행하는동안UI가실시간으로구성되는스트리밍방식의점진적렌더링을지원해사용자경험을크게향상시킵니다.A2UI는여러기업의AI에이전트들이협업하는'멀티에이전트'환경에서복잡한작업을효율적으로처리하기위해개발되었습니다.예를들어레스토랑예약처럼텍스트로만대화하기번거로운상황에서AI가즉시예약폼이나버튼을생성해사용자에게보여줌으로써작업속도를높여줍니다.구글은이표준기술을통해서로다른시스템의AI들이안전하고일관된방식으로사용자와소통할수있는기반을마련할계획입니다.
369 조회
0 추천
2025.12.28 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입