ChatGPT가 메인 인터페이스에 음성 모드를 통합
페이지 정보
본문

OpenAI는 화요일에 ChatGPT에서 별도의 음성 모드가 필요 없어졌다고 발표했으며, 사용자가 이제 지도 및 이미지와 같은 시각적 콘텐츠와 함께 실시간 대화 내용을 볼 수 있는 메인 채팅 인터페이스에 음성 대화를 직접 통합했습니다.
모바일 및 웹 플랫폼의 모든 사용자에게 배포되는 이번 업데이트는 이전에 음성 상호작용이 애니메이션 파란색 구체가 표시되는 격리된 화면에서 이루어지던 오랜 제한 사항을 해결합니다. 사용자는 응답을 보지 못한 채 듣기만 할 수 있었으며, ChatGPT가 말한 내용을 텍스트로 검토하려면 음성 모드를 종료해야 했습니다.
원활한 멀티모달 경험
새로운 통합 기능으로 사용자들은 ChatGPT의 텍스트 입력란 옆에 있는 파형 아이콘을 탭하여 음성 대화를 시작할 수 있으며, 말하는 동안 응답이 나타나는 것을 볼 수 있습니다. OpenAI의 시연 영상에 따르면, 시스템은 대화 내용의 텍스트를 표시하는 동시에 관련 시각 자료를 보여줄 수 있습니다. 회사가 공유한 한 예시에서 ChatGPT는 음성 대화 중에 인기 있는 제과점들의 지도와 샌프란시스코 타르틴 베이커리의 페이스트리 사진들을 표시했습니다.
OpenAI는 X에 올린 공지에서 "대화하고, 답변이 나타나는 것을 보고, 이전 메시지를 검토하며, 이미지나 지도 같은 시각 자료를 실시간으로 볼 수 있습니다"라고 밝혔습니다. 사용자들은 텍스트 입력으로 다시 전환하기 전에 음성 대화를 중지하려면 여전히 "종료"를 탭해야 합니다.
사용자 선택 보존
통합 음성 모드는 앱 업데이트 시 기본 경험이 되지만, OpenAI는 오디오 전용 경험을 선호하는 사용자를 위해 기존 인터페이스를 보존했습니다. 이전 형식을 원하는 사용자는 설정의 음성 모드에서 "분리 모드"를 활성화할 수 있습니다.
이 변경 사항은 사용자가 대화 맥락을 잃지 않고 음성과 텍스트 사이를 보다 유동적으로 이동할 수 있도록 하는 멀티모달 AI 상호작용을 향한 OpenAI의 지속적인 노력을 나타냅니다. Google은 음성 대화 중 오버레이로 실시간 비디오의 특정 부분을 강조 표시할 수 있는 Gemini Live를 통해 유사한 영역을 탐구했습니다.