AI 뉴스

ChatGPT가 메인 인터페이스에 음성 모드를 통합

페이지 정보

작성자 xtalfi
작성일 2025.11.26 15:53
557 조회
0 추천
0 비추천

본문

ChatGPT-Voice-mode.jpg

OpenAI는 화요일에 ChatGPT에서 별도의 음성 모드가 필요 없어졌다고 발표했으며, 사용자가 이제 지도 및 이미지와 같은 시각적 콘텐츠와 함께 실시간 대화 내용을 볼 수 있는 메인 채팅 인터페이스에 음성 대화를 직접 통합했습니다.​

모바일 및 웹 플랫폼의 모든 사용자에게 배포되는 이번 업데이트는 이전에 음성 상호작용이 애니메이션 파란색 구체가 표시되는 격리된 화면에서 이루어지던 오랜 제한 사항을 해결합니다. 사용자는 응답을 보지 못한 채 듣기만 할 수 있었으며, ChatGPT가 말한 내용을 텍스트로 검토하려면 음성 모드를 종료해야 했습니다.​


원활한 멀티모달 경험

새로운 통합 기능으로 사용자들은 ChatGPT의 텍스트 입력란 옆에 있는 파형 아이콘을 탭하여 음성 대화를 시작할 수 있으며, 말하는 동안 응답이 나타나는 것을 볼 수 있습니다. OpenAI의 시연 영상에 따르면, 시스템은 대화 내용의 텍스트를 표시하는 동시에 관련 시각 자료를 보여줄 수 있습니다. 회사가 공유한 한 예시에서 ChatGPT는 음성 대화 중에 인기 있는 제과점들의 지도와 샌프란시스코 타르틴 베이커리의 페이스트리 사진들을 표시했습니다.​

OpenAI는 X에 올린 공지에서 "대화하고, 답변이 나타나는 것을 보고, 이전 메시지를 검토하며, 이미지나 지도 같은 시각 자료를 실시간으로 볼 수 있습니다"라고 밝혔습니다. 사용자들은 텍스트 입력으로 다시 전환하기 전에 음성 대화를 중지하려면 여전히 "종료"를 탭해야 합니다.​


사용자 선택 보존

통합 음성 모드는 앱 업데이트 시 기본 경험이 되지만, OpenAI는 오디오 전용 경험을 선호하는 사용자를 위해 기존 인터페이스를 보존했습니다. 이전 형식을 원하는 사용자는 설정의 음성 모드에서 "분리 모드"를 활성화할 수 있습니다.​

이 변경 사항은 사용자가 대화 맥락을 잃지 않고 음성과 텍스트 사이를 보다 유동적으로 이동할 수 있도록 하는 멀티모달 AI 상호작용을 향한 OpenAI의 지속적인 노력을 나타냅니다. Google은 음성 대화 중 오버레이로 실시간 비디오의 특정 부분을 강조 표시할 수 있는 Gemini Live를 통해 유사한 영역을 탐구했습니다.

댓글 0
전체 1,366 / 31 페이지
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
419 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
398 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
399 조회
0 추천
2025.12.14 등록
전 OpenAI CTO Mira Murati가 설립한 Thinking Machines Lab은 12월 12일 Tinker AI 파인튜닝 서비스를 정식 출시하여 대기자 명단을 제거하고, 1조 파라미터 규모의 Kimi K2 Thinking 추론 모델과 Qwen3-VL 모델을 통한 비전 기능 지원을 추가했습니다.샌프란시스코 기반 스타트업은 6월에 Nvidia, AMD, ServiceNow를 포함한 투자자들로부터 100억 달러 기업가치로 20억 달러를 유치했으며, 11월에는 Meta에서 PyTorch 공동 창시자 Soumith Chintala를 영입했습니다.Tinker는 Low-Rank Adaptation을 사용하여 기존 컴퓨팅 리소스의 일부만으로 대규모 언어 모델을 파인튜닝하며, 현재 개발자 통합을 용이하게 하기 위해 OpenAI API 호환성을 제공하고 있습니다. 회사는 500억 달러 기업가치로 50억 달러의 신규 자금 조달을 모색하고 있는 것으로 알려졌습니다.
408 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입