Loading...

AI 뉴스

ChatGPT, 사용자들이 시그니처 em 대시를 버릴 수 있도록 허용

페이지 정보

작성자 xtalfi
작성일 2025.11.15 14:40
971 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763185205_7621.jpg
 

(퍼플렉시티가 정리한 기사)


OpenAI는 ChatGPT 사용자들의 오랜 불만 사항을 해결했습니다: 이제 챗봇은 AI 생성 텍스트의 비공식적인 특징이 된 긴 구두점 기호인 em 대시 사용을 피하라는 지시를 제대로 따를 것입니다. CEO 샘 알트먼은 목요일 밤 X에서 이 수정 사항을 발표하며 "작지만 기쁜 성과"라고 말했습니다.​

이번 업데이트를 통해 사용자는 개인화 설정을 통해 ChatGPT의 작성 스타일을 맞춤 설정할 수 있지만, 챗봇이 기본적으로 em 대시를 제거하지는 않습니다. 이 발표는 OpenAI가 11월 11일에 최신 모델 업그레이드인 GPT-5.1을 출시한 지 불과 이틀 후에 나왔습니다.​


엠 대시 전염병

em 대시(em dash)—놀라움이나 대조를 나타내기 위해 사용되는 긴 대시—는 AI가 생성한 텍스트에서 너무나 흔하게 나타나 인터넷 사용자들이 이를 "ChatGPT 하이픈"이라고 부를 정도가 되었다. 이 문장부호는 학교 과제부터 업무 이메일, 링크드인 게시물, 고객 서비스 채팅에 이르기까지 모든 곳에서 나타나기 시작했고, 독자들은 그 빈도를 AI 콘텐츠를 판별하는 비공식적인 지표로 사용하게 되었다.​

문제는 미적인 우려를 넘어섰다. 전문 작가들은 대형 언어 모델이 등장하기 훨씬 이전부터 존재했던 문장부호인 em 대시를 자신의 자연스러운 글쓰기 스타일에 포함시켰다는 이유만으로 AI를 사용했다는 의심을 받게 되었다. 일부 작가들은 의심을 피하기 위해 em 대시 사용을 완전히 피하기 시작했다.​

한 분석에 따르면, 이 문제는 ChatGPT의 훈련 데이터에서 비롯되었을 수 있다. 최첨단 모델들은 고품질 훈련 데이터로 1800년대 후반과 1900년대 초반의 인쇄 도서에 의존하는데, 이러한 책들은 현대 영어 산문보다 약 30% 더 많은 em 대시를 사용한다. 연구에 따르면 GPT-4.1은 이전 GPT-3.5-turbo 모델보다 스토리당 약 10배 더 많은 em 대시를 사용했다.​


지속적인 기술적 과제

수개월 동안 사용자들은 ChatGPT가 해당 기호 사용을 중단하라는 요청을 명시적으로 지시했음에도 불구하고 무시한다고 불만을 제기했습니다. OpenAI의 커뮤니티 포럼은 챗봇이 em 대시 금지 지시를 완고하게 거부하는 사례들로 가득 찼으며, 이는 모델이 스타일 가이드를 처리하는 방식에 더 깊은 기술적 문제가 있음을 시사했습니다.​

수정 사항을 적용하려면 사용자는 개인화 설정으로 이동하여 사용자 지정을 활성화하고 사용자 지정 지침 필드에 특정 지침을 추가해야 합니다. OpenAI는 Threads 게시물에서 이 논란을 인정했으며, 회사는 ChatGPT가 "em 대시를 망쳐서" 사과하도록 했습니다.​

이번 수정은 AI 개인화 및 지시 수행 기능의 진전을 나타내며, 더 맞춤화 가능한 AI 경험을 향한 OpenAI의 광범위한 노력과 일치합니다.

댓글 0
전체 1,366 / 72 페이지
테슬라의 CEO 일론 머스크는 일요일에 AI 칩 디자이너를 직접 채용하는 구인 활동을 시작하며, 회사가 5세대 AI 칩의 완성에 가까워졌고 이미 6세대 칩 작업을 시작했다고 밝혔습니다. 이는 맞춤형 AI 하드웨어 생산을 지배하기 위한 공격적 계획의 일환입니다.X에 연속적으로 올린 게시물에서 머스크는 테슬라가 차량 플릿과 데이터 센터에 “수백만 개의 AI 칩”을 배포했으며, 현재의 AI4 세대가 완전자율주행 시스템을 구동하고 있다고 공개했습니다. 회사는 이제 생산 직전의 최종 설계 단계인 “AI5 테이프 아웃(taping out) 직전”에 있으며 AI6 개발도 시작했다고 했습니다.머스크는 “우리의 목표는 매 12개월마다 새로운 AI 칩 설계를 대량 생산에 내놓는 것”이라며, 테슬라가 “궁극적으로 모든 다른 AI 칩을 합한 것보다 더 많은 칩을 만들게 될 것으로 기대한다”고 썼습니다. 그는 “저 문장을 다시 읽어보세요. 저는 농담이 아닙니다”라고 강조했습니다.직접 채용 채널 오픈머스크는 “뛰어난 능력”을 가진 지원자들에게 AI_Chips@Tesla.com으로 이메일을 보내 자신의 전문성, 특히 칩 설계에 AI를 적용한 경험을 세 가지 요점으로 증명해 달라고 요청했다. 이번 채용 활동은 자율주행과 회사의 옵티머스 휴머노이드 로봇 개발을 가속화하기 위한 것이다.CEO는 칩 프로그램에 자신이 직접 관여하고 있음을 밝히며, 매주 화요일과 토요일마다 엔지니어링 팀과 회의를 한다고 말했다. “토요일 회의는 단기적인 것이며 AI5가 테이프 아웃되면 몇 달 내로 더 이상 필요하지 않을 것”이라고 그는 덧붙였다.제조 파트너십과 경쟁테슬라는 칩 로드맵을 위해 TSMC와 삼성전자 모두와 제조 파트너십을 확보했습니다. TSMC는 대만과 애리조나 시설에서 AI5 칩을 생산할 예정이며, 삼성은 2033년까지 165억 달러 규모의 계약을 체결하여 텍사스 테일러의 신공장에서 AI6 칩을 제조합니다.이 프로젝트는 테슬라를 파트너이자 경쟁자인 엔비디아[ -0.97%]와 함께 AI 칩 시장에서 중요한 위치에 올려놓습니다. 테슬라는 데이터센터에서 AI 모델을 훈련하기 위해 엔비디아 GPU를 계속 사용하지만, 자체 개발 칩은 차량에서 추론 작업을 처리합니다.머스크가 제시한 일정에 따르면, AI5는 2026년에 제한적 생산을 시작하고, 2027년에 대량 생산을 목표로 하고 있습니다. AI6는 2028년 중반에 출시될 예정이며, 머스크가 “빠른 추격” 개발 속도라고 묘사한 것을 유지할 방침입니다.
702 조회
0 추천
2025.11.24 등록
인공지능(AI)기술이하루가다르게발전하며우리삶깊숙이파고들고있습니다.이러한변화속에서많은부모는'우리아이를어떻게키워야할까?'라는막연한불안감에휩싸이곤합니다.AI가아이들의일자리를빼앗지는않을지,기술에지나치게의존하게되지는않을지걱정이앞서는것이사실입니다.하지만AI전문가네이트존스(NateJones)는그의뉴스레터아티클 "RaisingHumansintheAgeofAI:APracticalGuideforParents(AI시대의자녀양육:부모를위한실질적가이드)"에서이러한두려움을내려놓고'이해'와'코칭'으로나아가야한다고역설합니다.그는공포를조장하는대다수미디어와달리,AI가실제로어떻게작동하고왜그렇게작동하는지에대한실질적인설명을제공하여부모스스로기술을정확히이해하도록돕습니다.이가이드의핵심은단순히AI사용을금지하거나방치하는것이아닙니다.대신,부모가자녀에게현실세계에서AI를주체적으로활용할수있는능력을길러줄수있도록구체적인**'기술프레임워크(SkillsFramework)'**를제시합니다.이는아이들이AI를막연한두려움의대상이나맹목적인의존의대상이아닌,자신의목표를이루기위한유용한도구로인식하고활용할수있도록이끌어줍니다.AI시대의부모역할은더이상기술로부터아이를격리하는감시자가아닙니다.기술을이해하고아이가올바른방향으로나아갈수있도록돕는**'든든한코치'**가되어야합니다.네이트존스의이실용적인가이드는AI시대를살아갈우리아이들이기술에휘둘리지않고'인간답게'성장할수있도록돕는필수적인나침반이되어줄것입니다.
746 조회
0 추천
2025.11.23 등록
Physical Intelligence는 2024년에 전 Google DeepMind 연구원들이 창립한 로봇 AI 스타트업으로, 모든 로봇에 적용 가능한 범용 “브레인” 소프트웨어를 개발하면서, 기업 가치 56억 달러에 CapitalG 주도로 6억 달러의 자금을 유치했습니다.해당 투자 라운드에는 Jeff Bezos, Amazon, Lux Capital, Thrive Capital, Index Ventures, 그리고 T. Rowe Price가 참여했으며, 이 스타트업은 특정 작업별 프로그래밍 없이 어떤 응용 분야에서도 사용할 수 있는 로봇에 동력을 제공하는 것을 목표로 하고 있습니다.이번 투자는 AI 기반 로봇 분야의 자본 유입 급증을 반영하며, 경쟁사인 Figure AI는 390억 달러 가치에 10억 달러 이상을 유치했고, 전체 로봇 산업은 2025년 1분기 동안에만 22억 6천만 달러 이상의 투자를 받았습니다.
736 조회
0 추천
2025.11.23 등록
Allen Institute for AI (Ai2)는 OLMo 3를 출시했으며, 이는 7B 및 32B 언어 모델 제품군으로, 경쟁사들이 이러한 구성 요소를 공개하지 않는 것과 대조적으로 훈련 데이터, 코드, 중간 체크포인트 및 훈련 로그에 대한 완전한 접근을 제공하는 최초의 완전 공개 32B 추론 모델이라고 설명합니다.OLMo 3-32B는 6배 적은 토큰으로 훈련되면서도 추론 벤치마크 전반에 걸쳐 Qwen3-32B와 비교할 만한 성능을 달성하여, 지도 미세 조정, 선호도 최적화 및 강화 학습 파이프라인을 통해 가능한 효율성 향상을 입증합니다.이 프로젝트에는 60명 이상의 저자가 참여했으며 65,000개 토큰 컨텍스트 창을 지원하여, 훈련 데이터 공개에 대한 규제 압력이 증가하는 가운데 AI 시스템의 투명성을 추구하는 기업 및 연구 사용자를 위한 모델로 자리매김하고 있습니다.
765 조회
0 추천
2025.11.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입