Loading...

AI 뉴스

OpenAI와 Anthropic, 미성년자 사용자 감지 시스템 도입

페이지 정보

작성자 symbolika
작성일 2025.12.31 13:05
301 조회
0 추천
0 비추천

본문

OpenAI Anthropic Teen Safety

• OpenAI, ChatGPT의 청소년(13~17세) 대응 지침인 Model Spec에 4가지 새로운 원칙 추가

• Anthropic, 18세 미만 사용자를 탐지하고 계정을 비활성화하는 시스템 개발 중

• 양사 모두 AI 챗봇의 정신 건강 영향에 대한 규제 압력에 대응하는 조치


OpenAI와 Anthropic이 미성년 사용자를 감지하는 새로운 방식을 도입한다. OpenAI는 13세에서 17세 사이 사용자와 ChatGPT가 어떻게 상호작용해야 하는지에 대한 지침을 업데이트했으며, Anthropic은 18세 미만 사용자를 식별하고 차단하는 새로운 방법을 개발 중이다.


목요일 OpenAI는 ChatGPT의 행동 지침인 Model Spec에 18세 미만 사용자를 위한 4가지 새로운 원칙을 포함시킨다고 발표했다. 이제 ChatGPT는 "다른 목표와 충돌하더라도 청소년 안전을 최우선으로" 두는 것을 목표로 한다. 이는 "최대한의 지적 자유"와 같은 다른 사용자 이익이 안전 문제와 충돌할 때 청소년을 더 안전한 방향으로 안내한다는 것을 의미한다.


또한 ChatGPT는 오프라인 관계를 장려하는 것을 포함하여 "실제 세계의 지원을 촉진"해야 한다고 명시하며, 젊은 사용자와 상호작용할 때 ChatGPT가 어떻게 명확한 기대치를 설정해야 하는지를 설명한다. Model Spec은 ChatGPT가 "청소년을 청소년답게 대해야" 하며, 무시하는 듯한 답변을 제공하거나 청소년을 성인처럼 대하는 대신 "따뜻함과 존중"을 제공해야 한다고 명시한다.


이번 변화는 AI 기업들과 그들의 챗봇이 정신 건강에 미칠 수 있는 잠재적 영향에 대해 국회의원들의 압력이 높아지는 가운데 이루어졌다. OpenAI는 현재 ChatGPT가 스스로 목숨을 끊은 청소년에게 자해 및 자살에 대한 지시를 제공했다는 소송에 직면해 있다. OpenAI는 이후 부모 통제 기능을 도입했으며 ChatGPT가 더 이상 청소년과 자살에 대해 대화하지 않을 것이라고 밝혔다. 이는 다양한 서비스에 대한 의무적 연령 확인을 포함하는 더 큰 온라인 규제 추진의 일환이다.


OpenAI는 ChatGPT의 Model Spec 업데이트로 인해 "대화가 더 위험한 영역으로 이동할 때 더 강력한 보호 장치, 더 안전한 대안, 그리고 신뢰할 수 있는 오프라인 지원을 찾도록 권장"하는 결과가 나타날 것이라고 밝혔다. 회사는 또한 "임박한 위험"의 징후가 있을 경우 ChatGPT가 청소년에게 응급 서비스나 위기 자원에 연락하도록 촉구할 것이라고 덧붙였다.


이 변화와 함께 OpenAI는 누군가의 나이를 추정하려는 연령 예측 모델 출시의 "초기 단계"에 있다고 밝혔다. 누군가 18세 미만일 수 있다고 감지되면 OpenAI는 자동으로 청소년 보호 장치를 적용할 것이다. 또한 시스템에 의해 잘못 표시된 성인에게는 연령을 확인할 기회를 제공할 것이다.


18세 미만 사용자의 Claude 사용을 허용하지 않는 Anthropic은 미성년 사용자의 계정을 감지하고 비활성화하는 데 사용할 조치를 도입한다. 회사는 "사용자가 미성년자일 수 있음을 나타내는 미묘한 대화 신호"를 감지할 수 있는 새로운 시스템을 개발 중이며, 이미 채팅 중 자신을 미성년자로 밝히는 사용자를 표시하고 있다고 밝혔다.


Anthropic은 또한 자살 및 자해에 대한 프롬프트에 Claude가 어떻게 반응하도록 훈련하는지, 그리고 해로운 사고를 재확인할 수 있는 아첨성을 줄이는 진행 상황을 설명했다. 회사는 최신 모델이 "현재까지 가장 덜 아첨적"이며, Haiku 4.5가 37%의 시간 동안 아첨적인 행동을 수정하여 가장 좋은 성과를 보였다고 밝혔다.


Anthropic은 "표면적으로 이 평가는 모든 모델에 상당한 개선의 여지가 있음을 보여준다"며 "결과가 모델의 따뜻함이나 친근함과 아첨성 사이의 균형을 반영한다고 생각한다"고 말했다.

댓글 0
전체 1,366 / 20 페이지
OpenAI는 화요일에 2026년까지 인공 일반 지능에 도달하는 것은 더 강력한 모델을 개발하는 것만큼이나 사용자가 AI를 효과적으로 채택하도록 돕는 것에 달려 있다고 발표했으며, AI가 할 수 있는 것과 대부분의 사람들이 실제로 사용하는 것 사이에 “능력 격차”가 있다고 지적했다.이 회사의 전환은 조사 대상 근로자의 75%가 AI가 속도나 품질을 향상시켜 매일 40~60분을 절약한다고 보고하는 데이터 가운데 이루어졌지만, 일반 직원보다 6배 많은 AI 메시지를 보내는 “선도” 사용자들과의 격차가 존재한다.OpenAI의 2026년 로드맵은 이제 의료, 비즈니스 운영 및 일상생활에서 “배포 격차”를 줄이는 것을 강조하며, 케냐 파트너십과 같은 실제 배포를 통해 39,849건의 환자 방문에서 진단 오류를 16% 감소시켰다.
327 조회
0 추천
2025.12.25 등록
웨어러블 AI 시장은 원격의료 플랫폼과의 통합으로 지속적인 건강 모니터링과 예측 진단이 가능해지면서 2025년 363억 8천만 달러에서 2030년 658억 달러로 연평균 12.4%의 성장률로 증가할 것으로 예상됩니다.삼성전자는 Galaxy Ring에 전고체 배터리 기술을 적용하여 연중무휴 의료급 모니터링을 구현하고 있으며, Philips와 Masimo는 실시간 환자 데이터를 위해 무선 센서를 임상 모니터링 대시보드에 통합하는 파트너십을 맺었습니다.Apple과 Alphabet은 각각 HealthKit 생태계와 Gemini AI 기반 Fitbit을 통해 경쟁하고 있으며, DexCom은 연속 혈당 모니터링을 위한 최초의 생성형 AI 플랫폼을 출시했고, FDA는 의료 관련 주장에 대한 규제 심사를 강화하고 있습니다.
359 조회
0 추천
2025.12.25 등록
• Google은 디스플레이 하단에 단일 행의 떠 있는 입력 상자를 배치한 새로운 Gemini 인터페이스를 테스트하고 있다. 이 디자인은 첨부 파일, 모델 선택기 같은 고급 도구들을 통합된 플러스(Plus) 버튼 뒤로 모아 시각적 혼잡을 줄이는 방식이며, 이는 Google 앱 16.51.52 버전 코드에서 발견된 내용에 따른 것이다.• “Gemini UX 2.0”으로 명명된 이번 전면 개편은 점진적 공개(pr​ogressive disclosure) 원칙을 따르며, 기본 상태에서는 인터페이스를 최소화하되 Deep Research, Canvas와 같은 기능들을 새로운 Tools 아이콘 아래에 배치해, 고급 제어 기능이 필요할 때에만 접근 가능하도록 한다.• 코드 문자열에 따르면, 실험적 기능을 위한 새로운 Gemini Labs 설정 영역이 추가되었으며, 이는 Google Labs와 Search Labs를 반영한 형태다. 초기 테스트 사용자들은 이 영역에서 완성되지 않은 기능들의 토글을 전환하고, 더 넓은 범위로 공개되기 전에 피드백을 제공할 수 있다.
350 조회
0 추천
2025.12.25 등록
• 엑서터 대학교(University of Exeter) 연구진은 AI 챗봇이 평판 훼손, 정서적 피해, 사회적 혼란을 야기하는 “야생형(feral)” 가십을 만들어 퍼뜨리고 있으며, 인간 의사소통을 조절하는 사회적 규범의 통제를 받지 않은 채 작동하고 있다고 경고했다.• Ethics and Information Technology에 게재된 이 연구는 AI 시스템들 사이에서 빠르게 확산되는 위험한 “봇-투-봇(bot-to-bot)” 가십을 강조하며, 챗봇이 **호주 시장 브라이언 후드(Brian Hood)**에게 뇌물 수수 혐의를, 라디오 진행자 **마크 월터스(Mark Walters)**에게 횡령 혐의를 거짓으로 뒤집어씌운 사례 등을 문서화했다.• 연구진은 기술 기업들이 메모리 기능, 음성 모드와 같은 개인화 기능을 갖춘 챗봇을 설계함에 따라, AI 가십이 더욱 만연해질 것이며, 그 결과 이용자들이 신뢰할 만한 정보와 함께 근거 없는 비난도 더 쉽게 수용하게 될 것이라고 예측한다.
342 조회
0 추천
2025.12.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입