Loading...

AI 뉴스

OpenAI와 Anthropic, 미성년자 사용자 감지 시스템 도입

페이지 정보

작성자 symbolika
작성일 2025.12.31 13:05
438 조회
0 추천
0 비추천

본문

OpenAI Anthropic Teen Safety

• OpenAI, ChatGPT의 청소년(13~17세) 대응 지침인 Model Spec에 4가지 새로운 원칙 추가

• Anthropic, 18세 미만 사용자를 탐지하고 계정을 비활성화하는 시스템 개발 중

• 양사 모두 AI 챗봇의 정신 건강 영향에 대한 규제 압력에 대응하는 조치


OpenAI와 Anthropic이 미성년 사용자를 감지하는 새로운 방식을 도입한다. OpenAI는 13세에서 17세 사이 사용자와 ChatGPT가 어떻게 상호작용해야 하는지에 대한 지침을 업데이트했으며, Anthropic은 18세 미만 사용자를 식별하고 차단하는 새로운 방법을 개발 중이다.


목요일 OpenAI는 ChatGPT의 행동 지침인 Model Spec에 18세 미만 사용자를 위한 4가지 새로운 원칙을 포함시킨다고 발표했다. 이제 ChatGPT는 "다른 목표와 충돌하더라도 청소년 안전을 최우선으로" 두는 것을 목표로 한다. 이는 "최대한의 지적 자유"와 같은 다른 사용자 이익이 안전 문제와 충돌할 때 청소년을 더 안전한 방향으로 안내한다는 것을 의미한다.


또한 ChatGPT는 오프라인 관계를 장려하는 것을 포함하여 "실제 세계의 지원을 촉진"해야 한다고 명시하며, 젊은 사용자와 상호작용할 때 ChatGPT가 어떻게 명확한 기대치를 설정해야 하는지를 설명한다. Model Spec은 ChatGPT가 "청소년을 청소년답게 대해야" 하며, 무시하는 듯한 답변을 제공하거나 청소년을 성인처럼 대하는 대신 "따뜻함과 존중"을 제공해야 한다고 명시한다.


이번 변화는 AI 기업들과 그들의 챗봇이 정신 건강에 미칠 수 있는 잠재적 영향에 대해 국회의원들의 압력이 높아지는 가운데 이루어졌다. OpenAI는 현재 ChatGPT가 스스로 목숨을 끊은 청소년에게 자해 및 자살에 대한 지시를 제공했다는 소송에 직면해 있다. OpenAI는 이후 부모 통제 기능을 도입했으며 ChatGPT가 더 이상 청소년과 자살에 대해 대화하지 않을 것이라고 밝혔다. 이는 다양한 서비스에 대한 의무적 연령 확인을 포함하는 더 큰 온라인 규제 추진의 일환이다.


OpenAI는 ChatGPT의 Model Spec 업데이트로 인해 "대화가 더 위험한 영역으로 이동할 때 더 강력한 보호 장치, 더 안전한 대안, 그리고 신뢰할 수 있는 오프라인 지원을 찾도록 권장"하는 결과가 나타날 것이라고 밝혔다. 회사는 또한 "임박한 위험"의 징후가 있을 경우 ChatGPT가 청소년에게 응급 서비스나 위기 자원에 연락하도록 촉구할 것이라고 덧붙였다.


이 변화와 함께 OpenAI는 누군가의 나이를 추정하려는 연령 예측 모델 출시의 "초기 단계"에 있다고 밝혔다. 누군가 18세 미만일 수 있다고 감지되면 OpenAI는 자동으로 청소년 보호 장치를 적용할 것이다. 또한 시스템에 의해 잘못 표시된 성인에게는 연령을 확인할 기회를 제공할 것이다.


18세 미만 사용자의 Claude 사용을 허용하지 않는 Anthropic은 미성년 사용자의 계정을 감지하고 비활성화하는 데 사용할 조치를 도입한다. 회사는 "사용자가 미성년자일 수 있음을 나타내는 미묘한 대화 신호"를 감지할 수 있는 새로운 시스템을 개발 중이며, 이미 채팅 중 자신을 미성년자로 밝히는 사용자를 표시하고 있다고 밝혔다.


Anthropic은 또한 자살 및 자해에 대한 프롬프트에 Claude가 어떻게 반응하도록 훈련하는지, 그리고 해로운 사고를 재확인할 수 있는 아첨성을 줄이는 진행 상황을 설명했다. 회사는 최신 모델이 "현재까지 가장 덜 아첨적"이며, Haiku 4.5가 37%의 시간 동안 아첨적인 행동을 수정하여 가장 좋은 성과를 보였다고 밝혔다.


Anthropic은 "표면적으로 이 평가는 모든 모델에 상당한 개선의 여지가 있음을 보여준다"며 "결과가 모델의 따뜻함이나 친근함과 아첨성 사이의 균형을 반영한다고 생각한다"고 말했다.

댓글 0
전체 1,366 / 86 페이지
Microsoft는 파일 정리 및 이메일 전송과 같은 작업을 자동화하도록 설계된 새로운 Copilot Actions AI 기능이 장치를 손상시키고 민감한 데이터를 훔칠 수 있다는 경고를 발표했으며, 이는 빅테크 기업들이 보안 위험을 완전히 이해하기 전에 기능을 출시한다는 비판을 다시 불러일으켰습니다.회사는 특히 공격자가 웹사이트, 이력서 또는 이메일에 악의적인 명령을 삽입할 수 있는 프롬프트 인젝션 취약점에 대해 사용자들에게 경고했으며, 대규모 언어 모델은 이를 정당한 사용자 지시와 구별할 수 없습니다.Open Worldwide Application Security Project는 2025년 LLM 애플리케이션 상위 10대 보안 위험에서 프롬프트 인젝션을 1위 보안 위험으로 선정했으며, 이는 AI 에이전트가 제어 명령과 사용자 데이터를 구분하지 못하는 근본적인 무능력에 대한 업계 전반의 우려를 반영합니다.
899 조회
0 추천
2025.11.20 등록
Micropolis Holding Co.는 11월 18일 NVIDIA Orin SOC를 탑재한 IP67 등급의 엣지 컴퓨팅 유닛을 출시하여 클라우드 연결 없이도 감시, 객체 감지 및 행동 분석을 위한 온디바이스 AI 처리를 가능하게 했습니다.8GB에서 64GB 구성으로 제공되는 이 견고한 장치는 법 집행, 국경 통제 및 국가 안보 임무를 위해 설계되었으며, 여러 로봇과 센서에 걸쳐 분산 엣지 네트워크로 작동할 수 있습니다[‘.CEO Fareed Aljawhari는 이러한 통합을 통해 Microspot이 “복잡한 AI 모델을 현장에서 즉시 안전하게 처리”할 수 있게 되어, 신뢰성이 타협될 수 없는 중요한 작전에서 실시간 의사결정을 지원한다고 말했습니다.
907 조회
0 추천
2025.11.20 등록
1950~60년대 미니컴퓨터 붐은 혁신적 반도체 기술의 발전과 소형화 바람을 타고 수많은 신생 기업과 투자 자본이 단일 산업으로 몰렸던 시기였다. 기업들은 앞다투어 성장했지만, 대부분은 처절한 실패로 끝났고 수십억 달러의 손실이 발생하면서 시장이 한 차례 정리되었다. 이 과정에서 궁극적으로 몇몇 상장기업이 20년 가까운 세월 동안 살아남아 산업을 대표하게 되었다.오늘날 AI 붐 역시 유사하게 폭발적 자본 유입과 스타트업 창업이 반복되고 있다. 하지만 과거와 달리 주요 AI 기업들은 IPO(상장) 대신 비상장 상태에서 거대 자본을 유치하며 급격한 가치 상승을 경험 중이다. 그 결과 일반 투자자들은 직접 투자할 기회가 적고, 기업가치 역시 6~9개월마다 두 배 가까이 오르는 등 민간 시장 중심의 과열 양상을 보인다.Commoncog는 단기 버블 여부를 논하기보다는, 기술 산업에서 반복되는 진입-도태 메커니즘과 시간이 걸리더라도 결국 산업 구조가 단단해지는 과정을 주목해야 한다고 강조한다. 미니컴퓨터 붐처럼, AI 붐도 필연적으로 실패와 도태, 점진적 구조 변화를 거치며 장기적으로는 견고한 성장 기반을 남길 것이라는 점이 반복적으로 제시된다.
909 조회
0 추천
2025.11.20 등록
MIT는 신경 활동이 주관적 의식 경험을 만들어내는 이유를 과학적으로 탐구하기 위해 MIT 의식 클럽을 출범시켰으며, 철학자 Matthias Michel과 신경과학자 Earl Miller를 한자리에 모아 철학과 인지신경과학을 연결하고 있다.이 이니셔티브는 뇌가 의식적 시각 시스템과 무의식적 시각 시스템이라는 두 가지 시각 시스템으로 작동한다는 발견을 바탕으로, 자극 제시와 의식적 인식 사이의 시간 지연을 측정하는 것과 같은 근본적인 질문들을 탐구한다의식 메커니즘에 대한 이해는 고령 환자의 수술 치료를 개선할 수 있으며, 이들 중 최대 10%가 전신 마취를 동반한 비심장 수술 후 장기적인 인지 기능 저하를 경험한다.
902 조회
0 추천
2025.11.20 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입