Loading...

AI 뉴스

샘 올트먼, AI 위험 담당 인력 채용 나서

페이지 정보

작성자 성웅
작성일 2025.12.29 22:59
335 조회
0 추천
0 비추천

본문

Sam Altman OpenAI

• OpenAI가 'AI 안전 준비 총괄(Head of Preparedness)' 직책 신설

• 정신건강 위협, 사이버보안 무기화 등 AI의 심각한 위험성 대응 목표

• 자기개선 AI 시스템에 대한 안전장치 마련도 포함

• 챗봇 관련 청소년 자살 사건 등 잇따라... "늦은 감" 지적도


OpenAI가 AI의 위험성을 전담하는 '안전 준비 총괄(Head of Preparedness)' 직책을 신설하고 인력 채용에 나섰다. 쉽게 말해, AI가 심각하게 잘못될 수 있는 모든 경우의 수를 고민하는 것이 주요 업무다.


샘 올트먼은 X(구 트위터)에 올린 글에서 AI 모델의 급격한 발전이 "실질적인 과제들"을 야기하고 있다고 인정하며 해당 직책을 공개했다. 그는 특히 사람들의 정신건강에 미치는 영향과 AI 기반 사이버보안 무기의 위험성을 명시적으로 언급했다.


채용 공고에 따르면, 해당 직책의 담당자는 다음과 같은 역할을 수행하게 된다:


"심각한 피해의 새로운 위험을 초래하는 최첨단 역량을 추적하고 대비합니다. 일관성 있고 엄밀하며 운영적으로 확장 가능한 안전 파이프라인을 구성하는 역량 평가, 위협 모델, 완화 조치를 구축하고 조율하는 직접 책임자가 됩니다."


올트먼은 이 직책의 담당자가 앞으로 회사의 '준비 프레임워크' 실행, '생물학적 역량' 출시를 위한 AI 모델 보안, 나아가 자기개선 시스템에 대한 안전장치 설정까지 책임지게 될 것이라고 밝혔다. 그는 또한 이 직무가 "스트레스가 많은 일"이 될 것이라고 덧붙였는데, 이는 다소 절제된 표현으로 보인다.


챗봇이 청소년 자살에 연루된 여러 건의 세간의 이목을 끄는 사건들이 있은 후, 이제야 이러한 모델들이 야기할 수 있는 잠재적인 정신건강 위험에 집중하는 인력을 두는 것은 다소 늦은 감이 있다. AI로 인한 정신질환 문제가 커지고 있는데, 챗봇이 사람들의 망상을 부추기고, 음모론을 조장하며, 섭식장애를 숨기도록 돕는 사례가 늘고 있기 때문이다.

댓글 0
전체 1,366 / 38 페이지
The Verge는 크리에이터 이코노미가 인터넷을 광고로 포화된 환경으로 변모시킴으로써 인터넷을 파괴했다고 주장하며, 가장 성공한 콘텐츠 크리에이터들조차 혁신적인 수익화 전략을 포기하고 소비재 제품 판매로 회귀했다고 말한다.4억 5천만 명이 넘는 유튜브 구독자를 보유하고 있음에도 불구하고, MrBeast의 제작사는 2024년에 1억 1천만 달러 이상의 손실을 기록했으며, 그의 바이럴 영상들은 주로 Walmart와 같은 소매업체에서 판매되는 그의 Feastables 초콜릿 바를 홍보하는 도구로 활용되었다.MrBeast의 미디어 부문이 2024년에 거의 8천만 달러의 손실을 기록한 반면, 그의 Feastables 브랜드는 비슷한 수익을 창출하면서도 2천만 달러 이상의 수익을 올렸으며, 이는 크리에이터들이 콘텐츠 자체보다는 실물 제품에 점점 더 의존하여 사업을 유지하고 있음을 보여준다.
478 조회
0 추천
2025.12.09 등록
Nvidia CEO 젠슨 황은 12월 3일 조 로건과의 인터뷰에서 칩 가용성이 아닌 전력 공급이 AI의 주요 병목 현상이 되었다고 말하며, 기술 기업들이 6~7년 내에 데이터 센터 근처에서 수백 메가와트를 생산하는 자체 소형 원자로를 운영할 것이라고 예측했습니다.황의 예측은 업계 동향과 일치하는데, Google은 2024년 10월 소형 원자로 개발업체 Kairos Power로부터 500메가와트를 구매할 계획을 발표했으며, 첫 번째 첨단 원자로는 2030년을 목표로 하고 있습니다.Goldman Sachs는 데이터 센터 전력 소비가 2023년 대비 2030년까지 175% 급증할 것으로 예상하며, 국제에너지기구는 전 세계 데이터 센터 소비가 2030년까지 945테라와트시로 두 배 이상 증가할 것으로 전망합니다.
438 조회
0 추천
2025.12.09 등록
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
438 조회
0 추천
2025.12.09 등록
한국산업기술진흥협회는 8일 국내 AI 스타트업의 3년 생존율이 56.2%에 그쳐 AI 일반기업(72.7%)과 전산업 평균(68.8%)보다 현저히 낮다고 발표했다.2023년 기준 AI 스타트업의 연구개발비 중 정부 재원 비중은 22.9%로 전산업 평균의 4배에 달하며, 평균 R&D비는 5억9000만원으로 절대적 규모가 낮다.산기협은 AI 스타트업의 생존이 국가경쟁력과 직결된다며 과감한 R&D 지원과 생태계 정비를 통한 정부의 적극적 지원이 필요하다고 강조했다.
436 조회
0 추천
2025.12.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입