Loading...

AI 뉴스

인스타그램 대표 "이제 눈으로 보는 것을 믿을 수 없는 시대"

페이지 정보

작성자 symbolika
작성일 2026.01.02 19:42
395 조회
0 추천
0 비추천

본문

AI Deepfake


• AI 생성 콘텐츠가 현실과 구별 불가능해지면서 시각 미디어에 대한 신뢰가 근본적으로 변화하고 있다
• 아담 모세리는 인스타그램이 AI 콘텐츠 라벨링, 진본 콘텐츠 인증, 게시자 신뢰도 표시 등으로 진화해야 한다고 강조
• 카메라 제조사들이 이미지 촬영 시점에 암호화 서명을 적용하는 '진본 인증 체인' 구축이 필요할 것으로 전망
• 완벽하게 보정된 이미지보다 오히려 '불완전한' 로우 이미지가 진짜임을 증명하는 신호가 되고 있다
• 궁극적으로 '무엇이' 공유되는지보다 '누가' 공유하는지에 초점을 맞춰야 할 것


인스타그램 대표 아담 모세리가 2025년을 마무리하며 '무한한 합성 콘텐츠' 시대가 의미하는 바에 대해 20장의 슬라이드로 심층 분석을 내놓았다. 그는 AI가 생성한 콘텐츠와 현실을 구분하기가 점점 어려워지고 있으며, 과거의 개인적인 인스타그램 피드는 이미 수년 전에 "사라졌다"고 진단했다.

모세리는 디지털 카메라 업계가 잘못된 방향으로 가고 있다고 주장한다.

더버지의 사라 정 기자는 지난해 "사진의 기본 전제가 곧 '조작되었다'로 바뀔 것"이라고 예측한 바 있으며, 모세리도 이에 동의하면서 다음과 같이 밝혔다:

"평생 동안 사진이나 영상은 실제로 일어난 순간을 대체로 정확하게 담아낸다고 믿어왔습니다. 이제 분명히 그렇지 않으며, 우리가 적응하는 데 수년이 걸릴 것입니다."

"우리는 보이는 것이 진짜라고 기본적으로 믿는 것에서, 회의적인 시각으로 시작하는 방향으로 전환하게 될 것입니다. 누가 왜 무언가를 공유하는지에 주목하게 될 것입니다. 이것은 불편할 수밖에 없습니다 - 우리는 유전적으로 눈으로 보는 것을 믿도록 되어 있기 때문입니다."

모세리에 따르면 인스타그램과 다른 플랫폼에 필요한 진화는 다음과 같다: "최고의 창작 도구를 만들어야 합니다. AI 생성 콘텐츠에 라벨을 붙이고 진본 콘텐츠를 인증해야 합니다. 게시자가 누구인지에 대한 신뢰도 신호를 표시해야 합니다. 독창성에 대한 알고리즘 순위를 계속 개선해야 합니다."

지난 몇 년간 AI 이미지 편집과 생성이 가져온 '사진이란 무엇인가'라는 종말론적 논쟁을 다뤄온 우리에게, 2026년을 향해 달려가는 지금 이 정도의 제안 목록은 다소 늦은 감이 있다.

모세리의 인스타그램 중심적 시각은 "'AI 슬롭'(저품질 AI 콘텐츠)에 대해 불평하기 좋아하지만, 훌륭한 AI 콘텐츠도 많다"고 주장하면서도, 구체적으로 어떤 것인지는 밝히지 않았고 메타의 AI 도구 추진에 대해서도 구체적으로 언급하지 않았다. 그는 카메라 업체들이 "모든 사람을 2015년의 프로 사진작가처럼 보이게 만들려고" 잘못된 방향으로 경쟁하고 있다고 주장했다.

대신 그는 가공되지 않은 불완전한 이미지가 일시적으로 현실성의 신호가 되고 있지만, AI가 불완전함까지 복제할 수 있게 되면 "무엇이 말해지는지보다 누가 말하는지에 초점을 맞춰야 할 것"이라고 말했다. 촬영한 카메라의 지문과 암호화 서명으로 진짜 미디어를 식별하는 방식이 AI에 추가되는 태그나 워터마크에 의존하는 것보다 나을 것이라는 설명이다.

모세리가 같은 문제를 지적한 첫 번째 기술 임원은 아니다. 삼성의 임원 패트릭 쇼메는 지난해 갤럭시폰의 달 사진 촬영 방식 논란 이후 "실제로 진짜 사진이란 것은 없다"는 입장을 취했고, 애플의 크레이그 페더리기도 월스트리트저널에 AI 편집의 영향에 대해 "우려하고 있다"고 밝힌 바 있다. 하지만 어쩌면 인스타그램 슬라이드 한두 개만 더 보면 이 모든 것이 해결될지도 모른다.

아담 모세리 전문:

인스타그램이 직면한 핵심 위험은 세상이 더 빠르게 변화하는 가운데 플랫폼이 따라가지 못하는 것입니다. 2026년을 바라보며 하나의 큰 변화가 있습니다: 진정성이 무한히 복제 가능해지고 있습니다.

크리에이터를 중요하게 만들었던 모든 것 - 진짜가 될 수 있는 능력, 연결하는 능력, 조작될 수 없는 목소리를 가지는 것 - 이제 적절한 도구만 있으면 누구나 접근할 수 있게 되었습니다. 딥페이크는 점점 정교해지고 있습니다. AI가 촬영된 미디어와 구별할 수 없는 사진과 영상을 생성합니다.

인터넷이 설득력 있는 아이디어를 가진 누구나 청중을 찾을 수 있게 만들었기 때문에 권력은 기관에서 개인으로 이동했습니다. 정보 배포 비용은 제로입니다.

퍼블리셔나 브랜드가 아닌 개인이 사람들의 콘텐츠에 대한 상당한 시장이 있다는 것을 확립했습니다. 기관에 대한 신뢰는 사상 최저입니다. 우리는 신뢰하고 존경하는 크리에이터의 자체 촬영 콘텐츠로 눈을 돌렸습니다.

"AI 슬롭"에 대해 불평하기 좋아하지만, 훌륭한 AI 콘텐츠도 많습니다. 양질의 AI 콘텐츠도 특유의 외관이 있습니다: 너무 매끄럽고, 피부가 너무 부드럽습니다. 이것이 바뀔 것입니다 - 더 사실적인 AI 콘텐츠를 보게 될 것입니다.

진정성이 희소한 자원이 되면서 크리에이터 콘텐츠에 대한 수요가 줄어드는 것이 아니라 더 늘어나고 있습니다. 기준이 "만들 수 있는가?"에서 "오직 당신만이 만들 수 있는 것을 만들 수 있는가?"로 바뀌고 있습니다.

25세 미만이 아니라면 아마도 인스타그램을 정사각형 사진 피드로 기억할 것입니다: 정교한 메이크업, 피부 스무딩, 아름다운 풍경. 그 피드는 죽었습니다. 사람들은 수년 전에 개인적인 순간을 피드에 공유하는 것을 멈췄습니다.

이제 사람들이 공유하는 주요 방식은 DM입니다: 흐릿한 사진과 흔들리는 일상 경험 영상. 신발 사진과 보정되지 않은 캔디드.

이러한 로우 미학이 공개 콘텐츠와 다양한 예술 형식으로 번졌습니다.

카메라 회사들은 잘못된 미학에 베팅하고 있습니다. 모든 사람을 2015년의 프로 사진작가처럼 보이게 만들려고 경쟁하고 있습니다. 하지만 AI가 완벽한 이미지를 생성할 수 있는 세상에서 전문적인 외관은 오히려 가짜임을 드러내는 신호가 됩니다.

잘 나온 이미지는 만들기 쉽고 소비하기 지루합니다.

사람들은 진짜처럼 느껴지는 콘텐츠를 원합니다. 영리한 크리에이터들은 가공되지 않은, 보기 좋지 않은 이미지를 적극 활용하고 있습니다. 모든 것이 완벽해질 수 있는 세상에서 불완전함이 신호가 됩니다.

로우함은 더 이상 단순한 미학적 선호가 아닙니다 - 증거입니다. 방어적입니다. 불완전하기 때문에 진짜라고 말하는 방식입니다.

비교적 빠르게 AI가 당신이 좋아하는 어떤 미학이든 만들어낼 것입니다. 진짜처럼 보이는 불완전한 것도 포함해서요. 그 시점에서 우리는 무엇이 말해지는지보다 누가 말하는지에 초점을 맞춰야 할 것입니다.

평생 동안 사진이나 영상은 실제로 일어난 순간을 대체로 정확하게 담아낸다고 믿어왔습니다. 이제 분명히 그렇지 않으며, 우리가 적응하는 데 수년이 걸릴 것입니다.

우리는 보이는 것이 진짜라고 기본적으로 믿는 것에서, 회의적인 시각으로 시작하는 방향으로 전환하게 될 것입니다. 누가 왜 무언가를 공유하는지에 주목하게 될 것입니다. 이것은 불편할 수밖에 없습니다 - 우리는 유전적으로 눈으로 보는 것을 믿도록 되어 있기 때문입니다.

인스타그램 같은 플랫폼들이 AI 콘텐츠를 식별하는 좋은 작업을 할 것이지만, AI가 발전함에 따라 시간이 지나면서 점점 더 어려워질 것입니다. 가짜 미디어보다 진짜 미디어에 지문을 찍는 것이 더 실용적일 것입니다.

카메라 제조사들이 촬영 시점에 이미지에 암호화 서명을 하여 관리 체인을 만들 것입니다.

라벨링은 해결책의 일부일 뿐입니다. 사람들이 정보에 입각한 결정을 내릴 수 있도록 콘텐츠를 공유하는 계정에 대한 훨씬 더 많은 맥락을 표시해야 합니다. 계정 뒤에 누가 있는가?

무한한 풍요와 무한한 의심의 세계에서 신뢰를 유지하고 진정성을 신호할 수 있는 크리에이터 - 진실하고, 투명하고, 일관된 - 가 돋보일 것입니다.

최고의 창작 도구를 만들어야 합니다. AI 생성 콘텐츠에 라벨을 붙이고 진본 콘텐츠를 인증해야 합니다. 게시자가 누구인지에 대한 신뢰도 신호를 표시해야 합니다. 독창성에 대한 알고리즘 순위를 계속 개선해야 합니다.

인스타그램은 여러 면에서 빠르게 진화해야 할 것입니다.

댓글 0
전체 1,366 / 76 페이지
Figure AI는 390억 달러 가치의 휴머노이드 로봇 스타트업으로, 회사의 로봇이 인간의 두개골을 골절시킬 수 있고 작업자에게 심각한 부상 위험을 초래한다고 경영진에게 경고한 후 해고되었다고 주장하는 전 제품 안전 책임자로부터 연방 소송에 직면해 있습니다.아마존과 그 로봇 부서에서 6년 이상의 경력을 가진 로봇 안전 엔지니어인 Robert Gruendel은 금요일 캘리포니아 북부 지방 연방 지방법원에 소송을 제기했습니다. 고소장은 그가 회사의 휴머노이드 로봇에 대한 “가장 직접적이고 문서화된 안전 불만”을 제기한 지 며칠 후인 9월에 해고되었다고 주장합니다.소송에 따르면, Gruendel은 7월에 충격 테스트를 실시했으며, 로봇이 “초인적인 속도”로 움직이고 “통증 역치의 20배”에 달하는 힘을 발생시킨다는 사실을 발견했습니다. 이는 성인 인간의 두개골을 골절시키는 데 필요한 힘의 두 배 이상입니다. 소송은 또한 오작동하는 로봇이 직원이 근처에 서 있는 동안 “강철 냉장고 문에 ¼인치 깊이의 상처를 새긴” 사건을 설명합니다.안전 계획 하향 조정 의혹소송은 Gruendel이 두 주요 투자자로부터 투자를 확보하는 데 도움이 된 포괄적인 안전 로드맵을 개발했지만, 자금 조달 라운드가 종료된 후 회사 경영진에 의해 이 계획이 “무용지물이 되었다”고 주장합니다. Gruendel은 이것이 “사기로 해석될 수 있다”고 경영진에게 경고한 것으로 알려졌습니다.고소장은 또한 Gruendel이 CEO Brett Adcock과 수석 엔지니어 Kyle Edelberg에게 보낸 메시지에서 로봇의 능력에 대한 우려를 제기했을 때, 그의 경고가 무시되었다고 주장합니다. 소송에 따르면, Gruendel의 안전 지침은 “의무가 아닌 장애물”로 취급되었으며, 그는 해고되기 전에 회사가 “모호한 ‘사업 방향 전환’“을 겪고 있다는 말을 들었습니다.회사, 주장 부인Figure AI는 혐의를 부인하며 CNBC에 Gruendel이 “낮은 업무 성과로 해고되었다”고 밝혔고, 그의 주장은 “Figure가 법정에서 철저히 반박할 허위 사실”이라고 말했다. 회사 대변인은 추가 논평 요청에 즉각 응답하지 않았다.이 소송은 Figure가 9월에 Parkway Venture Capital이 주도하고 Nvidia, Microsoft, Intel Capital 및 기타 주요 투자자들이 참여한 10억 달러 규모의 시리즈 C 펀딩 라운드를 완료한 지 두 달 후에 제기되었다. 이번 라운드는 산호세 소재 회사의 기업 가치를 390억 달러로 평가했으며, 이는 Jeff Bezos, Nvidia, Microsoft로부터 투자를 받았던 2024년 초 기업 가치 대비 15배 증가한 것이다.Gruendel의 변호사는 CNBC에 캘리포니아 법이 안전하지 않은 관행을 보고하는 직원을 보호한다고 말하며, 이것이 휴머노이드 로봇 안전과 관련된 최초의 내부고발 소송 중 하나가 될 수 있다고 언급했다. Gruendel은 배심원 재판과 함께 경제적, 보상적, 징벌적 손해배상을 요구하고 있다.
795 조회
0 추천
2025.11.23 등록
Linus Tech Tips는 딥페이크 기술이 지난 5년 동안 제작이 훨씬 쉬워지고 더욱 그럴듯해졌음을 보여주며, 이 기술이 취약 계층을 노린 사기 등에 악용될 수 있다는 시급한 우려를 제기합니다.팀은 DeepFaceLab을 사용하여 라이너스 세바스찬의 얼굴 사진 7,000장으로 훈련된 딥페이크를 매우 그럴듯하게 제작했으며, 이 과정은 5년 전 시도에 비해 “적어도 100배는 더 쉬웠다”고 밝히기도 했습니다. 또한 일반 하드웨어와 상업용 도구만으로 완전히 AI 기반의 영상을 만들어냈습니다.2024년 전 세계 온라인 사기 피해액은 1조 달러를 넘어섰고, 북미 지역의 딥페이크 사기 사례는 2022년부터 2023년까지 1,740% 급증했으며, 이 영상은 시청자들이 이러한 빠르게 증가하는 위협을 인식하고 피할 수 있도록 돕는 것을 목표로 합니다.
792 조회
0 추천
2025.11.23 등록
개발자 Armin Ronacher는 2025년에도 AI 에이전트 구축이 여전히 어렵다고 주장하며, Vercel AI SDK와 같은 고수준 SDK 추상화는 실제 도구 사용을 처리할 때 제대로 작동하지 않아, 캐싱, 강화, 에이전트 루프 설계에 대한 더 나은 제어를 위해 Anthropic과 OpenAI의 네이티브 플랫폼 SDK로 회귀하게 된다고 설명한다.이 글은 명시적 캐시 관리가 자동 캐싱보다 예상외로 우수하다고 지적하며, Anthropic의 수동 캐시 제어는 개발자가 대화를 분할하고, 컨텍스트를 편집하며, 시스템 프롬프트 이후와 대화 기록 전반에 캐시 포인트를 배치하여 비용을 더 정확하게 예측할 수 있게 한다고 설명한다.Anthropic Claude 모델은 명시적 캐싱 전략을 통해 최대 90%의 비용 절감을 달성할 수 있지만, 에이전트 개발자들은 학습을 위한 상세한 실패 로깅의 이점과 모든 오류를 컨텍스트에 보존하는 데 따르는 토큰 비용 사이의 근본적인 긴장 관계에 직면한다.
798 조회
0 추천
2025.11.23 등록
Certora는 목요일 AI Composer의 출시를 발표했습니다. 이는 스마트 계약을 위한 인공지능 코드 생성에 형식 검증을 내장한 오픈소스 플랫폼으로, AI가 생성한 코드의 보안 취약점에 대한 우려가 높아지고 있는 상황에 대응합니다.텔아비브에 본사를 둔 이 보안 회사의 새로운 도구는 실행 전에 모든 코드 스니펫이 안전 요구사항을 충족하는지 수학적으로 검증함으로써 기존의 AI 코딩 보조 도구와 차별화됩니다. 이 플랫폼은 Aave, Lido, Uniswap을 포함한 주요 탈중앙화 금융 프로토콜에서 이미 사용 중인 Certora의 Prover 기술을 AI 생성 루프에 직접 통합합니다.AI 생성 코드의 보안 우려 증가이러한 시기는 AI 생성 코드의 보안 위험에 대한 증거가 증가하고 있음을 반영합니다. 100개 이상의 대규모 언어 모델을 분석한 2025년 Veracode 연구에 따르면, AI 생성 코드의 45%가 보안 취약점을 야기하며, 코드 생성 정확도의 발전에도 불구하고 보안 실패율은 정체 상태를 유지하고 있습니다. 연구 결과 AI 모델은 안전한 대안이 제시되었을 때 45%의 경우 안전하지 않은 코딩 방법을 선택했습니다.스마트 컨트랙트 보안은 여전히 중요하며, OWASP 스마트 컨트랙트 상위 10에 따르면 2024년에 접근 제어 취약점만으로 9억 5,300만 달러의 손실이 발생했습니다. Certora의 창립자이자 수석 과학자인 Mooly Sagiv는 “AI를 사용한다고 해서 안전을 타협해서는 안 됩니다”라고 말했습니다. “Certora AI Composer는 AI와 형식 검증이 함께 작동하여 스마트 컨트랙트 개발을 기본적으로 신뢰할 수 있게 만들 수 있음을 증명합니다”.오픈 소스 출시 및 산업 영향알파 버전은 12월 4일부터 GitHub에서 이용 가능하게 되며, 이날 Certora는 “AI Meets Verification: An Open Discussion with Certora Researchers”라는 제목의 라이브스트림을 개최할 예정입니다. 이 플랫폼은 통합된 형식 검증 검사, 맞춤형 안전 모듈을 위한 오픈소스 확장성, 그리고 Web3 프로토콜 전반에 걸쳐 1,000억 달러 이상의 총 예치 가치를 보호해 온 Certora Prover의 지원을 특징으로 합니다.형식 검증은 규제 기관들이 그 중요성을 인식하면서 주목을 받고 있습니다. 프랑스 금융 규제 당국은 2025년 스마트 계약 인증을 위한 이 기술을 승인하며, 다른 분석 방법에 비해 “코드의 무결성에 관해 더 높은 수준의 보증을 제공한다”고 언급했습니다. 미국 사이버 보안국장 역시 2024년에 형식 방법론을 “국가 소프트웨어 보안에 필수불가결한 것”으로 규정했습니다.
785 조회
0 추천
2025.11.23 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입