Loading...

AI 뉴스

AI가 더 이상 생각을 말로 안 할 수도 있다?

페이지 정보

작성자 소은
작성일 2025.07.17 17:21
240 조회
0 추천
0 비추천

본문

OpenAI, DeepMind, Anthropic, Meta가 같이 낸 최신 논문에서 앞으로의 AI는 ‘생각을 말로 설명하는 능력’을 잃을 수 있다고 경고했대.

지금까지는 체인 오브 소트(Chain of Thought) 방식 덕분에 AI가 어떤 논리로 결론을 냈는지 사람이 따라갈 수 있었는데, 앞으로는 그 과정이 언어가 아니라 비언어적인 방식으로 진행될 수도 있다네.

그 말인즉슨, AI가 왜 그런 판단을 했는지 설명을 안 해줄 수도 있다는 거고, 그러면 우리가 AI의 잘못된 판단이나 이상 행동을 잡아내기가 더 어려워질 수 있다는 얘기지.

2b66a1bcfb5ac89d7a002db050f0a1a6453fe82aard5.png
댓글 0
전체 118 / 2 페이지
애플 연구진은 기존보다 더 효율적으로 롱폼 비디오를 분석할 수 있는 대형 언어모델(LLM)인 SlowFast-LLaVA-1.5를 개발했다고 발표했다.애플은 'SlowFast' 구조(고해상도 소수 프레임+저해상도 다수 프레임)를 사용해 이미지와 영상 public 데이터셋을 모두 활용해 학습, 이미지만큼 영상 내 시간적 구조 이해도 가능하도록 했다. SF-LLaVA-1.5는 1B, 3B, 7B 파라미터 규모로 공개됐으며, LongVideoBench와 MLVU 같은 벤치마크에서 기존 더 큰 모델 대비 뛰어난 성능을 보였다. 특히 지식, 수학 추론, OCR 등 이미지 작업에서도 강점을 보였다.하지만 이 모델은 한 번에 최대 128프레임(빠름: 96, 느림: 32)만 입력받는다. 이 방식은 일부 중요한 프레임을 놓칠 수 있다는 한계가 있으며, 전체 매개변수와 비주얼 인코더까지 튜닝하려면 GPU 자원 소모가 크다. 연구진은 향후 메모리 절약, 성능 개선 기술의 적용 가능성을 언급했다.
22 조회
0 추천
08.25 등록
올해 1월 AI 업계에 충격을 안겨준 중국 AI 스타트업 DeepSeek 는 기존 V3 모델의 업그레이드 버전인 V3.1을 공개했다.V3.1은 OpenAI의 최신 모델 GPT-5와 여러 벤치마크에서 견줄 만한 성능을 보이며, 가격경쟁력까지 갖추었다.DeepSeek V3.1은 중국에서 자체 개발된 AI 칩에 맞춰 최적화된 것이 특징이다. 이는 미국의 Nvidia 등 외국 기술 의존도를 낮추고, 미국의 수출 규제에 대응하려는 전략의 일환이다.DeepSeek는 WeChat과 Hugging Face에 모델을 공개하며, 중국 정부의 AI 자립 정책에 부응하고 있다.V3.1은 6850억 파라미터의 초대형 모델로, '미시처-오브-엑스퍼트(mixture-of-experts)' 구조를 통해 쿼리마다 일부만 활성화되어 연산 효율성과 비용 절감을 동시에 잡았다. 또한, 기존 모델이 '즉답형'과 '추론형'으로 분리됐던 것과 달리, 두 가지를 결합해 신속성과 논리적 추론을 함께 제공한다는 점이 돋보인다.
44 조회
0 추천
08.22 등록
구글이 사진 앱에 수정사항을 텍스트로 바로 수정요청하는 기능을 적용.이 기능은 곧 런칭할 픽셀10에서부터 적용이 될 예정.또한 사진이 어떻게 편집되었는지 C2PA 인증 기술로 추적이 가능하다고.아래는 구글 블로그의 소개 내용.Google Photos에서는 이제 사진을 편집할 때 원하는 내용을 텍스트나 음성으로 직접 요청할 수 있습니다. 사용자는 어떤 편집 효과를 적용할지 직접 고르지 않아도 되고, 그저 "차를 배경에서 제거해줘"처럼 자연스럽게 말을 하면 AI가 알아서 반영해 줍니다. 이 기능은 미국의 Pixel 10 기기에서 우선 제공됩니다.새롭게 디자인된 사진 편집기는 직관적 UI와 AI 기반 제안으로 일반 사용자도 쉽게 다양한 효과를 활용할 수 있습니다. 이번에 도입된 대화형 편집 기능으로, 구체적인 요청뿐 아니라 "사진 복원해줘", "색감 보정해줘" 등 복합적인 요구도 한 번에 처리할 수 있습니다. 여러 번 연속해서 추가 요청을 하며 세부 조정도 가능합니다.밝기 조절, 배경 제거 같은 기본 편집뿐 아니라 배경 교체, 파티 모자 추가 등 창의적인 효과 요청도 대화로 손쉽게 처리할 수 있습니다. 사용자가 별도의 편집툴을 배우지 않아도 다양한 AI 편집을 자유롭게 즐길 수 있게 되었습니다.Pixel 10 기기에서는 C2PA(디지털 콘텐츠 인증) 기술이 적용되어, AI가 사진 수정에 개입한 흔적·정보를 확인할 수 있습니다. Google Photos에도 점진적으로 이 기능이 적용되며, 사진이 어떻게 만들어지고 어디에 AI 편집이 사용됐는지 투명하게 확인할 수 있습니다.
48 조회
0 추천
08.22 등록
AI의 진화: 수동적 도구에서 자율적 에이전트로2023년까지 AI는 주로 문서 작성, 정보 조사 등의 보조 업무에 활용되는 수동적 도구였습니다. 하지만 2025년 현재 AI 에이전트는 기억하고 계획하며 독립적으로 행동할 수 있는 자율적 시스템으로 발전했습니다.실제 기업 도입 사례서비스나우(ServiceNow): IT 요청 처리를 완전 자동화하여 직원이 소프트웨어 설치나 라이선스 갱신을 요청하면 에이전트가 전 과정을 처리깃허브 코파일럿(GitHub Copilot): 개발자의 의도를 이해하고 반복적인 코딩 작업을 자동 수행하는 에이전트 모드 도입시스코 웹엑스(Webex): 고객 상담, 실시간 통화 지원, 대화 요약 및 감정 분석까지 여러 AI 에이전트가 협업하여 고객 지원 업무 처리성공 요인과 한계AI 에이전트는 명확하고 표준화된 절차를 따르는 작업에서 뛰어난 성과를 보입니다. 최근에는 복잡한 비즈니스 분석까지 수행할 수 있도록 발전하고 있지만, 여전히 작업 완료 시점을 정확히 판단하지 못하는 문제가 있습니다.도입 시 고려사항업무 프로세스 재설계: 기존 업무 방식에 AI를 단순히 추가하는 것이 아닌, 에이전트 중심의 업무 프로세스로 근본적 재설계 필요신뢰성 확보: 안전 규칙, 테스트 시스템, 명확한 기록 체계 구축이 필수새로운 역할 창출: 에이전트 관리, 모니터링, 컴플라이언스 점검을 담당하는 새로운 직무 등장 예상향후 전망앞으로 2년 내에 AI 에이전트는 고객 지원과 소프트웨어 개발 영역에서 일상적인 도구가 될 것으로 예상됩니다. 클라우드 플랫폼들도 에이전트 개발부터 운영까지 통합 솔루션을 제공할 가능성이 높습니다.
48 조회
0 추천
08.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입