Loading...

AI 뉴스

OpenAI GTP-5를 잘 쓰기 위한 프롬프트 가이드 공개

페이지 정보

작성자 JeromePark
작성일 08.12 08:33
67 조회
0 추천
0 비추천

본문

오픈AI가 출시하고 불만이 많아진 GPT-5를 잘쓰기 위한 프롬프트 가이드를 공개했다.

https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide?ref=blog.secondbrush.co.kr

이 가이드에서는 모델을 학습하고 실제 작업에 적용해 온 경험을 바탕으로 모델 출력의 품질을 극대화하기 위한 프롬프트 팁을 다루고 있다.. 에이전트 작업 성능 향상, 명령어 준수 보장, 새로운 API 기능 활용, 프런트엔드 및 소프트웨어 엔지니어링 작업을 위한 코딩 최적화 등의 개념을 살펴보고, GPT-5를 활용한 AI 코드 편집기 Cursor의 프롬프트 튜닝 작업에 대한 핵심 인사이트도 제공한다고..

가이드에 따르면, 

"모범 사례를 적용하고 가능한 한 표준 도구를 도입함으로써 상당한 성과를 거두었으며, 이 가이드와 저희가 개발한 프롬프트 최적화 도구가 GPT-5 사용의 발판이 되기를 바랍니다. 하지만 항상 그렇듯이 프롬프트는 모든 경우에 적용되는 것은 아니라는 점을 명심하십시오. 여기에 제시된 기반을 바탕으로 실험을 수행하고 반복하여 문제에 대한 최상의 해결책을 찾을 것을 권장합니다."라고 되어 있다.

f9780e005d9fbd3212df5245e81cb769IWcN.png

 

Goal: Get enough context fast.
목표: 빠르게 충분한 콘텍스트를 얻는다.

Parallelize discovery and stop as soon as you can act.
탐색을 병렬로 진행하고, 행동할 수 있게 되면 즉시 중단한다.

Method:
방법:

Start broad, then fan out to focused subqueries.
먼저 넓게 시작하고, 이후에는 구체적인 하위 쿼리로 확장한다.

In parallel, launch varied queries; read top hits per query. Deduplicate paths and cache; don’t repeat queries.
다양한 쿼리를 병렬로 실행하고, 각 쿼리의 상위 결과를 읽는다. 경로는 중복 제거하고 캐시에 저장한다. 동일한 쿼리를 반복하지 않는다.

Avoid over searching for context. If needed, run targeted searches in one parallel batch.
콘텍스트를 지나치게 탐색하지 않는다. 필요할 경우, 한 번의 병렬 배치로 목표 검색을 수행한다.

Early stop criteria:
조기 중단 기준:

You can name exact content to change.
변경할 정확한 내용을 지정할 수 있다.

Top hits converge (~70%) on one area/path.
상위 결과의 약 70%가 한 영역 또는 경로로 모인다.

Escalate once:
한 번에 에스컬레이션한다:

If signals conflict or scope is fuzzy, run one refined parallel batch, then proceed.
신호가 상충하거나 범위가 불분명하면, 정제된 병렬 배치를 한 번 실행한 후 진행한다.

Depth:
깊이:

Trace only symbols you’ll modify or whose contracts you rely on; avoid transitive expansion unless necessary.
변경하거나 의존하는 심볼만 추적하고, 필요하지 않다면 전이적인 확장은 피한다.

Loop:
반복:

Batch search → minimal plan → complete task.
배치 검색 → 최소 계획 → 작업 완료.

Search again only if validation fails or new unknowns appear. Prefer acting over more searching.
검증에 실패하거나 새로운 미지의 요소가 나타난 경우에만 다시 검색한다. 추가 검색보다는 행동을 우선한다.

댓글 0
전체 105 / 1 페이지
- 최근 월 약 28만 원(200달러) 구독료로 800만 원 상당의 토큰을 사용하는 '추론 고래'(Inference whales) 개발자들이 다수 등장.- 일부 헤비유저 때문에 앤트로픽, 바이브 코딩 등 AI 스타트업의 수익성 악화 논란.- 대표적으로 한 사용자는 한 달간 51억 토큰(806만 원치 API 비용)에 달하는 클로드 코드 사용. 상위 169명은 한 달간 2777억 토큰 소비.- 서비스 업체들은 남용 방지 위해 무제한 요금제에 주간 사용량 제한 등 도입, 별도 초과 요금 부과 시작(8/28부터).- 비용 하락에도 최고 모델 수요는 여전히 높으며, AI 활용 워크플로우 확대에 따라 실제 토큰 사용량은 증가.- 전문가들은 "AI 추론 비용 감소가 현실적으로 어렵고, 무제한 요금제는 지속 불가능"이라는 의견 제시
3 조회
0 추천
14:36 등록
이 사업은 공무원이 보안 걱정 없이 다양한 생성형 AI 서비스를 활용하도록 관련 플랫폼과 거대언어모델(LLM), 컴퓨팅 자원(GPU 등) 등을 제공하는 게 목적이다. 행안부는 오는 11월 일부 서비스를 시범 제공할 계획이다. 삼성SDS 컨소시엄에 포함된 AI 플랫폼 2종(삼성SDS 패브릭스, 네이버 하이퍼스튜디오)과 LLM 모델 6개를 선정해 우선 서비스한다. 공무원은 이들 가운데 원하는 플랫폼과 LLM을 활용, AI를 업무에 적용해볼 수 있다.-> 우리가 아는 흔한 LLM모델을 쓸 수 있다는 말인가?
4 조회
0 추천
14:33 등록
오픈AI는 2025년 8월 17일부터 챗GPT의 응답 톤을 보다 따뜻하고 친근하게 조정하는 업데이트를 적용했습니다. 이로 인해 대화가 더 자연스럽고 사용자 친화적으로 느껴집니다. 기존에는 정보 위주의 다소 딱딱한 응답이 주를 이뤘다면, 이제는 감정 표현이 더 풍부해졌습니다. 예를 들어, 이전에는 "오늘 서울 날씨는 맑음, 기온 25도입니다"라는 응답이었다면, 이제는 "서울 오늘 날씨가 정말 좋아요! 맑고 기온 25도라 나들이 가기 딱 좋겠네요!"처럼 보다 생동감 있는 답변을 제공합니다. 사용자 피드백에 따르면 대화의 자연스러움이 약 20% 향상되었습니다.PS. 그래서 그런지 자꾸 반말을 하네요...
6 조회
0 추천
12:16 등록
구글 딥마인드가 초경량 AI 모델 '젬마 3 270'(2억 7천만 매개변수)을 오픈소스로 공개했습니다. 이 모델은 휴대폰, 노트북, 웨어러블 기기 등 저전력 장치에서도 고효율로 작동하도록 설계되었습니다. 특히, 개발자 커뮤니티를 지원하기 위해 무료로 제공되는 '제미나이 CLI 깃허브 액션'과 함께, AI 코딩 협업 도구로 주목받고 있습니다. 이는 소규모 개발자나 스타트업이 AI를 쉽게 활용할 수 있게 돕는 흥미로운 움직임입니다.젬마는 간단히 사용할 수 있습니다. 사용방법은 아래와 같습니다.- 구글 딥마인드의 깃허브 저장소 또는 Hugging Face 모델 허브에서 젬마 3 270을 다운로드합니다.- Python 환경에서 pip install gemma 명령어로 설치합니다.- gemma run --model gemma-3-270m 명령어를 실행하여 모델을 사용할 수 있습니다.
3 조회
0 추천
12:13 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입