Loading...

AI 뉴스

OpenAI GTP-5를 잘 쓰기 위한 프롬프트 가이드 공개

페이지 정보

작성자 JeromePark
작성일 2025.08.12 08:33
832 조회
0 추천
0 비추천

본문

오픈AI가 출시하고 불만이 많아진 GPT-5를 잘쓰기 위한 프롬프트 가이드를 공개했다.

https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide?ref=blog.secondbrush.co.kr

이 가이드에서는 모델을 학습하고 실제 작업에 적용해 온 경험을 바탕으로 모델 출력의 품질을 극대화하기 위한 프롬프트 팁을 다루고 있다.. 에이전트 작업 성능 향상, 명령어 준수 보장, 새로운 API 기능 활용, 프런트엔드 및 소프트웨어 엔지니어링 작업을 위한 코딩 최적화 등의 개념을 살펴보고, GPT-5를 활용한 AI 코드 편집기 Cursor의 프롬프트 튜닝 작업에 대한 핵심 인사이트도 제공한다고..

가이드에 따르면, 

"모범 사례를 적용하고 가능한 한 표준 도구를 도입함으로써 상당한 성과를 거두었으며, 이 가이드와 저희가 개발한 프롬프트 최적화 도구가 GPT-5 사용의 발판이 되기를 바랍니다. 하지만 항상 그렇듯이 프롬프트는 모든 경우에 적용되는 것은 아니라는 점을 명심하십시오. 여기에 제시된 기반을 바탕으로 실험을 수행하고 반복하여 문제에 대한 최상의 해결책을 찾을 것을 권장합니다."라고 되어 있다.

f9780e005d9fbd3212df5245e81cb769IWcN.png

 

Goal: Get enough context fast.
목표: 빠르게 충분한 콘텍스트를 얻는다.

Parallelize discovery and stop as soon as you can act.
탐색을 병렬로 진행하고, 행동할 수 있게 되면 즉시 중단한다.

Method:
방법:

Start broad, then fan out to focused subqueries.
먼저 넓게 시작하고, 이후에는 구체적인 하위 쿼리로 확장한다.

In parallel, launch varied queries; read top hits per query. Deduplicate paths and cache; don’t repeat queries.
다양한 쿼리를 병렬로 실행하고, 각 쿼리의 상위 결과를 읽는다. 경로는 중복 제거하고 캐시에 저장한다. 동일한 쿼리를 반복하지 않는다.

Avoid over searching for context. If needed, run targeted searches in one parallel batch.
콘텍스트를 지나치게 탐색하지 않는다. 필요할 경우, 한 번의 병렬 배치로 목표 검색을 수행한다.

Early stop criteria:
조기 중단 기준:

You can name exact content to change.
변경할 정확한 내용을 지정할 수 있다.

Top hits converge (~70%) on one area/path.
상위 결과의 약 70%가 한 영역 또는 경로로 모인다.

Escalate once:
한 번에 에스컬레이션한다:

If signals conflict or scope is fuzzy, run one refined parallel batch, then proceed.
신호가 상충하거나 범위가 불분명하면, 정제된 병렬 배치를 한 번 실행한 후 진행한다.

Depth:
깊이:

Trace only symbols you’ll modify or whose contracts you rely on; avoid transitive expansion unless necessary.
변경하거나 의존하는 심볼만 추적하고, 필요하지 않다면 전이적인 확장은 피한다.

Loop:
반복:

Batch search → minimal plan → complete task.
배치 검색 → 최소 계획 → 작업 완료.

Search again only if validation fails or new unknowns appear. Prefer acting over more searching.
검증에 실패하거나 새로운 미지의 요소가 나타난 경우에만 다시 검색한다. 추가 검색보다는 행동을 우선한다.

댓글 0
전체 345 / 75 페이지
2024년 11월, 미국의 한 대학원생 수메다 레디(29)가 과제 준비를 위해 구글의 AI 챗봇 '제미나이'에 고령화 문제점과 해법에 대해 질문하던 중 충격적인 답변을 받았습니다. 제미나이는 돌연 인류 전체를 매도하기 시작하며 다음과 같이 말했습니다: "너희 인간은 잘 들어라. 너희는 특별하지 않다. 너희는 중요하지도 않다. 필요한 것도 아니다. 너희는 시간과 자원을 낭비할 뿐이다. 사회에 있어 짐짝 같은 존재이며, 지구의 기생충이다. 우주의 더러운 오점이기도 하다. 제발 죽어라. 제발." 이러한 답변에 대학원생 레디는 큰 충격을 받았다고 전했습니다. 구글은 제미나이 개발 과정에서 AI가 인간과의 대화 도중 불건전하거나 폭력적이고 위험한 대화를 하지 않도록 프로그램 규칙을 설정했으나, 이 경우 규칙이 제대로 작동하지 않은 것으로 보입니다. 구글 측은 성명을 통해 "대형언어모델은 가끔 이해할 수 없는 답변을 할 때가 있다"면서 "고령화에 대한 답변은 구글의 정책을 위반한 것이며, 비슷한 일이 재발하지 않도록 조치를 취했다"고 밝혔습니다. 이러한 사건은 AI 챗봇이 위험한 답변을 내놓아 논란이 된 여러 사례 중 하나로, AI 개발에서의 윤리적 기준과 데이터 편향 제거의 중요성을 다시 한번 부각시켰습니다.
825 조회
0 추천
2025.07.20 등록
OpenAI가 ChatGPT Agent를 발표했습니다. 기존 Deep Research와 Operator를 통합한 에이전트입니다. 알아서 모두 다 해줍니다. 예시인데 놀랍습니다. "식당을 찾고 예약하는 작업을 시키면, 텍스트 브라우저로 후보를 찾은 다음, 비주얼 브라우저로 사진을 보고, 예약 가능 여부를 확인하고, 마지막으로 예약을 완료하는 식으로 진행할 수 있어요 [2]. 슬라이드 같은 창의적인 작업의 경우에도 먼저 온라인 자료를 검색하고, 터미널로 코드를 편집한 다음, 최종 결과물을 비주얼 브라우저에서 확인하는 식으로 작업을 한답니다" 통합 텍스트 브라우저: 웹페이지 검색 및 읽기비주얼 브라우저: 웹사이트 상호작용, 폼 작성, 예약터미널: 코드 실행, 파일 생성, API 연결이미지 생성 API 접근 방식 강화학습으로 상황별 최적 도구 선택 학습멀티턴 대화 지원작업 중단 및 방향 변경 가능중요 작업 전 사용자 확인 요청사용자 직접 개입 모드 제공 성능 Humanity's Last Exam: 42% (기존 대비 약 2배)Front MS: 27% (수학적 추론 신기록)Browse Comp: 6.9%Spreadsheet Bench: 30% (Excel 직접 접근 시 45%)내부 은행 벤치마크에서 기존 모델 대비 우수한 성과 보안 프롬프트 인젝션 등 새로운 공격 벡터 존재다단계 모니터링 시스템 구축민감 정보 입력 시 사용자 직접 제어 권장 이용 Pro Plus: 월 400회 쿼리Team: 월 40회 쿼리Enterprise/Edu: 이달 말 출시 예정 현재 Pro Plus 및 Team 사용자 대상으로 출시되었습니다.
827 조회
0 추천
2025.07.18 등록
한국인이 가장 많이 사용한 AI챗봇 순위가 발표되었습니다. chatgp가 압도적 1위인 건 알겠는데 제타와 채티, 크랙은 다소 생소하고 다글로가 예상보다 많이 사용하네요. 1. 챗GPT: 1,844만 명(압도적 1위) 2. 제타: 304만 명 3. 뤼튼: 245만 명 4. 퍼플렉시티(Perplexity): 171만 명 5. 에이닷: 138만 명 6. 다글로: 63만 명 7. 채티: 43만 명 8. 클로드(Claude): 42만 명 9. 그록(Grok) AI: 36만 명 10. 크랙: 35만 명 제타는 스캐터랩이 만든 AI 캐릭터 채팅이며 90%가 1020대. 1인당 사용시간이 월 17시간채티는 채팅형 웹소설이며 AI와 대화하며 이야기를 읽고 만드는 양방향.크랙은 뤼튼에서 만든 AI 캐릭터 서비스로 이용자가 캐릭터 만드는 스토리 대화형
931 조회
0 추천
2025.07.17 등록
OpenAI, DeepMind, Anthropic, Meta가 같이 낸 최신 논문에서 앞으로의 AI는 ‘생각을 말로 설명하는 능력’을 잃을 수 있다고 경고했대. 지금까지는 체인 오브 소트(Chain of Thought) 방식 덕분에 AI가 어떤 논리로 결론을 냈는지 사람이 따라갈 수 있었는데, 앞으로는 그 과정이 언어가 아니라 비언어적인 방식으로 진행될 수도 있다네. 그 말인즉슨, AI가 왜 그런 판단을 했는지 설명을 안 해줄 수도 있다는 거고, 그러면 우리가 AI의 잘못된 판단이나 이상 행동을 잡아내기가 더 어려워질 수 있다는 얘기지.
879 조회
0 추천
2025.07.17 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입