2026-03-08 작업 요약

주제: OpenClaw에서 ChatGPT Pro Shortcut 중심 구성을 점검하고, OpenAI Codex OAuth를 공식 경로에 가깝게 연결한 뒤 텔레그램 라우팅 구조를 재정비했다.

  1. 배경 기존 구성은 ChatGPT Pro Shortcut, 로컬 Ollama, OpenRouter free fallback이 섞여 있었고, 실제 텔레그램 사용 중 shortcut failed rc=1, OpenRouter 429, auth cooldown 같은 문제가 연쇄적으로 발생했다. 이 구조는 성능보다 운영 안정성에서 문제가 컸다.

  2. Shortcut 경로 점검 ChatGPT Pro Shortcut 경로에 대해 stderr를 버리지 않도록 수정하고, 요청 단위 디버그 로그와 재시도 로직을 추가했다. 또한 shortcut-openai proxy에 감사 로그를 붙여 요청, 직렬화 프롬프트, 응답, 에러를 JSONL로 남기도록 바꿨다. 이후 동일 요청을 재실행하는 replay 스크립트와, 과거 세션 로그에서 실패 직전 사용자 메시지를 추출하는 스크립트도 만들었다.

  3. 과거 실패 원인 분석 예전 실패 세션을 확인한 결과, 대표적으로 "ollama 기동시키고 qwen3 4b instruct 모델 사용할수 있게 다운받아놔줘", "지금 할 수 있는게 뭐야?" 같은 요청 직후 shortcut failed rc=1 이 반복되었다. 하지만 현재 같은 요청을 다시 실행하면 정상 응답이 나온다. 따라서 문제는 특정 문장 자체보다 macOS Shortcuts 실행 경로의 간헐 실패일 가능성이 높다고 판단했다.

  4. Codex OAuth 상태 확인 codex login status 결과는 Logged in using ChatGPT 였고, 로컬 Codex auth 파일에서도 ChatGPT Pro 구독 상태가 확인되었다. 다만 현재 OpenClaw 2026.2.12 설치본에서는 openclaw models auth login --provider openai-codex 가 provider plugin 부족으로 바로 동작하지 않았다.

  5. OpenClaw에 OpenAI Codex OAuth 연결 Shortcut 설정은 유지한 채, OpenClaw auth store에 openai-codex OAuth 프로필을 수동 연결했다. 그 결과 openai-codex/gpt-5.3-codex 모델이 OpenClaw에서 인식되었고, 실제 짧은 질의 테스트에서 provider=openai-codex, model=gpt-5.3-codex 로 응답이 성공했다.

  6. 기본 모델과 라우팅 재구성 기본 모델은 로컬 qwen3:8b 에서 openai-codex/gpt-5.3-codex 로 변경했다. 추가로 codex52 agent를 만들어 openai-codex/gpt-5.2-codex 를 별도 라우트로 붙였다. 텔레그램 브리지 명령은 다음처럼 재정리했다.

  1. 벤치마크 간단한 질문 "한국의 수도 한 단어" 기준으로 내부 호출 경로를 측정했다.
  1. 확인된 제약 openai-codex/gpt-5.1-codex 는 현재 설치본에서 configured 상태로 등록은 가능했지만 실제 호출 시 Unknown model 이 발생했다. 따라서 운영 라우팅에서는 제외했다.

  2. 현재 결론 오늘 기준 최적 운영안은 OpenAI Codex OAuth를 기본으로 사용하고, Shortcut은 수동 옵션, 로컬 Ollama는 백업 경로로 두는 구조다. 이 구성이 속도, 품질, 안정성의 균형이 가장 좋았다.