염산하

@[email protected] · Reply to 염산하's post

Simon Willison의 o3-mini에 대한 노트 (simonwillison.net) https://news.hada.io/topic?id=19018

이제 기존 GPT-4o, o1, o1 Pro 등에 이어 사용 목적에 따라 어떤 모델을 선택할지 결정해야 하는 상황 o3-mini가 GPT-4o, o1보다 우수하지만, 모든 항목에서 일관적으로 높은 것은 아님 Codeforces ELO 같은 경쟁 프로그래밍 성능 관련 벤치마크 지표에서 특히 좋은 성능을 보임 OpenAI는 o3-mini를 이용해 인터넷 검색 후 ChatGPT에서 결과를 요약하도록 허용할 예정. 기존 o1 모델은 웹 검색 툴을 ChatGPT에서 사용하지 않았기 때문에, 이번 기능 추가의 활용성이 주목됨 o3-mini의 최대 출력 토큰 제한은 100,000개임 GPT-4o(16,000개), DeepSeek R1(8,000개), Claude 3.5(8,000개)보다 훨씬 큼 내부 추론에 쓰이는 토큰도 이 한도 내에서 소모되므로 실제 출력이 100,000개에 다다르긴 어려울 수 있음 입력 토큰은 최대 200,000개가 가능하며, GPT-4o의 128,000개보다 확장된 용량 장문의 번역 작업 등에 활용 가능성이 높아 보임 Hacker News에서 전문 번역가 Tom Gally의 코멘트가 흥미로움 DeepSeek R1, o3-mini 모두 긴 텍스트 번역 시 후반 품질 저하를 보였다는 언급 R1은 후반 일부 문단을 생략했고, o3-mini는 특이한 축약형 문체를 사용했음(명사들 사이에 and 대신 / 를 사용) 이전에 ChatGPT, Claude, Gemini 등은 같은 텍스트 번역에서는 이런 문제를 보이지 않았다는 의견