来源:Gangtise投研
AI基础设施 分析师表示,与GPT-4o相比,API端的OpenAI-o1在不复杂的问题下token的消耗增长幅度不明显,大概在10%左右,而且o1会慢很多;在遇到复杂问题时,API端o1的token的消耗会有200%~300%的增长。对于网页版的o1模型,为了保证页面整洁和展示思考步骤的条理性,其消耗的token数量非常高。在简单问题上,网页版o1的token消耗量是是4o的200%~300%。
来源:Gangtise投研
AI基础设施 分析师表示,与GPT-4o相比,API端的OpenAI-o1在不复杂的问题下token的消耗增长幅度不明显,大概在10%左右,而且o1会慢很多;在遇到复杂问题时,API端o1的token的消耗会有200%~300%的增长。对于网页版的o1模型,为了保证页面整洁和展示思考步骤的条理性,其消耗的token数量非常高。在简单问题上,网页版o1的token消耗量是是4o的200%~300%。
内容版权声明:除非注明,否则皆为本站原创文章。