OpenAI o1预览版介绍

该模型为解决难题的一系列新的推理模型。现在可用。
2024年9月17日更新:对于01 -预览,速率限制现在是每周50个查询,对于01 -mini,速率限制现在是每天50个查询。
Openai开发了一系列新的人工智能模型,旨在让它们在做出反应之前花更多的时间思考。它们可以通过复杂的任务进行推理,解决比以前的科学、编码和数学模型更难的问题。
Openai用ChatGPT和我们的API发布了这个系列的第一篇文章。这是一个预览,我们期待定期更新和改进。除了这个版本,还包括下一个更新的评估,目前正在开发中。
它是如何工作的?
Openai训练这些模型,让它们在做出反应之前花更多的时间思考问题,就像人一样。通过训练,他们学会了完善自己的思维过程,尝试不同的策略,并认识到自己的错误。
在Openai的测试中,下一个模型更新在处理物理、化学和生物学中具有挑战性的基准任务时的表现与博士生类似。Openai还发现它在数学和编程方面表现出色。在国际数学奥林匹克(IMO)的资格考试中,gpt - 40只正确解决了13%的问题,而推理模型的得分为83%。他们的编码能力在竞赛中被评估,并在Codeforces竞赛中达到了第89百分位。您可以在我们的技术研究帖子中阅读更多相关内容。
作为一个早期的模型,它还没有很多使ChatGPT有用的功能,比如浏览网络信息和上传文件和图像。对于许多常见的情况,gpt - 40在短期内会更有能力。
但对于复杂的推理任务来说,这是一个重大的进步,代表了人工智能能力的一个新水平。鉴于此,Openai将计数器重置为1,并将此系列命名为OpenAI 01。
安全
作为开发这些新模型的一部分,Openai提出了一种新的安全培训方法,利用它们的推理能力使它们遵守安全和对齐指导方针。通过能够在上下文中推理我们的安全规则,它可以更有效地应用它们。
Openai衡量安全性的一种方法是测试如果用户试图绕过安全规则(称为“越狱”),我们的模型在多大程度上继续遵循安全规则。在我们最困难的越狱测试之一中,gpt - 40得分为22分(0-100分),而我们的1.0预览模型得分为84分。
为了配合这些模型的新功能,Openai加强了我们的安全工作、内部治理和联邦政府的合作。这包括使用Openai的准备框架(在新窗口中打开)进行严格的测试和评估,一流的红队和董事会级别的审查流程,包括Openai的安全与保障委员会。
为了推进对人工智能安全的承诺,Openai最近与美国和英国的人工智能安全研究所正式达成协议。Openai已经开始将这些协议付诸实施,包括允许各机构尽早使用该模型的研究版本。这是我们合作关系中重要的第一步,有助于建立一个在公开发布之前和之后对未来模型进行研究、评估和测试的过程。
是给谁的?
如果您正在处理科学、编码、数学和类似领域的复杂问题,这些增强的推理能力可能特别有用。例如,医疗保健研究人员可以使用o1来注释细胞测序数据,物理学家可以使用o1来生成量子光学所需的复杂数学公式,所有领域的开发人员都可以使用o1来构建和执行多步骤工作流程。