OpenAI全网疯传的53页PDF文档:计划2027年前开发出通用人工智能(英)-OPENAI-2024-53页.pdf

OpenAI全网疯传的53页PDF文档:计划2027年前开发出通用人工智能(英)-OPENAI-2024-53页.pdf
这份文档揭示了OpenAI秘密的AGI(通用人工智能)开发计划,并预测了实现时间表。以下是文档的关键要点: **核心论点:** * OpenAI正在秘密开发AGI,目标是在2027年实现。 * 实现AGI的关键在于模型规模(参数数量)和训练数据量。 * OpenAI已经开始了相关模型(Q*)的训练,并设定了初步的智商目标。 **具体内容:** * **模型信息:** * OpenAI于2022年8月开始训练一个125万亿参数的多模态模型,代号Arrakis,又名Q*。 * Q*模型在2023年12月完成训练,但由于推理成本高昂而被取消发布。 * 原本的GPT-5被取消,Gobi (GPT-4.5) 改名为 GPT-5。 * Q*模型最初计划命名为GPT-6,后改名为GPT-7。 * Q* 2025 (GPT-8) 计划在2027年发布,以实现完全AGI。 * Q*的智商增长目标:2023年48 IQ,2024年96 IQ(延迟),2025年145 IQ(延迟)。 * **AGI定义:** 文档将AGI定义为“能够完成聪明人可以完成的任何智力任务的人工智能”。 * **参数数量的重要性:** 文档强调了模型参数数量与智能水平之间的联系,指出人脑大约有100万亿个突触(参数)。 * **OpenAI的秘密:** 强调OpenAI正在进行“秘密”项目,该项目涉及训练一个可以处理图像、文本和其他数据的AI系统,这被认为是实现AGI最有希望的途径。 * **背后的推动力:** Microsoft对OpenAI进行了大量投资(100亿美元),这使得OpenAI能够获得足够的计算资源和数据来训练如此庞大的模型。 * **伦理担忧:** 文档暗示了AGI可能带来的潜在风险,并指出一些AI领域的领导者开始对AGI的发展速度表示担忧。未来生命研究所呼吁暂停AI开发。 * **Chinchilla scaling laws:** OpenAI 正在使用Chinchilla scaling laws来弥补小于人脑的参数带来的性能差距。 * **Q* :** Scott Aaronson 的评论表明,Q* 是一个多模式的,具有125 万亿参数的模型。 **其他信息:** * 文档引用了许多新闻报道、社交媒体帖子和研究论文,试图佐证其观点。 * 文档作者对Sam Altman(OpenAI CEO)的一些言论进行了分析,认为暗示着OpenAI已经接近或实现了AGI。 * 文档暗示了美国政府正在采取行动限制中国获得先进芯片,以阻止中国在AI领域取得领先地位。 * 该文档认为,Elon Musk的诉讼导致了AGI发布的延迟。
在线阅读 下载完整报告 | 4.41 MB | 53页
阅读和下载会消耗积分;登录、注册、邀请好友、上传报告可获取积分。
成为VIP会员可免费阅读和下载报告