OpenAI 的新一代大語言模型 Orion 面臨著前所未有的挑戰。與之前的 GPT-3 到 GPT-4 的升級相比,Orion 的性能提升並未達到預期,特別是在編程任務上,甚至不如 GPT-4 可靠。這讓許多期待已久的用戶感到失望。
訓練高質量文本和數據的供應減少,導致大語言模型的發展放緩。OpenAI 的研究人員發現,隨著規模的增加,性能提升會逐漸減少,這就是所謂的擴展定律。這意味著目前的大語言模型可能已經接近擴展定律的極限,未來的性能提升將變得更加困難。
此外,訓練和運行 Orion 的成本變得更加昂貴,這可能使得在經濟上不可行。OpenAI 為此成立了基礎團隊,專門研究如何應對訓練數據匱乏和模型擴展定律的挑戰。這些挑戰不僅影響到 OpenAI,也對整個 AI 行業提出了新的問題。
預計到 2026 年至 2032 年之間,大語言模型的發展將耗盡現有的公共人類文本數據資源。儘管面臨經濟和數據挑戰,OpenAI 和其他 AI 開發商仍在努力提升模型性能。OpenAI 的研究人員認為,AI 的整體發展不會很快放緩,並將重心轉向在初始訓練後再對模型進行提升的模式。
Orion 預計在 2025 年推出,命名為 Orion 而非 GPT-5,這可能暗示著一場新的革命。儘管目前面臨理論限制,仍期待 Orion 能給 AI 大模型帶來新的轉機。OpenAI 的未來發展方向將在很大程度上取決於他們能否克服這些挑戰,並找到新的方法來提升模型性能。