▲輝達(NVIDIA)執行長黃仁勳。(圖/路透)
記者張靖榕/綜合報導
隨著大型語言模型(LLM)規模不斷擴大,OpenAI等人工智慧公司在追求更高效的AI模型過程中遇到挑戰。這些公司正在探索、開發模仿人類思考的訓練技術,幫助演算法進行運算。訓練法的轉變,可能改變AI競賽的格局;揮達執行長黃仁勳此前也表示,發現推理階段「第二擴展法則」,能大幅推進最新的AI晶片。
路透社報導,12位AI科學家、研究員和投資人透露,這些技術已應用於OpenAI最新發布的o1模型,可能重塑AI技術競賽,並對能源、晶片類型等AI公司需求的資源產生深遠影響。
廣受熱議的ChatGPT自2年前問世以來,科技公司普遍認為,透過增加數據量和計算能力來「擴展」現有模型,能夠不斷改進AI。然而,隨著技術發展,一些AI領域的知名科學家開始質疑這種「越大越好」的模式;OpenAI與Safe Superintelligence(SSI)聯合創辦人蘇茨克維爾(Ilya Sutskever)表示,透過「預訓練」大規模未標註數據來理解語言模式的成果已經出現瓶頸。
蘇茨克維爾早期即主張透過擴大數據量與計算資源來推動生成式AI的進步,這一理念最終催生了ChatGPT。然而,蘇茨克維爾已於今年離開OpenAI,創立SSI,並致力於探索新的AI擴展方式。他表示:「2010年代是擴展的時代,而現在我們回到了探索與發現的年代。大家都在尋找下一個突破點。如今,擴展正確的方式比以往更重要。」
根據3位知情人士的說法,主要AI實驗室的研究人員在研發超越GPT-4的下一代大型語言模型時,遇到了延遲和成果不如預期的困難。這些挑戰反映出只依靠更大的數據量與計算能力並不能一直持續下去,促使AI領域重新思考技術創新的新方向。
SSI現正致力於開發一種替代性的方法,雖然蘇茨克維爾並未詳細透露該方法的內容,但這一探索可能會為AI技術的未來帶來新的可能性。隨著競爭加劇,各大AI公司也面臨資源需求的壓力,從能源到專用晶片的需求持續攀升,而這些資源的合理分配成為未來AI競賽的一大關鍵。
此一趨勢可能改變AI硬體需求格局,目前揮達的AI晶片在訓練市場佔據主導地位,但在推理市場將面臨更多競爭,對此,該公司對新技術的需求保持樂觀。執行長黃仁勳10月在印度一場會議上也表示,輝達發現了推理階段的「第二擴展法則」,為該公司最新AI晶片Blackwell的需求帶來了巨大提升。
讀者迴響