OpenAI 警示生物科技 AI 風險
OpenAI近期針對新一代人工智慧(AI)模型的潛在風險發出公開警告,特別指出在生物醫學等領域,AI技術即將跨入更高層級,相關風險也隨之提升。其中,「生物武器門檻降低」成為外界關注焦點,因為未來即使是一般人,也可能在沒有深厚專業知識的前提下,藉由AI取得危險生物技術的應用方式。
OpenAI強調,AI雖然推動醫藥與生物研究突破,也有產生技術「雙刃劍」的隱憂。一方面,加速新藥研發、疾病診斷與治療,促進人類健康福祉;另一方面,相關模型若遭濫用,可能為生物武器製造提供便利。OpenAI內部負責安全體系的Johannes Heidecke點出,根據公司自訂的「風險預備框架」,目前已加強模型測試和引入新型防護措施,以預防AI遭不當利用。
值得注意的是,Heidecke認為:「AI的新手提升(novice uplift)效應值得警惕。以往只有具備專業生物學背景的人士有能力開發尖端技術,但隨著AI問世,門檻可能大幅降低。即使缺乏相關知識,一般人利用高階AI模型,理論上都可能獲得危險技術的指引。」外界關心的新一代推理模型o3,也被點名為未來可能需要高度關注的對象。
除了OpenAI之外,其他AI開發公司如Anthropic也有類似動作。日前該公司推出新一代模型Claude 4,同時加強安全設計,防止AI被利用於生物、核子等武器製造。這表明大型AI企業對於AI安全議題日益重視,並不斷提升防護規範。
為了防範潛在威脅,OpenAI計劃於近期召集非營利機構及政府研究專家,共同討論AI生物科技帶來的潛在風險,也將加強與美國國家實驗室等單位的合作,研究如何利用AI協助識別並反制惡意用途。OpenAI表示,強化產業界、學界、政府及公民社會的合作,是推動AI安全治理、減少風險的要素。
總結現階段觀察,隨著AI邊界不斷擴展,帶來巨大效益的同時,新的治理挑戰與風險管理議題也已浮現。如何在促進技術進步與保障人類安全之間取得平衡,成為下一個AI世代的共同考題。
智新聞