美國AI政策從'安全”到'安全”急劇旋轉
President Donald Trump rescinded former President Joe Biden's AI Executive Order on day one of his term (disclosure: I served as senior counselor for AI at the Department of Homeland Security during the Biden administration), and Vice President JD Vance opened up the Paris AI Action Summit, a convening that was originally launched to advance the field of AI safety, by firmly stating that he was not actually there to discuss AI safety and would instead be addressing “AI opportunity.”萬斯繼續說,美國將“保護美國人工智能”,並阻止對手獲得“威脅我們所有人民”的AI能力。
如果沒有更多的背景,這些聽起來像是毫無意義的流行語 - AI安全和AI安全性有什麼區別,這種轉變對繼續採用AI的消費者和企業意味著什麼?
簡而言之,AI安全主要集中於以道德和可靠的行為方式開發AI,尤其是在高風險環境(例如招聘或醫療保健)中使用時。為了幫助防止AI系統造成傷害,AI安全立法通常包括風險評估,測試協議和對人類監督的要求。
相比之下,人工智能安全並不是要建立道德和安全的AI。相反,它假設美國的對手將不可避免地以惡意方式使用AI,並試圖捍衛美國資產免受故意威脅,例如競爭對手被競爭國家利用AI來針對美國關鍵基礎設施。這些不是假設的風險 - 美國情報機構繼續追踪中國,俄羅斯和朝鮮的進攻性網絡運營。為了應對這些類型的故意攻擊,組織需要強大的網絡安全實踐基線,這也解釋了AI提出的威脅。
這兩個領域都很重要且相互聯繫 - 那麼為什麼最近幾個月似乎黯然失色呢?我猜想,優先考慮AI安全性與當今外交政策的氛圍本質上更加一致,其中最流行的世界觀是對地緣政治和經濟優勢國家中無情競爭的現實主義描述。優先考慮AI安全旨在保護美國免受對手的侵害,同時維持美國在AI中的全球統治地位。另一方面,人工智能安全可能是有關言論自由和不公平偏見的政治辯論的避雷針。給定AI系統是否會造成實際傷害的問題也取決於上下文,因為在不同環境中部署的同一系統可能會產生截然不同的結果。
面對如此多的不確定性,再加上關於真正構成公眾傷害的政治分歧,立法者一直在努力證明通過安全立法的合理性,這可能會阻礙美國的競爭優勢。中國人工智能公司DeepSeek的消息以大幅降低的成本與我們的AI模型達到了競爭性能,僅重申了這一舉動,這使人們對美國和中國AI能力之間穩步減少的差距穩定減少。
當聯邦安全立法的幽靈不再籠罩著時,現在會發生什麼? Openai , Anthropic和其他人對特朗普政府即將發布的“ AI行動計劃”的公眾評論提供了有趣的圖片,說明了AI優先事項的變化。首先,“安全”幾乎沒有出現在行業的意見書中,在提到安全問題的地方,它們被改造為國家安全風險,在美國爭奪中國的競爭中可能不利。通常,這些提交規定了一系列對創新友好的政策,從平衡的AI培訓版權規則到對半導體和其他有價值的AI組件(例如模型權重)的導出控制。
除了試圖滿足特朗普政府在AI上的最初消息傳遞的精神外,這些意見似乎還揭示了公司認為美國政府在AI方面的作用應是什麼:資助基礎設施對進一步的AI開發,保護美國IP,保護AI的基礎設施至關重要,僅在威脅我們國家安全的範圍內對AI進行監管。對我來說,這對AI公司的策略轉變不僅僅是通信轉變。如果有的話,這些行業的這些評論似乎比以前要求強大而全面的數據立法的呼籲更加與眾不同。
即使那樣,並不是該行業中的每個人都支持對我們AI主導地位的無人駕駛措施。在他們的論文《超級智能策略》中,三種著名的AI聲音,埃里克·施密特(Eric Schmidt),丹·亨德里克斯(Dan Hendrycks)和亞歷山大·王(Alexandr Wang)建議謹慎謹慎,以追求曼哈頓項目風格的推動超級智能AI的推動。作者相反,提出了“相互保證的AI故障”或Maim,這是一種防禦戰略,讓人聯想起冷戰時代的威懾,這將有力抵抗任何以國家領導的努力來實現AI壟斷的努力。
如果美國要採取此策略,則需要禁用威脅AI項目,限制對先進的AI芯片和開放式體重模型的訪問,並加強國內芯片製造。據作者說,這樣做將使美國和其他國家能夠和平推進AI創新,同時降低了使用AI的流氓參與者的總體風險來造成廣泛的損害。
有趣的是,隨著特朗普政府在AI上形成更詳細的立場,這些建議是否在未來幾個月內獲得吸引力。我們應該期望看到更多這樣的建議,特別是那些持續關注AI的地緣政治風險和機會的建議,只有在有助於防止大規模災難的範圍內提出立法,例如產生生物武器或對美國關鍵美國資產的外國攻擊。
不幸的是,當您停止關注它們或重命名安全機構時,安全問題不會消失。在加強我們的安全姿勢的同時,可能有助於提高我們的競爭優勢並應對外國攻擊,而安全乾預措施有助於防止對個人或社會的損害。
現實情況是,AI安全和保障工作是攜手合作的 - 如果系統本身可以被黑客入侵,AI安全乾預措施將無效;同樣,如果這些系統本質上不安全並且容易造成傷害,則將AI系統免受外部威脅的保護變得毫無意義。 Cambridge Analytica提供了這種關係的有用說明。該事件表明,Facebook圍繞數據訪問的安全協議不足以加劇安全漏洞,然後利用這些漏洞進行政治操縱。當今的AI系統面臨著類似的相互聯繫的挑戰。當拆除安全護欄時,安全風險不可避免地會隨之而來。
目前,AI安全掌握在州立法機關和公司信託和安全團隊的手中。建立人工智能的公司知道 - 也許比其他任何人都更好 - 賭注是什麼。單一違反信任,無論是數據盜竊還是事故,都可能破壞其品牌。我預測,因此他們將繼續投資於明智的AI安全實踐,但謹慎而沒有大張旗鼓。諸如Roost之類的新興計劃使公司能夠協作建立開放的安全工具,這可能是對即將發生的事情的良好預覽:在過去的十年中,專家,實驗室和機構的支持,在專家,實驗室和機構的支持下,AI悄悄地湧現的AI安全運動。
希望這足夠了。
以上是美國AI政策從'安全”到'安全”急劇旋轉的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

嘿,編碼忍者!您當天計劃哪些與編碼有關的任務?在您進一步研究此博客之前,我希望您考慮所有與編碼相關的困境,這是將其列出的。 完畢? - 讓&#8217

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

Shopify首席執行官TobiLütke最近的備忘錄大膽地宣布AI對每位員工的基本期望是公司內部的重大文化轉變。 這不是短暫的趨勢。這是整合到P中的新操作範式

介紹 想像一下,穿過美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

介紹 Openai已根據備受期待的“草莓”建築發布了其新模型。這種稱為O1的創新模型增強了推理能力,使其可以通過問題進行思考

SQL的Alter表語句:動態地將列添加到數據庫 在數據管理中,SQL的適應性至關重要。 需要即時調整數據庫結構嗎? Alter表語句是您的解決方案。本指南的詳細信息添加了Colu

對於那些可能是我專欄新手的人,我廣泛探討了AI的最新進展,包括體現AI,AI推理,AI中的高科技突破,及時的工程,AI培訓,AI,AI RE RE等主題
