人工智能既激發了人們對醫學突破、氣候解決方案和全新創造力的憧憬。同時,它也敲響了警鐘,提醒我們警惕虛假信息、失業以及我們無法完全掌控的系統的可能性。
印刷機出現后,人類花了幾個世紀的時間才將其普及。電力的普及則花了幾十年。即使是互聯網,盡管發展速度很快,但發展也參差不齊。由于全球化和數字基礎設施的發展,今天一個實驗室的突破可能會影響明天的數百萬人。這種速度和影響力使得風險和機遇都更難以控制或忽視。
恐懼和興奮這兩種反應都是合理的。恐懼就像指南針,指引我們找到風險所在,而興奮則是推動探索的力量。在本文中,我們將探討為什么真正的工作是學習如何同時兼顧兩者,以及如何設計出既能驅動我們前進的引擎,又能保障我們安全的“剎車”。
推理恐懼
“對人工智能的恐懼是對人類從未面臨過的速度和范圍碰撞的反應。”
對人工智能的恐懼并非抽象概念,而是根植于人們已有的認知。算法已經決定了誰能被雇傭、誰能獲得貸款,以及信息如何傳播。過去,新技術的影響往往受地域限制。一個印刷錯誤可能會誤導一座城市;一個電力故障可能會導致整個社區停電。而有了人工智能,一個漏洞可以在幾秒鐘內傳播到全球,在無人察覺之前,跨平臺、跨行業地復制。
這個量表放大了現有的擔憂:
- 當大多數人無法完全理解的系統做出決策時,就會產生失去控制的感覺。
- 當只有少數參與者掌握最先進模型的關鍵時,影響力就會集中。
- 看到機器不僅進入重復性勞動領域,還進入塑造身份和目標的創造性和專業領域,這讓人感到不安。
- 由于錯誤信息的傳播速度超過了事實核查的速度,信任度正在逐漸喪失。
- 最后,當影響范圍如此之大時,即使是低概率風險也會產生影響,這令人感到不安。
在興奮與謹慎之間尋求平衡
若說速度與規模會放大恐懼,那它們同樣也會放大興奮。人工智能之所以存在風險,正是因為它具備學習、適應和快速傳播的能力,而這些特質也恰恰是其強大之處的來源。一個能夠跨領域關聯各類模式的系統,不僅會對就業造成沖擊,更能加速疾病療法的研發、設計新型材料,并助力穩定脆弱的生態系統。
人們很容易陷入兩種極端:要么盲目地倉促前行,要么在恐慌中停滯不前。但歷史告訴我們,唯有將發展與克制相結合,才能創造持久的價值。電力直到我們制定出相關標準與安全規范后,才真正具備了變革性的力量;互聯網也只有在我們學會構建通信協議與防火墻之后,才變得切實可用。對于人工智能而言,我們如今所設計的 “剎車系統”,將決定其這臺 “引擎” 最終會帶領我們走向共同發展,還是共同受損。
要實現這種平衡,就需要轉變思維模式:我們的目標應是構建具備韌性的系統,而非僅僅追求速度。僅僅推出運算速度更快的模型是遠遠不夠的。我們還需要跟得上節奏的監管機制、能夠讓隱性問題顯性化的透明度,以及足夠靈活、能夠承受沖擊而不崩潰的社會體系。
我們所需的技能與 “剎車機制”
“這些技能與‘剎車機制’共同構成了韌性發展的工具箱。若缺少它們,‘引擎’(此處喻指人工智能技術)將失控運轉;有了它們,我們才有機會掌控未來的發展方向。”
與以往發明不同,人工智能并未給我們數十年的調整時間。其規模之大,迫使我們必須同步構建 “引擎” 與 “剎車機制”,這意味著從一開始,就需要各類不同專業領域的力量協同合作。
技術研發者能夠將 “黑箱”(指無法解釋內部決策邏輯的 AI 系統)轉化為可解讀的存在。此處的 “剎車機制” 便是 “可解釋性”,具體體現為相關代碼與工具,讓人類在依據 AI 行動前,能夠對其決策邏輯提出質疑、進行核驗。
舉一個實際場景為例:“引擎” 可以是這樣一款 AI 模型 —— 它能在醫學影像中識別出人類肉眼難以察覺的異常模式,從而實現疾病的早期診斷,甚至可能挽救生命。但 “剎車機制” 的重要性同樣不容忽視:每一項由 AI 生成的診斷建議,都必須經由醫療專業人員審核 —— 他們會綜合考量患者的具體病情背景、醫療倫理規范以及既往病史。若缺少這一環節,僅一次有缺陷的模型更新,就可能在一夜之間導致誤診情況在全球范圍內擴散。
律師與倫理學家會將抽象的價值觀轉化為可執行的標準。此處的 “剎車機制” 是 “問責制”—— 即明確的規則,它迫使相關機構對自動化決策的依據進行解釋并承擔相應責任,就像我們要求食品或藥品必須符合安全標準一樣。
舉一個實際場景為例:在招聘領域,“引擎” 可以是一套 AI 系統,它能在幾小時內完成對數千份簡歷的篩選工作。但如果缺乏問責制,這套系統也可能在無形中大規模篩選掉女性或少數群體求職者。而審計追蹤與申訴機制便是關鍵的 “剎車機制”,它們能防止偏見被固化到代碼之中。
經濟學家與勞工專家讓變革的影響清晰可見。此處的 “剎車機制” 是 “前瞻性準備”—— 即在工作崗位消失前(而非消失后)就設計好的再培訓項目、轉型基金以及新型社會支持模式。
舉一個實際場景為例:“引擎” 可以是能在幾秒內生成營銷文案或法律文書的 AI 工具。但這種高效也可能在一夜之間掏空相關行業(導致大量崗位流失)。而通過技能重塑計劃與收入過渡保障項目所做的前瞻性準備,能夠緩解這種沖擊,幫助勞動者實現轉型,而非陷入失業困境。
心理學家與社會學家揭示信任與身份認同方面的隱性變化。此處的 “剎車機制” 是 “認知引導”,具體體現為相關指導原則與教育舉措,幫助人們應對(AI 帶來的)模糊邊界問題。
舉一個實際場景為例:“引擎” 可以是一款旨在緩解孤獨感的聊天機器人。對一部分人而言,它確實能發揮作用;但對另一部分人來說,它會加劇依賴心理,模糊真實人際連接與模擬互動之間的界限。而認知宣傳活動與心理健康支持體系便是 “剎車機制”,它們能確保本應提供幫助的工具,不會在無形中造成傷害。
傳播者 —— 教師、記者、藝術家 —— 讓隱性問題變得清晰可見。此處的 “剎車機制” 是 “通俗解讀”:即將復雜的技術內容轉化為人們能夠理解并做出回應的語言與圖像。
舉一個實際場景為例:“引擎” 是一款人工智能預測性警務系統,其宣傳定位是保障安全的工具。若缺乏通俗解讀,社區民眾可能永遠無法察覺系統數據中隱含的偏見。而傳播者通過用清晰易懂的語言揭示這些偏見,為公眾討論與反對抵制創造了空間。
此外,普通民眾并非人工智能的被動接受者;當 AI 出現問題時,他們往往是最先察覺的人。這些親身經歷本身也是一種 “剎車機制”,能在危害發展成系統性問題之前向其他人發出警示。
再舉一個實際場景:“引擎” 是某零售連鎖企業全面推行的人工智能排班系統。該系統雖提升了效率,卻導致員工面臨工作時長難以預測的困境。而員工自身 —— 通過向工會、同事或公眾分享這些經歷 —— 將成為 “剎車機制” 的施加者:他們會迫使企業承擔責任并對系統進行調整。
以恐懼為指引,以興奮為動力
在這充滿不確定性的當下,我想邀請大家換一種視角:不要再將恐懼與興奮視為對立面,而應將它們看作相輔相成的伙伴。我也想邀請大家暢想這樣一個未來 —— 在這個未來里,這種平衡能切實發揮作用:醫生會得到透明化診斷工具的輔助而非取代;在行業陷入衰退前,勞動者已完成技能再培訓;孩子們借助 AI 輔導工具學習,但始終有教師引導,守護他們的好奇心;氣候模型保持開放透明且接受問責,推動集體行動而非服務于私人利益。這便是 “引擎” 與 “剎車機制” 協同作用所能呈現的理想圖景。
若人類能把握好這種平衡,人工智能定能成為我們的伙伴 —— 它將放大我們人性中更美好的一面,助力我們守護這個共同家園的美好。
你怎么看?
當下,你對人工智能的感受是恐懼更多,還是興奮更多?你認為社會應如何適應人工智能日益全球化、高速發展的態勢?