<li id="aaa0a"><tt id="aaa0a"></tt></li>
<li id="aaa0a"><tt id="aaa0a"></tt></li>
  • <li id="aaa0a"></li>
    <tt id="aaa0a"></tt> <li id="aaa0a"><tt id="aaa0a"></tt></li>
  • <li id="aaa0a"></li>
  • <li id="aaa0a"></li>
    <li id="aaa0a"></li>
  • <li id="aaa0a"><tt id="aaa0a"></tt></li>
  • 用戶登錄投稿

    中國作家協會主管

    人文為燈,照亮AI向善之路
    來源:解放日報 | 俞耕耘  2025年11月23日19:57

    積極回應懷疑與焦慮

    關于AI模型不斷增強的能力,信心和憂慮相伴而來。它涉及創新與安全兩大基本問題。安全監管與技術創新該如何平衡協調是重要議題。書中辨析了悲觀論、樂觀論與繁榮論者對AI的基本態度。悲觀者認為要像對待藥品與核能一樣管控AI。他們主張一種“預防性原則”,即新技術需要首先自證安全。樂觀者則秉持技術的自我適應,“快速發展也意味著更強的適應性,而更強的適應性則意味著更短的產品周期、更頻繁的迭代更新,以及更安全可靠的產品”。他們認為,限制或干預AI的發展速度,不僅阻礙提升人類福祉、延緩突破性產品和服務,還會破壞“以創新促安全”的理念。

    作為繁榮論者的霍夫曼,給出的答案是:通過普及推廣AI,提升大眾參與度,自由進行公開實驗和反復測試,主動擁抱監管。這種迭代部署是“實踐論”的深刻體現,它將“帶來更全面、更包容的反饋,縮短產品周期,加速產品改進,通常也會使產品更加安全可靠”?;诖肆?,全書批評了悲觀論者的“預防性原則”,其實質是保守封閉、消極武斷的責任推卸。此原則將衍生出缺乏實證基礎的預測性執法,同時“將舉證責任轉至引入潛在風險的一方”。多種預防性干預措施以不同方式減緩技術進步,同時也抹除了監管者的職責。潛在風險不應是禁止的理由,而是監管的必要,因噎廢食沒有出路。

    優先考慮新事物、新技術,營造有利于創新、投資、提升創造力的商業環境,才是政策的最優選項。與觀念論者不同,技術專家、企業家和投資者是AI的實際參與推動者,我稱之為技術行動派。他們置身事內,更愿擱置爭議,傾向于“無許可創新”的方法——即“主張為創新、實驗和適應性提供充足的空間,特別是在尚未出現明確傷害或現有法規已經涵蓋這些危害的情況下”。事實上,公開測試即是對監管的有效回應。

    “測試是普通公眾了解AI及其快速增長的最主要途徑?!比缃窨吹降腁I模型建立在多年形成的測試與評估文化之上?!皽y試者通過這種方式,可以將測試的結果與先前建立的基準值進行比較,了解自己與行業中其他參與相同基準測試的競爭者的差距?!边@是一種基于行業競爭的自我審核與持續改進,可以使AI開發從合法合規的最低要求,上升到持續優化的更高目標。

    基準測試雖然不如法規具有硬性約束力,但它有助于提升透明度,并使問責更加精準。它塑造出一套篩選和評估系統,在測試中表現不佳的算法預先就被淘汰。相對于專業法規的“靜態監管”,基準測試提供了動態治理的激勵機制?!皽y試的主要作用不是限制、約束或以其他方式設定允許的行為范圍”,而是激發追趕超越其他同行模型的改進努力。

    超級能動性的主導力量

    AI的快速發展滿足了人類對超級能動性的追求。如突破自然人的生理限度,其強大的并行處理能力可幫助我們擺脫遲鈍的神經架構,更好地解決復雜問題。AI可隨物賦形應用于各個領域,與其他各類新技術同構或“聯姻”,可實現各種價值衍生。我們理應放棄AI威脅人類、與人類競爭、淘汰人類的悲觀論、末日論觀點。這些威脅只有在人類徹底消極、毫無作為、放棄能動性的前提下才會發生。而人類正是因為尋求能動性、爭取自主才去發展AI。

    相反,人類會因為AI潛在的替代性,被迫激發出更大能動性。我稱之為學習“馴化”機器,利用算法讓渡部分基礎工作,在人機協同合作中,發揮主觀創造力。如在多輪對話中,用戶通過引導、啟發,甚至質疑方式干預AI,使模型調節優化,變得更包容。同時,AI又逆向培養出善提問、敢要求、愛質疑的人,這是重塑主體性的過程。AI是人類決策的助手、向導與伙伴,它的預處理工作將為我們節省極大精力。這一過程勢必會產生相對贏家,而參與者、使用者顯然比其他人獲益更多,這“取決于接納AI提供新機遇的速度和膽識”。

    大語言模型將大數據轉化為“大知識”,其衍生的“會話智能體功能”提供了情境感知與理解力。通過工具增強個體自主性,對于初學者提升技能、打破門檻壟斷、消除結構性不平等意義深遠。弱勢群體在教育、醫療、法律咨詢中的無力感將顯著改善。大語言模型解決了人性弱點,對任何用戶都不會冷落,即時響應、永遠耐心、始終愿意回答額外問題。

    當國家、全球層面將AI視為發展戰略,采取親技術、親創新的立場,生產力和效率將顯著提升?!靶翧I模型將擁有更出色的能動性和順序規劃能力,從而成為技術精湛的各類工作者?!眹腋偁帉⒋俪葾I技術的成功整合,“隨著各國紛紛建立數據中心和超級計算機以推動AI發展……這些資源正逐漸成為維護國家經濟競爭力和國家安全的關鍵因素”。

    協同進化是必由之路

    對于AI的未來,理應持開放包容態度,這體現為容忍風險度、適應不確定性。只有更大的容錯率與試錯范圍,才能促進人工智能飛躍。作為繁榮論者的霍夫曼,始終以動態發展論、技術適應論看待AI。比如,它仍會犯低級錯誤,不法分子將有更多技術手段從事犯罪活動,侵權與虛假信息更易散播。然而,潛在風險恰恰催生了新的社會治理模式——不只是監督AI本身,也會管控使用AI的方式。

    “動態契約”可被視為一種應對方案,它是對技術自由的新認知。AI賦能提供了更大自由,但這種自由需要兼顧新規則與新平衡。我們對自由的構想其實與技術實現的能力密切相關。而AI技術本身亦可服務、拓展于監管,如對于限速、限流、禁煙、禁停的完美控制,違規行為將自動受到懲處。當法規代碼化,技術能克服任何人性弱點,以毫不妥協的精準度做到執法零容忍。

    然而,這也意味著完美控制將取代原有的彈性裁量和自主空間,“可能會使判斷、協商、靈活性、道德推理、寬恕和同理心等人類特有的能力變得毫無用處”。事實上,我們需要動態化更強的智能條約,它將重構合法化與信任模式。AI迭代進化的目標是人機高度協同,解決技術融入社會的適配難題:既要有機器的精準高效(遵守規則),又要滿足人性中具體靈活的決策需求(合情合理)。

    “機器學習允許引入本質上動態且自適應的基于代碼的規則,從而復制傳統法律、規則中由自然語言的靈活性和模糊性所帶來的某些特征”,只要這些系統能從收集到的數據中去學習,它們便能不斷進化,完善其規則,以更好地匹配其適用的具體情況。換言之,AI安全融入社會,獲得合法化之路,實質需要公眾參與到更宏大的社會契約,并尋求新的接受、新的認同。

    一方面,AI模型訓練要在可解釋性與可理解性上模擬人類特質,通過數據洞察強化判斷,實現更強的可拓展性與適應性。另一方面,公眾要在AI合法化過程中發揮積極和實質作用。如將AI融入政府服務,可增加公眾參與機會,提升部署的進展。同時,AI可更高效地將公眾與政府連接,更易協作與反饋,成為提升社會凝聚力的建設性力量。作者強調要以對整個社會有益的方式部署AI,超越單純的商業化利益,重視社會共識和公眾協同?!霸谶@個高度互聯、技術驅動的世界,想要取得富有成效的結果,不能僅僅依賴于計算能力、創新能力或有效的監管制度,社會的凝聚力同樣至關重要?!?/p>

    霍夫曼圍繞迭代部署、動態契約和協同進化等概念,描繪了AI的總體性發展框架。概括說,即AI要與人類發展利益相向而行,助力人類的“再進化”?!叭绻覀冎鲃舆x擇,AI技術是可以沿著我們設想的軌跡實現的,并最終為個人與社會帶來進步?!边@正是技術人文主義的旨歸,始終堅持“技術是手段、AI是延伸、人是目的”這一核心。這是全新語境下對工具理性、技術異化的警惕,也是重塑全新人類主體性的歷史實踐。

    日韩视频无码日韩视频又2020