🚨 用了 AI 出事不賠!保險公司全面拒絕 AI 風險承保!

隨著人工智慧(AI)面臨的風險不斷上升,許多主要保險公司已經開始積極動作,計劃將與AI相關的索賠責任排除在外哦!根據《金融時報》的報導,像是AIG、WR Berkley和Great American等保險公司,已經向監管機構提出新的政策排除條款,這樣就能拒絕與AI系統(包括聊天機器人和代理人)相關的索賠。

這樣的變化正好發生在各行各業加速採用生成性工具的時期,然而,這也導致了一些代價不菲的錯誤!例如,Google因其AI概覽功能錯誤地聲稱一家太陽能公司被州檢察長起訴,結果面臨高達1.1億美元的誹謗訴訟;還有加拿大航空被要求承認其客戶服務聊天機器人虛構的折扣。而英國工程公司Arup則因員工被數位複製的高層欺騙,損失了2,000萬英鎊!

這些事件讓保險公司難以量化責任的範圍。Mosaic Insurance告訴《金融時報》,大型語言模型的輸出仍然過於不可預測,無法進行傳統的承保,甚至將其描述為「黑箱」。就連專為AI增強軟體提供保險的Mosaic,也拒絕承保來自像ChatGPT這樣的LLM的風險。

作為一種替代方案,WR Berkley的潛在排除條款甚至將禁止與「任何實際或聲稱的使用」AI相關的索賠,即使該技術在產品或工作流程中占的比例微小。AIG則告訴監管機構,他們「沒有計畫立即實施」這些排除條款,但希望在索賠的頻率和規模增加時,能夠使用這一選項。

問題的根源不僅在於單一損失的嚴重性,還在於由單一基礎模型或供應商引發的廣泛、同時的損害威脅。Aon的網路部門負責人Kevin Kalinich表示,行業可能會承受某一公司使用的失誤代理人造成的4億至5億美元的損失,但無法承受一個上游故障同時產生千起損失的情況,這種風險被他稱為「系統性、相關、聚合的風險」。

雖然一些保險公司已經透過政策附加條款向透明化邁進,像是QBE推出的擴展附加條款,為歐盟AI法案下的罰款提供有限保障,最高可達保險限額的2.5%。而Chubb則同意承保某些AI相關事件,但排除任何可能影響「廣泛」事件的情況。經紀人們表示,這些附加條款必須仔細閱讀,因為某些條款看似提供新保障,實際上卻可能減少了保護。

隨著監管機構和保險公司重新調整立場,企業可能會發現,部署AI的風險現在比他們預期的更重,可能會更重地落在他們自己的資產負債表上!✨