較近的一項調查顯示,雖然近十分之九的企業(yè)-都認為制定有關人工智能(AI) 道德和企業(yè)責任的明確指導方針非常重要,但幾乎沒有人承認他們有這樣的指導方針。
這些發(fā)現(xiàn)表明,人們對需要采取哪些方法來管理人工智能的采用感到困惑,技術專業(yè)人員需要挺身而出,其以數(shù)據(jù)為主導的計劃的 安全和道德發(fā)展。
該結果來自科技公司 Conversica 發(fā)布的一項基于 500 名商界觀點的調查,調查顯示:“調查中得出了一個響亮的信息:大多數(shù)受訪者認識到,制定明確的指南對于負責任地使用信息技術至關重要。公司內部的人工智能,尤其是那些已經(jīng)采用該技術的公司。”
近四分之三 (73%) 的受訪者表示人工智能指南不可或缺。然而,只有 6% 的人制定了明確的人工智能使用道德準則,36% 的人表示他們可能會在未來 12 個月內制定準則。
即使在生產(chǎn)中使用人工智能的公司中,目前使用人工智能的公司中,五分的者也承認對其組織的人工智能相關政策了解有限或一無所知。超過三分(36%)的人聲稱僅“稍微熟悉”與政策相關的問題。
報告作者指出,解決負責任人工智能問題的指導方針和政策應納入治理、公正的訓練數(shù)據(jù)、偏見檢測、偏見緩解、透明度、準確性以及人類監(jiān)督。
約三分之二 (65%) 的受訪高管表示,他們已經(jīng)或計劃在未來 12 個月內推出人工智能服務。人工智能的主要用例包括支持互動功能,例如客戶服務和營銷(39%),以及產(chǎn)生分析見解(35%)。
調查發(fā)現(xiàn),人們對人工智能輸出較關心的問題是當前數(shù)據(jù)模型的準確性、虛假信息和缺乏透明度。超過四分之三(77%)的高管對人工智能產(chǎn)生虛假信息表示擔憂。
商界表示,人工智能提供商沒有提供足夠的信息來幫助制定指導方針,尤其是在數(shù)據(jù)安全和透明度以及制定強有力的道德政策方面。
大約三分之二 (36%) 的受訪者表示,他們的企業(yè)對使用生成式 AI 工具(例如Chat GPT)有規(guī)則。但 20% 的受訪者表示,在可預見的未來,他們的公司將給予員工個人使用人工智能工具的自由。
Conversica 的調查顯示,在實現(xiàn)負責任的人工智能方面存在差距。那么,技術者和業(yè)務線專業(yè)人員如何挺身而出,確保負責任的人工智能實踐到位?以下是Google 人工智能團隊分享的一些關鍵指南 :
企業(yè)可能希望快速實施人工智能,但必須謹慎確保工具及其模型的準確和公平。雖然企業(yè)正在尋求人工智能的進步,但該技術每次都必須提供負責任的結果。