1月20日消息,據國外媒體報道,谷歌首席執(zhí)行官(CEO)桑達爾·皮查伊(Sundar Pichai)表示,人工智能(AI)應該被監(jiān)管,不能放任市場操縱。
皮查伊認為,企業(yè)不能只是開發(fā)新技術,而“讓市場力量來決定如何使用它”。他呼吁制定人工智能法規(guī)。他補充說,像谷歌這樣的公司不能在沒有監(jiān)管的情況下開發(fā)技術。
皮查伊強調稱,深度換臉(deepfakes)和“面部識別的壓制性使用”是目前備受關注的問題。去年,深度換臉技術突然成為人們關注的焦點,到目前為止,有關部門和企業(yè)仍在爭相對其進行監(jiān)管。
皮查伊提到,人工智能是新時代創(chuàng)新和發(fā)現的主要工具,比如,自動駕駛汽車或疾病檢測算法。然而,公司需要確保這些技術不會被非法利用或濫用。
正如許多人過去指出的那樣,現在是組建一個由該領域專家組成的獨立監(jiān)督機構的好時機,以便密切關注該領域的進展,并指出不當做法。
人工智能技術已經應用到各個領域,它有潛力改善數十億人的生活,但它所帶來的負面影響也不斷顯現,因此制定人工智能法規(guī)是很有必要的。
2018年,谷歌發(fā)布了其人工智能原則,概述了該領域的道德價值觀。這些指導方針也是在該公司因爭取為美國軍方開發(fā)人工智能工具的合同而遭到強烈反對后制定的。
本月上旬,美國白宮就管理人工智能(AI)的發(fā)展及應用提出監(jiān)管原則,目的在于限制監(jiān)管部門過度插手。
美國白宮在一份文件中表示,聯邦機構就AI相關事務采取任何監(jiān)管行動之前,應該進行風險評估及成本效益分析,將重點放在建立有彈性的架構,避免一刀切的監(jiān)管做法。
白宮表示,各機構應促進可信賴的AI(trustworthy AI),而且必須考慮公平性、不歧視、開放性、透明性、安全性和可靠性。(小狐貍)
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )