歐盟委員會(European Commission)周一公布了人工智能道德準則,旨在在人工智能系統(tǒng)深入社會之前影響其發(fā)展。這種干預可能有助于打破監(jiān)管機構(gòu)被迫追趕新興技術(shù)的模式,這些技術(shù)往往會帶來意想不到的負面后果。
周一,英國提出新規(guī)定,要求互聯(lián)網(wǎng)公司對清除其平臺上的有害內(nèi)容承擔法律責任,凸顯了這么做的重要性。
“這就像在蓋房子之前先打好地基……”IBM負責歐洲監(jiān)管事務(wù)的副總裁利亞姆-貝納姆(Liam Benham)說。
歐盟在科技監(jiān)管方面已走在全球前列,去年出臺了一項具有里程碑意義的數(shù)據(jù)隱私法,同時以反競爭行為和未繳稅款為由,對大型科技公司提起訴訟。
人工智能吸引了公眾的想象力,并對潛在的濫用發(fā)出了可怕的警告,這是歐盟最新的監(jiān)管領(lǐng)域。這不是一個簡單的話題。例如,谷歌上周關(guān)閉了其新成立的人工智能倫理委員會,原因是一群員工要求該組織的一個保守派智庫首領(lǐng)離開。
歐盟委員會制定了指導人工智能發(fā)展和建立信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎(chǔ)。
透明度是關(guān)鍵
歐洲負責數(shù)字經(jīng)濟的最高官員瑪麗亞-加布里爾(Mariya Gabriel)表示,使用人工智能系統(tǒng)的公司應該對公眾透明。加布里埃爾說:“當人們接觸的是一種算法而不是另一個人的時候,他們需要被告知”,“算法做出的任何決定都必須經(jīng)過驗證和解釋”。
例如,基于算法拒絕索賠的保險公司應該確??蛻糁廊绾我约盀槭裁醋龀鲞@個決定,人類應該能夠介入且可以推翻這個決定。
歐盟委員會表示,未來的人工智能系統(tǒng)需要在整個生命周期內(nèi)安全可靠。它還表示,數(shù)據(jù)保護必須是一個優(yōu)先事項,用戶必須可以控制自己的信息。這項規(guī)則指引將責任完全推給了那些構(gòu)建和部署人工智能系統(tǒng)的人。
“如果一家公司安裝了人工智能系統(tǒng),那么這家公司就有責任……如果發(fā)生任何意外,這是非常重要的,”蓋伯瑞爾說。
避免歧視
Gabriel還表示,公司需要確保他們的人工智能系統(tǒng)是公平的。她舉例說,在招聘過程中使用的一種算法使用的數(shù)據(jù)來自一家只聘用男性的公司,這種算法可能會拒絕女性候選人。加布里埃爾說:“如果你的輸入數(shù)據(jù)有偏差,那就真的是個問題。”
非營利性組織AlgorithmWatch表示,雖然制定指導方針是個好主意,但歐洲的做法存在問題。該組織的聯(lián)合創(chuàng)始人馬蒂亞斯-斯皮爾坎普(Matthias Spielkamp)表示:“指導方針圍繞著‘值得信賴的人工智能’這一概念,這是有問題的,因為它不是一個定義明確的術(shù)語。”
“誰值得信賴,誰又值得信賴?”他補充道。他還表示,目前還不清楚未來的監(jiān)管將如何處理。
美因茨大學(University of Mainz)教授、哲學家托馬斯-梅辛格(Thomas Metzinger)幫助起草了指導方針,但批評他們沒有禁止使用人工智能開發(fā)武器。其他人則擔心這些指導方針會對創(chuàng)新產(chǎn)生影響。
行業(yè)組織TechUK副首席執(zhí)行官安東尼-沃克(Antony Walker)表示:“我們擔心這些指導方針的力度,將使許多公司,尤其是中小型企業(yè),難以實施。”
歐盟現(xiàn)在將嘗試與大型科技公司合作,通過一個試點項目來解決這些問題和其他問題。
轉(zhuǎn)自:新浪科技
【版權(quán)及免責聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時須獲得授權(quán)并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權(quán)事宜請聯(lián)系:010-65363056。
延伸閱讀