見發生·知(zhī)未見
業界觀點

AI哨所|外(wài)媒:強大(dà)AI需“超智能(néng)”監管 這(zhè)兩種制度或可一試

業界觀點

ChatGPT的橫空(kōng)出世已經讓人工(gōng)智能(néng)(AI) 的監管提上(shàng)日程。外(wài)媒周日發表觀點文(wén)章稱,強大(dà)的AI需要有“超智能(néng)”(superintelligent)的監管。

文(wén)章稱,強大(dà)的AI系統可以爲社會(huì)帶來(lái)巨大(dà)好(hǎo)處,并幫助人類解決一些(xiē)世界性難題。例如,機器學習模型已經在診斷疾病、加速科學研究、提高(gāo)經濟生産率,以及通過優化電網的電流來(lái)減少能(néng)源使用(yòng)等方面發揮了(le)重要作(zuò)用(yòng)。不過,如果這(zhè)些(xiē)好(hǎo)處因爲AI遭到(dào)強烈反對(duì)而受到(dào)損害,那将是一場悲劇(jù)。但(dàn)正如“AI教父”傑弗裏·辛頓(Geoffrey Hinton)上(shàng)月從(cóng)谷歌辭職時(shí)所警告的那樣,随着AI技術在不公平歧視(shì)、虛假信息和(hé)欺詐等領域的濫用(yòng)成倍增加,危險也(yě)越來(lái)越大(dà)。

美(měi)女壁紙(zhǐ)|高(gāo)清美(měi)女壁紙(zhǐ)|高(gāo)清壁紙(zhǐ)

因此,各國政府必須迅速采取行動,适當和(hé)成比例地監管這(zhè)項技術。但(dàn)是,如何做到(dào)這(zhè)一點将是人類這(zhè)個時(shí)代面臨的最大(dà)管理(lǐ)挑戰之一。機器學習系統可以部署在數百萬個用(yòng)例中,無法簡單分類,可能(néng)會(huì)給監管機構帶來(lái)許多問題。這(zhè)種快(kuài)速發展的技術也(yě)可以大(dà)規模地以分散、無形和(hé)無處不在的方式使用(yòng)。但(dàn)令人鼓舞的是,世界各地的監管機構終于開(kāi)始着手解決這(zhè)些(xiē)問題。

鳳凰網科技 《AI哨所》了(le)解到(dào),文(wén)章指出,解決AI監管問題的第一步是科技行業本身就透明(míng)度、問責制和(hé)公平達成一緻并實施一些(xiē)通用(yòng)原則。例如,企業永遠不應該試圖拿聊天機器人假冒人類;第二步是所有監管機構在就業法、金(jīn)融和(hé)消費者市場、競争政策、數據保護、隐私和(hé)人權等領域,修改現(xiàn)有規則,以考慮AI帶來(lái)的具體風(fēng)險。第三步是政府機構和(hé)大(dà)學深化自(zì)身的技術專長,以降低(dī)被産業俘獲的風(fēng)險。

除此之外(wài),人類還應該考慮對(duì)AI制定兩種總體監管制度,即使單獨一種都不足以應對(duì)挑戰的規模。一種是基于預防原則的制度,這(zhè)意味着在一些(xiē)關鍵的、生死攸關的領域,如醫(yī)療保健、司法系統和(hé)軍隊,使用(yòng)的算(suàn)法在使用(yòng)前需要預先批準。 這(zhè)可能(néng)會(huì)以與美(měi)國食品和(hé)藥物管理(lǐ)局大(dà)緻相同的方式運作(zuò),後者在藥物上(shàng)市前進行篩選,并擁有更廣泛的職責來(lái)保護和(hé)促進公衆健康。

第二種更靈活的模式可以基于“意外(wài)治理(lǐ)”,就像航空(kōng)業一樣。雖然這(zhè)聽起來(lái)令人擔憂,但(dàn)在過去幾十年裏,它在提高(gāo)航空(kōng)安全标準方面發揮了(le)極其有效的作(zuò)用(yòng)。一旦發現(xiàn)故障,國際航空(kōng)當局有權要求所有飛(fēi)機制造商和(hé)航空(kōng)公司做出改變。當在面向消費者的AI模型(例如自(zì)動駕駛汽車)中發現(xiàn)有害缺陷時(shí),可以使用(yòng)類似的方法。

文(wén)章稱,多位領先的行業研究人員呼籲暫停開(kāi)發先進的生成式AI模型。但(dàn)是,除非能(néng)夠建立更清晰的管理(lǐ)機制,否則暫停是毫無意義的。就連科技行業也(yě)承認,它現(xiàn)在需要更清晰的行業規則,必須與政府和(hé)民權組織建設性地合作(zuò),幫助制定這(zhè)些(xiē)規則。畢竟,如果安裝了(le)有效的刹車裝置,汽車在轉彎時(shí)可以開(kāi)得更快(kuài)。

網站(zhàn)建設開(kāi)發|APP設計(jì)開(kāi)發|小(xiǎo)程序建設開(kāi)發
下(xià)一篇:周鴻祎教俞敏洪怎麽用(yòng)好(hǎo)GPT
上(shàng)一篇:中國汽車純電動機動車整車出口同比倍數級增長