見發生·知(zhī)未見
業界觀點

Bard是個“病态的騙子”?谷歌員工(gōng):急于赢得AI之戰将導緻科技倫理(lǐ)潰敗

業界觀點

北京時(shí)間4月20日上(shàng)午消息,據報(bào)道(dào),在3月份面向公衆推出人工(gōng)智能(néng)聊天機器人Bard的前不久,谷歌要求内部員工(gōng)測試這(zhè)個新工(gōng)具。

根據内部讨論的截圖,一名員工(gōng)的結論是,Bard是個“病态的騙子”。另一名員工(gōng)則表示,Bard“令人尴尬”。一名員工(gōng)寫道(dào),當他(tā)們向Bard詢問如何降落飛(fēi)機時(shí),聊天機器人往往給出會(huì)導緻墜機的建議(yì)。還有一名員工(gōng)表示,Bard提供的關于潛水(shuǐ)的建議(yì)“可能(néng)會(huì)導緻重傷或死亡”。

不過,谷歌依然推出了(le)Bard。根據多名在職員工(gōng)和(hé)前員工(gōng)的說法,以及谷歌的内部文(wén)件,作(zuò)爲一家以往非常受信任的互聯網搜索巨頭,谷歌通過Bard提供的是低(dī)質量的信息,目的是跟上(shàng)競争對(duì)手,同時(shí)将科技倫理(lǐ)承諾放(fàng)在了(le)很(hěn)低(dī)的優先級來(lái)考慮。2021年,谷歌曾經承諾,将人工(gōng)智能(néng)倫理(lǐ)研究團隊擴大(dà)一倍,并投入更多資源評估人工(gōng)智能(néng)技術的潛在危害。然而,随着競争對(duì)手OpenAI的聊天機器人ChatGPT在2022年11月首次亮(liàng)相并大(dà)受歡迎,谷歌開(kāi)始匆忙将生成式人工(gōng)智能(néng)技術融入其最重要的産品中。

對(duì)這(zhè)項技術本身來(lái)說,這(zhè)樣做帶來(lái)的發展速度明(míng)顯更快(kuài),并可能(néng)會(huì)給社會(huì)産生深遠的影響。谷歌的在職員工(gōng)和(hé)前員工(gōng)們表示,谷歌承諾加強的科技倫理(lǐ)團隊目前沒有話(huà)語權,士氣低(dī)落。他(tā)們透露,負責新産品安全和(hé)科技倫理(lǐ)影響的員工(gōng)已被告知(zhī),不要妨礙或試圖扼殺正在開(kāi)發中的任何生成式人工(gōng)智能(néng)工(gōng)具。

谷歌的目标是圍繞這(zhè)項尖端技術振興其日益成熟的搜索業務,搶在微軟支持的OpenAI前面,推動生成式人工(gōng)智能(néng)應用(yòng)進入全球數千萬的手機和(hé)家庭,并赢得競争。

權益組織Signal Foundation主席、谷歌前經理(lǐ)梅雷迪思·惠特克(Meredith Whittaker)表示:“人工(gōng)智能(néng)倫理(lǐ)已經退居次要地位。如果科技倫理(lǐ)不能(néng)被置于利潤和(hé)增長之上(shàng),它們最終就不會(huì)起作(zuò)用(yòng)。”

對(duì)此谷歌表示,負責任的人工(gōng)智能(néng)仍是該公司的首要任務。谷歌發言人布萊恩·加布裏艾爾(Brian Gabriel)表示:“我們将繼續投資将人工(gōng)智能(néng)原則應用(yòng)于技術的團隊。”從(cóng)事(shì)負責任人工(gōng)智能(néng)研究的團隊在1月份的一輪裁員中至少減員3人,其中包括技術治理(lǐ)和(hé)項目主管。此次裁員影響了(le)谷歌及其母公司的約1.2萬名員工(gōng)。

美(měi)女壁紙(zhǐ)|高(gāo)清美(měi)女壁紙(zhǐ)|高(gāo)清壁紙(zhǐ)

多年來(lái),谷歌一直引領着支撐當前人工(gōng)智能(néng)發展的大(dà)部分研究,然而在ChatGPT推出時(shí),谷歌還沒有将對(duì)用(yòng)戶友好(hǎo)的生成式人工(gōng)智能(néng)技術集成到(dào)産品中。谷歌的員工(gōng)們說,以往在将新技術應用(yòng)于搜索和(hé)其他(tā)重要産品時(shí),谷歌會(huì)謹慎地評估自(zì)身的能(néng)力和(hé)道(dào)德倫理(lǐ)考量。

然而去年12月,谷歌高(gāo)級管理(lǐ)層發布了(le)“紅(hóng)色警報(bào)”,并改變了(le)對(duì)風(fēng)險的偏好(hǎo)。員工(gōng)們說,谷歌的領導團隊決定,隻要把新産品定位爲“實驗”,公衆就會(huì)原諒其中的缺陷。不過,谷歌仍然需要讓科技倫理(lǐ)團隊加入進來(lái)。當月,人工(gōng)智能(néng)治理(lǐ)負責人簡恩·詹納伊(Jen Gennai)召開(kāi)了(le)負責任創新團隊的會(huì)議(yì),該團隊負責維護谷歌的人工(gōng)智能(néng)原則。

詹納伊建議(yì),爲了(le)加快(kuài)産品發布的步伐,谷歌可能(néng)有必要做出一些(xiē)妥協。谷歌爲幾個重要類别的産品進行打分,以衡量這(zhè)些(xiē)産品是否準備好(hǎo)向公衆發布。在一些(xiē)領域,例如兒童安全,工(gōng)程師仍然需要100%解決潛在問題。但(dàn)她(tā)在會(huì)上(shàng)表示,在其他(tā)領域,谷歌可能(néng)沒時(shí)間繼續等待。她(tā)說:“‘公平’可能(néng)不是,并不需要達到(dào)99分。在這(zhè)個方面,我們可能(néng)隻要到(dào)80分,85分,或更高(gāo)的水(shuǐ)平,就可以滿足産品發布的需求。”這(zhè)裏的“公平”指的是減少産品的偏見。

今年2月,谷歌一名員工(gōng)在内部消息群中提出:“Bard的問題不僅僅是毫無用(yòng)處:請(qǐng)不要發布這(zhè)款産品。”有近7000人查看(kàn)了(le)這(zhè)條消息。其中許多人都認爲,在簡單的事(shì)實問題上(shàng),Bard的回答(dá)自(zì)相矛盾,甚至大(dà)錯特錯。然而消息人士透露,詹納伊在次月駁回了(le)團隊成員提交的風(fēng)險評估報(bào)告。當時(shí)報(bào)告的結論是Bard尚未做好(hǎo)準備,可能(néng)造成危害。不久之後,谷歌就面向公衆開(kāi)放(fàng)了(le)Bard,并将其稱作(zuò)是一次“實驗”。

在一份聲明(míng)中,詹納伊表示,這(zhè)不僅僅是她(tā)這(zhè)個層級的決定。在團隊做出評估之後,她(tā)“列出了(le)潛在風(fēng)險清單,并将分析結果”升級提交給産品、研究和(hé)業務線的高(gāo)級管理(lǐ)者。她(tā)說,該團隊随後判斷,“可以通過有限制的實驗性發布的形式向前推進,包括繼續進行預訓練,提高(gāo)安全圍欄,以及做出适當的免責聲明(míng)”。

作(zuò)爲一個整體,矽谷仍然在努力解決競争壓力和(hé)技術安全之間的矛盾。“人道(dào)技術研究中心”在最近的一次演示中表示,人工(gōng)智能(néng)研究者與專注于人工(gōng)智能(néng)安全的研究人員的數量之比達到(dào)30:1。這(zhè)表明(míng),在大(dà)型組織中提出對(duì)人工(gōng)智能(néng)的擔憂往往會(huì)孤掌難鳴。

随着人工(gōng)智能(néng)的加速發展,人們正在越來(lái)越擔憂人工(gōng)智能(néng)對(duì)社會(huì)的不利影響。作(zuò)爲ChatGPT和(hé)Bard背後的技術,大(dà)語言模型從(cóng)新聞報(bào)道(dào)、社交媒體貼文(wén)和(hé)其他(tā)互聯網信息源處獲得大(dà)量文(wén)字信息,随後用(yòng)這(zhè)些(xiē)信息來(lái)訓練軟件,讓軟件根據用(yòng)戶的輸入信息或問題自(zì)動預測并生成内容。這(zhè)意味着,從(cóng)本質上(shàng)來(lái)看(kàn),這(zhè)些(xiē)産品有可能(néng)會(huì)産生攻擊性、有害或不準确的言論。

然而,ChatGPT在首次亮(liàng)相時(shí)引發了(le)轟動。到(dào)今年年初,這(zhè)方面的發展已經無法回頭。2月份,谷歌開(kāi)始發布一系列的生成式人工(gōng)智能(néng)産品,推出聊天機器人Bard,随後升級了(le)視(shì)頻平台YouTube。當時(shí)谷歌表示,YouTube的創作(zuò)者很(hěn)快(kuài)就可以在視(shì)頻中進行虛拟換裝,以及使用(yòng)生成式人工(gōng)智能(néng)創建“奇幻的電影場景”。兩周後,谷歌宣布谷歌雲加入新的人工(gōng)智能(néng)功能(néng),展示了(le)谷歌Docs和(hé)Slides等服務如何自(zì)動創建演示文(wén)稿、銷售培訓文(wén)件和(hé)電子郵件。同一天,谷歌還宣布将把生成式人工(gōng)智能(néng)融入醫(yī)療健康産品線。員工(gōng)們表示,他(tā)們擔心,這(zhè)樣的發展速度意味着谷歌沒有足夠的時(shí)間來(lái)研究人工(gōng)智能(néng)潛在的危害。

是否應該以符合科技倫理(lǐ)的方式去開(kāi)發尖端的人工(gōng)智能(néng)技術,長期以來(lái)這(zhè)一直是谷歌内部争論的一個話(huà)題。在過去幾年裏,谷歌産品發生的錯誤備受矚目。例如,在2015年一起令人尴尬的事(shì)件中,谷歌相簿錯誤地将一名黑人軟件開(kāi)發者和(hé)他(tā)朋友的照片标記爲“大(dà)猩猩”。

三年後,谷歌表示,沒有修複底層的人工(gōng)智能(néng)技術,而是删除了(le)搜索關鍵詞“大(dà)猩猩”、“黑猩猩”和(hé)“猴子”的所有結果。根據谷歌的說法,“一群不同背景的專家”評估了(le)這(zhè)一解決方案。該公司還成立了(le)人工(gōng)智能(néng)倫理(lǐ)部門(mén),主動開(kāi)展相關研究,确保人工(gōng)智能(néng)對(duì)用(yòng)戶更加公平。

然而根據多名在職員工(gōng)和(hé)前員工(gōng)的說法,一個重要轉折點是人工(gōng)智能(néng)研究員蒂姆尼特·格布魯(Timnit Gebru)和(hé)瑪格麗(lì)特·米切爾(Margaret Mitchell)的離職。他(tā)們曾共同帶領谷歌的人工(gōng)智能(néng)倫理(lǐ)團隊。然而,因爲一場關于谷歌人工(gōng)智能(néng)研究公平性的争議(yì),他(tā)們分别在2020年12月和(hé)2021年2月離開(kāi)。最終,負責管理(lǐ)他(tā)們工(gōng)作(zuò)的計(jì)算(suàn)機科學家薩米·本吉奧(Samy Bengio)和(hé)其他(tā)幾名研究者也(yě)在幾年時(shí)間裏紛紛離職,加入了(le)谷歌的競争對(duì)手。

醜聞發生後,谷歌也(yě)采取措施試圖恢複公衆聲譽。負責任人工(gōng)智能(néng)團隊在當時(shí)的工(gōng)程副總裁瑪麗(lì)安·克羅克(Marian Croak)的領導下(xià)進行了(le)重組。她(tā)承諾,将把人工(gōng)智能(néng)倫理(lǐ)團隊的規模擴大(dà)一倍,并強化該團隊與公司其他(tā)部門(mén)的聯系。

美(měi)女壁紙(zhǐ)|高(gāo)清美(měi)女壁紙(zhǐ)|高(gāo)清壁紙(zhǐ)

不過即使在公開(kāi)發表聲明(míng)之後,一些(xiē)人也(yě)發現(xiàn),在谷歌從(cóng)事(shì)人工(gōng)智能(néng)倫理(lǐ)工(gōng)作(zuò)難度很(hěn)大(dà)。一名前員工(gōng)表示,他(tā)們提出要求,解決機器學習公平性的問題。然而他(tā)們也(yě)發現(xiàn),自(zì)己往往不被鼓勵這(zhè)樣做,以至于甚至影響了(le)他(tā)們工(gōng)作(zuò)的績效打分。他(tā)表示,經理(lǐ)們也(yě)提出抗議(yì),認爲人工(gōng)智能(néng)倫理(lǐ)問題的提出妨礙了(le)他(tā)們“真正的工(gōng)作(zuò)”。

那些(xiē)繼續在谷歌從(cóng)事(shì)人工(gōng)智能(néng)倫理(lǐ)研究的員工(gōng)則面臨兩難:如何既能(néng)保住自(zì)己在谷歌的工(gōng)作(zuò),又能(néng)繼續推進這(zhè)方面研究。亞倫·穆羅希(Nyalleng Moorosi)曾是谷歌的研究員,目前則在格魯布創立的“分布式人工(gōng)智能(néng)研究所”擔任高(gāo)級研究員。她(tā)表示,人工(gōng)智能(néng)倫理(lǐ)研究崗位的設立就是爲了(le)說明(míng),技術可能(néng)沒有做好(hǎo)大(dà)規模發布的準備,而公司需要放(fàng)慢速度。

兩名員工(gōng)表示,到(dào)目前爲止,谷歌對(duì)産品和(hé)功能(néng)的人工(gōng)智能(néng)倫理(lǐ)審核幾乎完全是自(zì)願性質的,僅有的例外(wài)是研究論文(wén)的發表,以及谷歌雲對(duì)客戶合作(zuò)和(hé)産品發布的審核。生物識别、身份識别,以及與兒童相關的人工(gōng)智能(néng)研究必須由詹納伊的團隊進行“敏感話(huà)題”審核,但(dàn)其他(tā)項目不一定需要。不過,一些(xiē)員工(gōng)也(yě)會(huì)在沒有被要求的情況下(xià)聯系人工(gōng)智能(néng)倫理(lǐ)團隊。

盡管如此,當谷歌産品和(hé)工(gōng)程團隊的員工(gōng)試圖了(le)解,谷歌的人工(gōng)智能(néng)爲何在市場上(shàng)進展緩慢時(shí),他(tā)們往往會(huì)注意到(dào)公衆對(duì)人工(gōng)智能(néng)倫理(lǐ)的關切。但(dàn)谷歌的一些(xiē)人相信,新技術應當更快(kuài)地被提供給公衆,以便通過公衆反饋對(duì)技術進行優化。

另一名前員工(gōng)表示,在紅(hóng)色警戒發布之前,谷歌工(gōng)程師可能(néng)很(hěn)難接觸到(dào)公司最先進的人工(gōng)智能(néng)模型。他(tā)說,谷歌的工(gōng)程師經常會(huì)通過研究其他(tā)公司的生成式人工(gōng)智能(néng)模型來(lái)進行頭腦(nǎo)風(fēng)暴,探索這(zhè)項技術的可能(néng)性,随後再去研究如何在公司内部去實現(xiàn)這(zhè)一技術。

谷歌前産品經理(lǐ)、在2020年之前一直從(cóng)事(shì)谷歌聊天機器人開(kāi)發的高(gāo)拉夫·内馬德(Gaurav Nemade)表示:“毫無疑問我看(kàn)到(dào)‘紅(hóng)色警戒’和(hé)OpenAI的觸動給谷歌帶來(lái)的積極變化。他(tā)們真的能(néng)成爲領導者,在自(zì)己的遊戲中挑戰OpenAI嗎?”近期的一系列變化,例如三星考慮在手機中用(yòng)微軟必應替換谷歌作(zuò)爲默認搜索引擎,充分表明(míng)了(le)技術的先發優勢有多麽重要。微軟必應也(yě)采用(yòng)了(le)ChatGPT的技術。

谷歌的一些(xiē)員工(gōng)表示,他(tā)們認爲谷歌已經對(duì)最新的生成式人工(gōng)智能(néng)産品進行了(le)足夠的安全檢查,并且Bard比競争對(duì)手的聊天機器人更安全。然而,現(xiàn)在的當務之急是快(kuài)速發布生成式人工(gōng)智能(néng)産品,因此再怎麽強調科技倫理(lǐ)問題都是徒勞的。

研發新人工(gōng)智能(néng)功能(néng)的團隊目前正在封閉狀态中,因此普通的谷歌員工(gōng)很(hěn)難看(kàn)到(dào)谷歌人工(gōng)智能(néng)技術的全貌。以往,員工(gōng)還可以通過公司的郵件組和(hé)内部頻道(dào)來(lái)公開(kāi)表達自(zì)己的疑慮,但(dàn)現(xiàn)在谷歌以減少毒性爲由提出了(le)一系列社區(qū)指南,限制員工(gōng)這(zhè)樣去做。幾名員工(gōng)表示,他(tā)們認爲這(zhè)些(xiē)限制是控制言論的一種方式。

米切爾表示:“這(zhè)帶來(lái)了(le)挫敗感。我們的感覺是,我們到(dào)底在做什(shén)麽?”即使谷歌沒有明(míng)确的指令,要求停止科技倫理(lǐ)的工(gōng)作(zuò),但(dàn)在當前的氛圍下(xià),從(cóng)事(shì)這(zhè)類工(gōng)作(zuò)的員工(gōng)會(huì)很(hěn)明(míng)顯的感覺到(dào),自(zì)己不受支持,最終可能(néng)會(huì)因此減少工(gōng)作(zuò)量。“在谷歌管理(lǐ)層公開(kāi)讨論科技倫理(lǐ)問題時(shí),他(tā)們傾向于探讨假想的未來(lái),即全能(néng)的技術無法被人類控制,而不太涉及已經可能(néng)帶來(lái)危害的日常場景。這(zhè)種做法也(yě)被一些(xiē)業内人士批評爲一種營銷形式。

曾在谷歌擔任研究科學家的艾爾馬蒂·艾爾瑪穆迪(El-Mahdi El-Mhamdi)于今年2月從(cóng)谷歌離職,原因是谷歌拒絕正面探讨人工(gōng)智能(néng)倫理(lǐ)問題。他(tā)表示,去年底他(tā)參與合著的一篇論文(wén)提出,從(cóng)數學上(shàng)來(lái)看(kàn),基礎性的人工(gōng)智能(néng)模型不可能(néng)同時(shí)做到(dào)大(dà)規模、健壯,以及保障隐私安全。

他(tā)表示,谷歌通過雇傭關系對(duì)他(tā)參與的研究提出質疑。随後,他(tā)并沒有爲自(zì)己的學術研究辯護,而是直接放(fàng)棄了(le)與谷歌的雇傭關系,選擇了(le)學術身份。他(tā)說:”如果你(nǐ)想留在谷歌,就必須爲整個系統服務,而不是與其發生沖突。“

網站(zhàn)建設開(kāi)發|APP設計(jì)開(kāi)發|小(xiǎo)程序建設開(kāi)發
下(xià)一篇:任華爲輪值董事(shì)長後,孟晚舟首次亮(liàng)相發聲!談到(dào)AI、5.5G、歐拉與鴻蒙操作(zuò)系統
上(shàng)一篇:孟晚舟提出“4化”的數字化轉型路線圖,透露哪些(xiē)深意?