建立一個(gè)真正由AI驅動(dòng)的服務(wù)并不簡(jiǎn)單。所以,一些初創(chuàng )公司動(dòng)起了歪腦筋——他們讓人類(lèi)模仿機器,而不是讓機器學(xué)習人類(lèi),因為這樣成本便宜得多,也容易得多。
“使用人力來(lái)代替人工智能可以讓你跳過(guò)大量的技術(shù)和業(yè)務(wù)開(kāi)發(fā)挑戰。它雖然無(wú)法像計算機那樣可升級,但卻能讓你跳過(guò)早期的困難部分,達到想要的效果。”ReadMe的首席執行官Gregory Koberger說(shuō),他表示已經(jīng)遇到過(guò)不計其數的“假AI”。
“這其實(shí)是在用真正的人力,來(lái)呈現AI應該有的樣子。”他說(shuō)。
本周,華爾街日報的一篇文章曝光了這種做法,該文章揭露Google允許幾百名第三方應用開(kāi)發(fā)者訪(fǎng)問(wèn)用戶(hù)的收件箱。Edison Software公司的總部位于San Jose,他們的AI工程師通過(guò)篡改身份信息,瀏覽了幾百名用戶(hù)的個(gè)人電子郵件,以改進(jìn)“智能回復”功能。問(wèn)題是該公司并沒(méi)有在其隱私政策中提到過(guò)有人會(huì )查看用戶(hù)的電子郵件。
使用人工的做法見(jiàn)報已經(jīng)不是第一次了。2008年,一家將語(yǔ)音郵件轉換為短信的公司Spinvox被指控在海外呼叫中心使用人力,而不是人們以為的機器。
2016年,彭博社曝光了一些公司讓每天工作12小時(shí)的人工來(lái)“假裝”程序,在Chatbot里進(jìn)行自動(dòng)日程設置服務(wù)(例如X.ai和Clara)。想想就知道這項高重復性的工作有多枯燥而勞累,這些員工非??释鸄I能解放他們。
2017年,聲稱(chēng)使用“智能掃描技術(shù)”處理收據的Expensify(一個(gè)業(yè)務(wù)費用管理應用)承認,公司一直雇用人力進(jìn)行勞動(dòng)。收據的掃描文件被發(fā)布在亞馬遜的Mechanical Turk眾包勞動(dòng)平臺上,由低薪工人進(jìn)行閱讀和轉錄。
“我在想,Expensify智能掃描應用的用戶(hù)是否知道MTurk的工作人員能看到他們的收據單。”一名MTurk的員工Rochelle LaPlante說(shuō)道,“我們能看到每一個(gè)人用Uber叫車(chē)后收據上的全名、上車(chē)和下車(chē)的地點(diǎn)。”
甚至是在A(yíng)I上投入巨資的Facebook,都在使用人工來(lái)支持Messenger的虛擬助手。
在某些情況下,人工的參與可以用來(lái)訓練AI并提高其準確性。一家名為Scale的公司提供許多人力來(lái)為自動(dòng)駕駛汽車(chē)和其他人工智能系統提供“培訓”數據。例如,這些人力會(huì )持續關(guān)注攝像頭或傳感器的反饋,并在視野中標記汽車(chē),行人和騎行的人。通過(guò)足夠的人工校準,AI能學(xué)會(huì )識別這些物體。
而另一種情況是,有的公司在A(yíng)I項目還沒(méi)完成研發(fā)時(shí),就告訴投資者和用戶(hù)他們已經(jīng)開(kāi)發(fā)了可擴展的AI技術(shù),但背地里還會(huì )秘密地依賴(lài)人工勞動(dòng),直到研發(fā)成功。
Alison Darcy是一位心理學(xué)家,她開(kāi)發(fā)了一個(gè)名為Woebot的心理支持聊天機器人,并將此稱(chēng)為“綠野仙蹤設計技術(shù)(Wizard of Oz design technique)”。
“我們盡量去模擬以接近最真實(shí)的情況。通常,有些AI的幕后其實(shí)是人工而不是算法。“她補充說(shuō),“建立一個(gè)完善的人工智能系統需要海量的數據,而設計者在進(jìn)行投資之前也想知道對服務(wù)的需求是不是足夠大。”
她表示,使用人工的做法不適合像Woebot這樣的心理支持服務(wù)。“作為心理學(xué)家,我們遵守道德準則。不欺騙人顯然是需要遵守的道德原則之一。”她說(shuō)。
研究表明,當人們認為自己正在與一臺機器而不是一個(gè)人交談時(shí),他們傾向于透露更多信息,因為尋求心理健康支持常常伴隨著(zhù)病恥感。
來(lái)自USC的一個(gè)團隊用名為Ellie的虛擬治療師對此進(jìn)行了測試。他們發(fā)現,患有創(chuàng )傷后應激障礙的退伍軍人在他們知道Ellie是AI時(shí),比知道有人在操作機器時(shí)更容易說(shuō)出他們的癥狀。
還有些人則認為公司應始終對其服務(wù)運營(yíng)方式保持透明。
“我討厭那些假裝提供AI服務(wù),實(shí)際卻雇用人類(lèi)的公司。”LaPlante說(shuō),“這是不誠實(shí)的,是欺騙,這些都不是我在使用業(yè)務(wù)時(shí)想要得到的東西。作為一名工作者,我感覺(jué)我們被推到了幕后。我不喜歡被一家向客戶(hù)撒謊的公司利用。”
這種道德上的考量也讓偽裝成的人類(lèi)的真正AI更受歡迎。最近的一個(gè)例子是Google Duplex,一個(gè)用來(lái)完成行程預定的機器人助手,它在打電話(huà)時(shí)竟能發(fā)出像人類(lèi)一般的語(yǔ)氣詞,如“嗯”“呃”等,逼真得讓人害怕。
盡管遭遇過(guò)強烈反對,谷歌還是決定讓其AI在與人類(lèi)對話(huà)時(shí)表明身份。
“在演示版本的普通對話(huà)中,人們對非常輕微的欺騙性很容易接受。”Darcy說(shuō),“用AI預訂餐廳可能不會(huì )有什么問(wèn)題,但這并不代表這項技術(shù)是無(wú)害的。”
比如,當AI可以模擬名人或政治家的聲音,打一個(gè)高度逼真的電話(huà),情況就不一樣了。
Darcy認為,人們對AI已經(jīng)懷有很大的疑慮甚至是恐懼,如果無(wú)法得知自己面對的是人還是機器,AI反而無(wú)法在對話(huà)中起到幫助。
評論
-
最新最熱
行業(yè)資訊 -
訂閱欄目
效率閱讀 -
音頻新聞
通勤最?lèi)?ài)