自然語言處理技術,將(jiāng)會使機器從更人性化的視角來解決問題
編者按:在解決和數學(xué)或物理相關的問題時,技術能(néng)夠發(fā)揮相當大的作用。但在解決涉及到以人爲中心的問題時,技術的可發(fā)揮餘地就變得很小。在Ultimate Software的高級策略總監Armen Berjikly看來,自然語言處理(NLP)的進(jìn)步會幫助技術更好(hǎo)的識别出人類的情感與同情心,從而來幫助人們更好(hǎo)地處理各種(zhǒng)問題。文章發(fā)表在VentureBeat,由36氪編譯。
以目前的發(fā)展速度來看,科技似乎正承載著(zhe)一項雄心勃勃的使命——解決人類最迫切的問題。
在某些方面(miàn),我們取得了很大的進(jìn)步。比如可再生能(néng)源、疾病預防和災後(hòu)重建等領域,我們已經(jīng)有了巨大的突破。但是,當涉及到應對(duì)以人爲中心的挑戰時——比如員工多樣(yàng)性、無意識偏見、員工和客戶滿意度——技術能(néng)發(fā)揮的餘地就很少。
這(zhè)是因爲,像噴氣推進(jìn)或GPS這(zhè)樣(yàng)的技術問題很大程度上是數學(xué)和物理相關的,這(zhè)也是計算機(和程序員)擅長(cháng)的地方。但解決員工參與這(zhè)樣(yàng)的人事(shì)問題通常需要同理心,而這(zhè)是出了名的難以捉摸。人類是情緒化的動物,尤其是在做決定的時候。通常情況下,我們先有一種(zhǒng)感覺,然後(hòu)運用邏輯來幫助證明我們的情緒反應,最後(hòu),我們采取行動。因此,任何幫助人們做出更好(hǎo)的決定,而不考慮情感因素的嘗試,幾乎都(dōu)注定會失敗。
然而,随著(zhe)人工智能(néng)的最新進(jìn)展,尤其是自然語言處理(NLP),我們終于有了能(néng)理解人類情感複雜性和利用其力量的技術工具。這(zhè)種(zhǒng)方法對(duì)于我們如何設計系統有著(zhe)重要的意義,它將(jiāng)會從更人性化的視角來解決問題。
爲差異而編程
語言是極其複雜的。從一個人到另一個人,某個人經(jīng)曆或環境中出現的細微差别,就會對(duì)他們表達自己的方式産生影響。方言,性别,地點,甚至季節都(dōu)可以改變我們用來表達想法的詞語。
人們很善于發(fā)現這(zhè)些細微的差别。然而,對(duì)于計算機來說,這(zhè)是一個巨大的挑戰。爲了達到接近人類的理解水平,它們需要一套龐大而豐富的語言訓練數據,涵蓋了人口統計學(xué)、經(jīng)曆和背景等各不相同的無數個案例。
要想知道(dào)這(zhè)在現實生活中是如何運作的,隻需要想象這(zhè)樣(yàng)的一個場景:在對(duì)于一個智能(néng)手機進(jìn)行評論時,加州的一個青少年使用的詞語是“lit”(意思是“興奮”),但在馬薩諸塞州一個老年人的評論中可能(néng)是“屏幕亮度”的意思。
字裡(lǐ)行間的閱讀
這(zhè)是第一次,我們能(néng)夠教會計算機不僅理解人們所說的基本知識——通過(guò)識别單詞或查找特定的短語,還(hái)能(néng)“讀懂字裡(lǐ)行間”,理解我們話語背後(hòu)的真正意圖和含義。當然,這(zhè)是一項重要的技能(néng),随著(zhe)時間的推移,人們逐漸將(jiāng)其作爲一種(zhǒng)同理心的功能(néng)。
常見的“滿意度調查”是一個典型的例子,體現出了技術在解決人們的感覺問題時的局限性。從原則上講,它是一種(zhǒng)了解人們對(duì)産品或服務的感受的有力工具。但在實踐中,它是笨拙的、不準确的、早就應該重新制作了。
考慮一下在大多數商店收據上的調查提示:“請爲你的體驗從1到10打分,并談談原因。”相比之下,一個人在面(miàn)對(duì)同樣(yàng)的情景時,可能(néng)隻需問一句“你覺得體驗怎麼(me)樣(yàng)?”然後(hòu)從回答者所使用的語言和整體的語境中推斷出“分數”。雖然人們不需要給出明确的評級,但機器可以做到。
照照鏡子
除了幫助我們更好(hǎo)地了解彼此,NLP還(hái)能(néng)讓我們更好(hǎo)地了解自己。語言是了解我們思想和情感的最詳盡的窗口。當技術能(néng)夠開(kāi)始理解我們(而不是它想要我們成(chéng)爲什麼(me)樣(yàng)子)時,它就會成(chéng)爲一個真正的合作夥伴,幫助我們發(fā)現如何最好(hǎo)地成(chéng)長(cháng)和改進(jìn)。
看看可怕的績效評估和各種(zhǒng)各樣(yàng)的偏見吧。當你在工作環境中詢問人們是否會有偏見,他們一般會下意識極力否認。然而,對(duì)績效評估的研究顯示了普遍的、無意識的偏見。
來自我的團隊的分析表明,當男性評價其他男性時,他們壓倒性地使用了被(bèi)動式的語言(“他們可以更積極主動”)。然而,當這(zhè)些男性對(duì)女性進(jìn)行評價時,他們經(jīng)常使用相互指責的語言(“你應該注意細節”)。通過(guò)數據驅動的技術,我們能(néng)夠進(jìn)一步了解許多人在無意識情況下隐藏的偏見。幸運的是,人工智能(néng)可以讓我們走上糾正這(zhè)種(zhǒng)偏見的道(dào)路,讓它們引起(qǐ)我們的注意。
要解決世界上最具挑戰性的“人的問題”,無論是通過(guò)開(kāi)發(fā)更好(hǎo)的産品,還(hái)是在工作場所實現更好(hǎo)的理解和更公平,我們都(dōu)需要技術來展現同理心。
轉載36氪:http://36kr.com/p/5099032.html