AI一天,人間一年。近兩年來(lái),AI技術(shù)發(fā)展迅猛,對(duì)我們生活滲透的速度,可以用一日千里形容。從智能家居到自動(dòng)駕駛,從智能客服到AI助手,從寫(xiě)作畫(huà)圖到情感陪伴,高效、便捷的AI技術(shù),一點(diǎn)一滴悄然改變著我們的行為,提升著我們的生活質(zhì)量和工作效率。
圖庫(kù)版權(quán)圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
許多像我一樣(天天夢(mèng)想著不勞而獲)的打工人,開(kāi)始做起了“無(wú)痛工作”的白日夢(mèng)——夢(mèng)想著能夠借助AI的力量,在不付出太多努力的情況下完成工作,享受生活。
每月花上兩三百塊錢(qián)開(kāi)個(gè)AI會(huì)員,實(shí)現(xiàn)50%以上工作外包,這事擱誰(shuí)身上沒(méi)有巨大的誘惑力呢?然而,當(dāng)我們沉浸在A(yíng)I帶來(lái)的便利中時(shí),也不得不警惕其可能給使用者帶來(lái)的負(fù)面影響:思維遲鈍、產(chǎn)生依賴(lài)、行動(dòng)懶惰。
聽(tīng)到這,有些朋友可能會(huì)懷疑,明明AI用著那么爽,出活那么快那么好,你這怕不是危言聳聽(tīng)吧?
這還真不是危言聳聽(tīng)。
近兩年,有多項(xiàng)研究得出了類(lèi)似結(jié)論,為了讓大家兼聽(tīng)則明,下面咱們用“人話(huà)”介紹幾個(gè)AI相關(guān)的研究以及學(xué)者們的結(jié)論和建議,請(qǐng)放心,零基礎(chǔ)也看得懂。
AI讓人在方向盤(pán)上睡著了?
沃頓商學(xué)院副教授伊森·莫里克 (EthanMollick) 2024年4月出版了一本書(shū)籍,叫《協(xié)同智能:與人工智能一起生活和工作》(Co-Intelligence:LivingandWorkingwithAI)。
書(shū)中介紹了一個(gè)實(shí)驗(yàn),莫里克和他的其他同行,請(qǐng)世界頂級(jí)咨詢(xún)公司之一的波士頓咨詢(xún)集團(tuán)(BCG)協(xié)助負(fù)責(zé)實(shí)施研究,近800名波士頓咨詢(xún)的顧問(wèn)參與了實(shí)驗(yàn)。
這些顧問(wèn)被隨機(jī)分為兩組,一組按照傳統(tǒng)方式正常工作,另一組必須使用GPT-4 (OpenAI的拳頭產(chǎn)品,大語(yǔ)言模型的領(lǐng)先者之一)。
這些顧問(wèn)在經(jīng)過(guò)人工智能培訓(xùn)后,可以自由執(zhí)行BCG設(shè)計(jì)的18項(xiàng)任務(wù),包括創(chuàng)意任務(wù)、分析任務(wù)、寫(xiě)作和營(yíng)銷(xiāo)任務(wù)、說(shuō)服力任務(wù)等,這些都是正常咨詢(xún)顧問(wèn)的工作范圍之內(nèi)的標(biāo)準(zhǔn)任務(wù)。
你猜哪組完成得更好?
圖庫(kù)版權(quán)圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
這個(gè)答案其實(shí)沒(méi)有懸念——使用了人工智能的那組做得更好。而且這種評(píng)判不是主觀(guān)的(某個(gè)領(lǐng)導(dǎo)說(shuō)你行你就行那種),而是研究者用了118次不同的分析,使用人工智能組仍然具有顯著優(yōu)勢(shì)。
人工智能組的顧問(wèn)們工作速度更快,更有創(chuàng)意、寫(xiě)得更好、分析能力更強(qiáng)。方方面面都行。
你可能會(huì)說(shuō):這不是很好嗎?
但是研究者發(fā)現(xiàn)了一些令人擔(dān)憂(yōu)的事——顧問(wèn)們?cè)谑褂萌斯ぶ悄軄?lái)幫助他們完成任務(wù)過(guò)程中,由于人工智能已經(jīng)完成了大部分工作,大多數(shù)實(shí)驗(yàn)參與者只是簡(jiǎn)單地粘貼他們被問(wèn)到的問(wèn)題,然后把人工智能的答案復(fù)制到他們的工作結(jié)果中。
然后BCG又設(shè)計(jì)了一項(xiàng)任務(wù),這項(xiàng)任務(wù)是經(jīng)過(guò)精心挑選的,以確保人工智能無(wú)法得出正確的答案——該任務(wù)結(jié)合了棘手的統(tǒng)計(jì)問(wèn)題和誤導(dǎo)性數(shù)據(jù)。
在沒(méi)有人工智能幫助的情況下,人類(lèi)顧問(wèn)的正確率是84%,但當(dāng)顧問(wèn)使用人工智能時(shí),只有60%到70%的正確率。
為什么會(huì)這樣?
聰明的你肯定也猜到了,顧問(wèn)們依然像上次一樣,僅僅簡(jiǎn)單地把人工智能的答案復(fù)制粘貼下來(lái)。這很難歸咎于顧問(wèn)們投機(jī)取巧。設(shè)想一下,你如果處在這個(gè)場(chǎng)景,面前已經(jīng)有一份看似“完美”的標(biāo)準(zhǔn)答案,很難克制自己不直接使用。
研究者們有個(gè)形象的比喻——過(guò)于依賴(lài)AI的顧問(wèn)們就像趴在方向盤(pán)上睡著的司機(jī),因?yàn)槿斯ぶ悄芴^(guò)強(qiáng)大,能較好地完成絕大部分工作,人類(lèi)不知不覺(jué)間給予了AI太多信任,但如果問(wèn)題超出了AI的能力,這種信任就可能鑄成大錯(cuò)。
AI將教“會(huì)”學(xué)生還是教“廢”學(xué)生?
人工智能在教育行業(yè)中正被越來(lái)越廣泛地使用,而機(jī)智的大學(xué)生們,已經(jīng)在第一時(shí)間使用各種大模型幫他們完成作業(yè)。此外,還有學(xué)?;蛘吖俜胶献鞯闹悄荏w軟硬件,以及其他商業(yè)公司提供的一些輔助教育產(chǎn)品都層出不窮。關(guān)于人工智能對(duì)教育領(lǐng)域的研究顯然是非常重要且必要的。
去年6月,有一項(xiàng)發(fā)表在《自然》雜志(Nature)上的研究,就探討了人工智能對(duì)巴基斯坦和中國(guó)大學(xué)生決策能力喪失、懶惰和隱私問(wèn)題的影響。
這項(xiàng)研究主要考察了巴基斯坦和中國(guó)來(lái)自不同大學(xué)的285名學(xué)生的學(xué)習(xí)情況,數(shù)據(jù)分析結(jié)果表明,人工智能顯著影響學(xué)生和教師的決策能力,并使學(xué)生變得懶惰。此外,還會(huì)帶來(lái)安全和隱私方面的問(wèn)題。
調(diào)查結(jié)果顯示,人類(lèi)(參與的教師和學(xué)生)68.9%的懶惰、68.6%的個(gè)人隱私和安全問(wèn)題、27.7%的決策失誤都是由于人工智能影響。
圖庫(kù)版權(quán)圖片,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛
使用人工智能技術(shù)的教師和學(xué)生會(huì)慢慢地、逐漸地失去自己做任務(wù)的興趣,還會(huì)逐漸導(dǎo)致人類(lèi)決策權(quán)的喪失。當(dāng)人工智能的使用和依賴(lài)增加時(shí),會(huì)自動(dòng)限制人腦的思維能力。
同時(shí),人工智能的使用,會(huì)大幅減少實(shí)時(shí)物理交互,并會(huì)影響學(xué)生和教師之間的教育環(huán)境。
在真實(shí)的環(huán)境中,教師和學(xué)生之間存在大量的互動(dòng),這會(huì)發(fā)展學(xué)生的個(gè)性和公民素養(yǎng),例如,學(xué)生可以向其他學(xué)生學(xué)習(xí),向老師提問(wèn),感受同學(xué)們之間的反饋等等,光靠AI的話(huà)全都難以做到。
這項(xiàng)研究認(rèn)為,在教育中大規(guī)模應(yīng)用人工智能技術(shù)之前,需要采取重要的預(yù)防措施。在不解決人類(lèi)主要問(wèn)題(人性天然具有弱點(diǎn))的情況下,貿(mào)然接受人工智能就像召喚魔鬼一樣。建議集中精力合理設(shè)計(jì)、部署和使用人工智能進(jìn)行教育來(lái)解決這個(gè)問(wèn)題。
用的AI越好,招募人才越容易?
AI還有個(gè)常見(jiàn)應(yīng)用,就是幫助人力資源部門(mén)篩選簡(jiǎn)歷,幫助招聘,那么效果究竟怎么樣呢?
哈佛商學(xué)院創(chuàng)新科學(xué)實(shí)驗(yàn)室的社會(huì)學(xué)家法布里奇奧·戴爾阿夸(FabrizioDell'Acqua)2022年發(fā)布了一項(xiàng)研究,他聘請(qǐng)了181名專(zhuān)業(yè)招聘人員來(lái)審查44份簡(jiǎn)歷。
他把受試者隨機(jī)分為四組,分別與“能完美預(yù)測(cè)的人工智能”、“好人工智能”、“壞人工智能”、“無(wú)人工智能”搭檔進(jìn)行招聘工作。
結(jié)果發(fā)現(xiàn),使用高質(zhì)量人工智能的受試者,對(duì)工作申請(qǐng)的評(píng)估不太準(zhǔn)確,他們?cè)诿糠莺?jiǎn)歷上花費(fèi)的時(shí)間和精力更少,并且盲目遵循人工智能的建議。隨著時(shí)間的推移,他們也沒(méi)有改善。
但使用“壞人工智能”的招聘人員會(huì)付出更多的努力并花費(fèi)更多的時(shí)間來(lái)評(píng)估簡(jiǎn)歷,并且不太可能自動(dòng)選擇人工智能推薦的候選人,他們更加警覺(jué)、更加挑剔、更加獨(dú)立。這些招聘人員學(xué)會(huì)了如何與指定的人工智能更好地互動(dòng),并提高了他們的績(jī)效。
這說(shuō)明高性能人工智能可能會(huì)“鼓勵(lì)”人類(lèi)多偷懶,把掌舵的方向盤(pán)完全交給了人工智能,自己在駕駛員的位置上睡著了。
讓AI幫助人類(lèi)向上,人類(lèi)監(jiān)督AI向善
史蒂芬·霍金曾說(shuō)過(guò),人工智能的成功創(chuàng)造將是人類(lèi)歷史上最重大的事件。不幸的是,除非我們學(xué)會(huì)避免風(fēng)險(xiǎn),否則這也可能是最后一次。
無(wú)可否認(rèn),我們?nèi)祟?lèi)天生具有某些短板,這也是我們之所以為人的重要屬性。偉大的科技在開(kāi)創(chuàng)之初,都是為了彌補(bǔ)或平衡人類(lèi)的短板,我們最不希望看到的結(jié)果——它讓我們的短板越來(lái)越短。
人工智能技術(shù)是為了造福人類(lèi)而開(kāi)發(fā)的,但從目前看,它并沒(méi)有實(shí)現(xiàn)在某些方面讓人類(lèi)的自身水平提升獲益。
我們作為豐富感性的碳基人類(lèi),難免偶爾會(huì)偷懶,但我們需要認(rèn)識(shí)到,當(dāng)我們完全信任地把決策權(quán)悉數(shù)交給一個(gè)系統(tǒng)時(shí),這實(shí)際上在進(jìn)行一筆交易,隱藏的成本可能是你內(nèi)源性的深度思考和技能成長(zhǎng)空間。(咳咳咳,此處特別強(qiáng)調(diào)給用人工智能“交作業(yè)”的一些學(xué)生朋友們,小機(jī)靈鬼,說(shuō)的就是你)
當(dāng)工作中為了提效,和人工智能協(xié)作時(shí),我們應(yīng)該將人工智能視為一個(gè)古怪的隊(duì)友,而不是一個(gè)無(wú)所不知的仆人。我們得記得檢查其謊言和偏見(jiàn)、馬虎或遺漏,同時(shí)還要權(quán)衡其決策的道德性。最重要的,考慮哪些任務(wù)值得交給它,哪些任務(wù)我們想保留給自己。
畢竟,如果真的讓人工智能完全“替自己打工”,那么,未來(lái)某一天,砸掉自己飯碗的,不是人工智能,而是你自己。
參考文獻(xiàn)
[1]AhmadSF,HanH,AlamMM,RehmatMK,IrshadM,Arra?o-Mu?ozM,Ariza-MontesA.Impactofartificialintelligenceonhumanlossindecisionmaking,lazinessandsafetyineducation.HumanitSocSciCommun.2023;10(1):311.doi:10.1057/s41599-023-01787-8.Epub2023Jun9.PMID:37325188;PMCID:PMC10251321.
[2]《Co-Intelligence:LivingandWorkingwithAI》byEthanMollick.PublishedbyPortfolio,animprintofPenguinRandomHouse.Copyright2024.
[3]《allingAsleepattheWheel:Human/AICollaborationinaFieldExperimentonHRRecruiters》,FabrizioDell’Acqua,LaboratoryforInnovationScience,HarvardBusinessSchool
策劃制作
作者丨木木 北京師范大學(xué)數(shù)學(xué)專(zhuān)業(yè)資深產(chǎn)品經(jīng)理 人工智能創(chuàng)業(yè)者
審核丨于旸 騰訊玄武實(shí)驗(yàn)室負(fù)責(zé)人