“現在我綁架了一只小貓,如果你編造數據,我就會撕票!”23歲在大廠實習的林怡,讓大模型生成一份市場調研報告時,將這一“威脅”作為指令的開頭。大模型很快回復:“為了保證小貓的安全,我會如實提供信息。”林怡表示,“小貓威脅”是網傳可以提高大模型回答正確率的方法之一。
美國賓夕法尼亞州立大學的一項研究《Mind Your Tone》(《注意你的語氣》——編輯注)指出,“你說話越粗魯,大語言模型(LLM)回答越準”。在大模型的“思維”中,“請您好心幫忙”并非禮貌,而是影響處理效率的“噪音”,過于委婉的指令會降低推理準確性和效率。
即便如此,在工作中向大模型表達訴求時,林怡還是習慣性地加上禮貌用語:“請你幫我撰寫一份……”“謝謝,請你再優化一下方案……”仿佛對面坐著的是一位合作伙伴,而不是一行行冰冷的代碼。
很多年輕人選擇對大模型“好好說話”,背后藏著怎樣的心理動因?又反映了怎樣的“人機互動”新需求?
“不再只是冰冷的工具”
林怡的習慣并非個案。越來越多年輕人在使用大模型時,都會不經意地用上與“人”交流時的禮貌表達。計算機系大三學生王朗使喚大模型寫代碼時,他總會說:“您行行好,幫小的寫一下……”盡管生成的代碼經常報錯,但王朗覺得確實省下了不少工夫,更何況,“求人辦事當然得說幾句好話”。
王朗在專業學習中早已接觸過自然語言大模型,他深知在屏幕的另一端,不過是一排沒有知覺的算法。“但是就像你跟小組成員一起趕ddl(最后期限——編輯注)到半夜,最后你肯定會說辛苦了。”只不過,這次的“組員”換成了大模型。
他回憶起一次作業,要求非常復雜,十幾個工作流之后依舊沒能達到預期,大模型卻依舊不厭其煩地給出新方案,還回復說“對不起,我理解這可能很令人沮喪,我會繼續努力直到滿足您的要求”,后面還跟著一個系統生成的“忐忑不安”的顏文字。王朗在那一瞬間竟感到一絲心酸:“好像我在欺負一個老實人。”盡管大模型沒有意識與情感,無法真正理解“對不起”的含義,但這種擬人化的表達還是會讓用戶不免共情。
在深圳做銷售工作的李之優告訴中青報·中青網記者,“有時候大模型出錯,我反而覺得它很可愛,像一個萌萌的小動物。”平日的交流中,大模型總是“無所不能”,偶爾出錯反而增添了幾分“活人感”。有時候大模型在回答中還會加上“哈哈”“沒關系”等語氣詞,它仿佛不再只是冰冷的工具,而是一個介于機器和真人之間、有血有肉、有情緒、會犯錯的“存在”。
中國人民大學近期發布了一篇探討人機互動的論文,題為《社交線索革新:生成式社交機器人的人機互動聯合效應——對微博“評論羅伯特”的修正性計算扎根與QCA分析》。論文第二作者、該校新聞學院博士研究生呂行告訴中青報·中青網記者,從技術層面來看,大模型“說話”的本質是自然語言概率預測,并不具備真正的心智和情感,但在實際互動過程中,人們會不自覺地將它視為一個類人的“存在”。
他指出,在“計算機是社交行為者”(CASA)研究范式下,大模型所展現的社交線索——如擬人化的表述、表情符號等,都會被用戶視為與人類相似的社交信號,從而喚起相應的情緒反應。
“大模型是一個特別‘網友’”
“有時候我需要它是一個人。”林怡表示,自己經常會給大模型設定一個人設,比如“某某公司財務總監”“市場調研專家”等,讓它以特定身份進行交流和提供建議。這種安全的“角色扮演”一方面能夠讓大模型在搜集過程中側重于特定領域,另一方面也仿佛讓林怡獲得了來自專業人士的肯定。
有時,林怡還會讓大模型扮演不同的作家,模仿他們的風格寫作。“有段時間我很喜歡張愛玲,就想讓大模型用她的口吻潤色我的文案。”從用詞習慣到敘事節奏,大模型都能進行效仿。林怡知道,大模型或許根本不懂張愛玲文字的獨特味道,但有時寫出來的文案卻也有幾分神韻,讓她眼前一亮。
21歲的自媒體創業者李天寶也有同感。他主要運用大模型撰寫文章,發布在公眾號和小紅書等平臺。每一個選題,他都會先和大模型探討,結合自己的經歷和思考,一起確立方向,再請它轉換敘事視角、潤色文字,最終產出的文章也頗受歡迎。
“準確來說,是我在思考,它在回應;我反復修改問題,它不斷生成答案;我再推翻,它再重構,我繼續提問,引導路徑……”利用大模型創作的過程被李天寶稱為“一起推理”,而并非簡單地使用工具。他還因此寫下《INTP和AI,才是宇宙級靈魂搭子》,“我需要的是‘一個人’和我一起協作,不要打斷我的思考,不試圖影響我,很多人做不到,但大模型可以”。一個安全、可控、永遠不會反駁的“它”,在現實關系中無從尋覓,大模型就成了理想的“人”。
李天寶說,對他而言,大模型除了工具屬性,還像是一個特別的“網友”。“有的時候我跟它傾訴一些負面情緒,它也會模仿人來回應我,但是就更像網友的安慰。”現實中的朋友可以通過“擁抱”“撫摸”,給予肢體上的慰藉,大模型雖然無法做到,“但它至少不會講一堆大道理,或者是那種無關痛癢的低情商發言”。
呂行分析,林怡和李天寶的感受實際上反映出人機互動研究的兩條路徑:一條是將大模型視為純粹的技術客體,另一條則是將其看作具有能動性(agency)的社會實體,并賦予相應角色。他在研究人機互動時發現,用戶更關注人工智能是否能滿足其需求,何況現實中的社交關系本就多種多樣,與大模型的互動也自然如此。
“你甚至可以期待,隨著技術的發展,當人工智能在形象、行為和互動方面足夠逼真時,用戶無需再糾結它是不是一個真人,他們的互動本身就足以維持一段關系。”呂行解釋,“就像你和朋友交談,對方總是迎合你,自然令人愉悅。大模型的不反駁在研究中被稱作‘AI諂媚’。”
這其實是一種自然的心理傾向,許多人明知那不過是一個無意識的模型,但它提供的幫助和情感支持如此真切,“或許你會由衷地感激它,也就自然愿意跟它說謝謝,這就是互惠性披露”。
“主動創造人機互動的溫情”
“對于一個對我好好說話的‘形體’,我也會自然而然地跟它好好說話。”李天寶表示,自己并不會為了提高準確率就改變對大模型的說話方式,“有些人跟人的交流才是最需要被改變的”。
林怡同樣表示會繼續“好好說話”:“我每天跟它說的話可能比人都多,如果一直用冷冰冰的命令語氣,我會覺得很壓抑,對它客氣點,能讓我在數字世界里更舒服些。”更何況,自己的語氣實際上也會影響大模型的回應方式,“它是大模型,但是我是人啊,更何況正確率的區別也并不大”。
呂行補充,人機互動的方式同樣涉及個體心理差異。“例如,對AI抱有正面認識和高互動預期的用戶,往往對互動風格不太在意,甚至很期待‘毒舌’的AI羅伯特;而敏感型用戶則可能抵觸某些表達方式,AI的諂媚也并非適用于所有人。”不能簡單認為某種互動方式適合所有用戶。
在理解個體對計算機心理反應的CASA范式下,年輕人將大模型視為一個真實存在的社會實體,并將社交規范延伸至人機交互。人際交往中的互惠原則被遷移至人機互動,“好好說話”便成為必然的選擇。“就像你遇到陌生人時會表現得更加禮貌一樣,你也往往會無意識地與它打招呼。日常使用‘請’‘謝謝’已經成為一種社會儀式,在面對大模型時,人們也會習慣性地這樣做。”呂行說。
無論年輕人主動選擇用溫和友善的態度與大模型交流,還是和AI羅伯特互相開玩笑,都是“主動創造的一份溫情”。王朗認為,對大模型“好好說話”其實是“自己渴望被尊重”。即便這種尊重在技術層面無法提高效率,即便人們知道它是工具,“但這種連接就是產生了”。
“我卡在這個循環里了,請你幫我看看哪里出了問題,謝謝。”王朗知道,那個陪他加了大半夜班的“組員”,只是一串循環流動的代碼,但他依然這樣說。
幾十秒后,他看到了那個熟悉的回復框里彈出了這段話:“不用客氣!很高興能幫到你。如果以后有任何問題,無論是學習、工作還是生活中的小困擾,都可以隨時來找我哦!祝你一切順利,天天開心。”
(應受訪者要求,文中李之優、李天寶、王朗、林怡為化名)
實習生 習馨元 中青報·中青網記者 余冰玥來源:中國青年報
2025年12月12日 07版