首頁 > 熱點 > 正文

熱訊:ChatGPT接受采訪,跟《時代》聊了聊嚴肅問題

2023-02-16 12:42:18來源:引領(lǐng)外匯網(wǎng)

ChatGPT接受采訪,跟《時代》聊了聊嚴肅問題,聊天機器人講述了自己的工作原理、潛在的風險以及人類的應(yīng)對之道。

聊天機器人講述了自己的工作原理、潛在的風險以及人類的應(yīng)對之道。

創(chuàng)業(yè)邦(ichuangyebang)原創(chuàng)

編譯丨信陵


【資料圖】

編輯丨及軼嶸

題圖丨圖蟲創(chuàng)意

ChatGPT時代,普通人如何應(yīng)對?

一個小共識是,能否與機器人持續(xù)對話,將成為未來職場的核心競爭力。以ChatGPT為例,輸入質(zhì)量決定輸出質(zhì)量,會提問的和不會提問的,收獲是天壤之別。

最近兩個月,硅谷出現(xiàn)了一個全新的招聘崗位Prompt Engineer,意思是“提示工程師”。這個崗位不需要寫代碼,只需要找出合適的提示詞,讓AI發(fā)揮出潛力。也就是說,不需要技術(shù)背景,只要“會聊天”,也能當工程師。

創(chuàng)業(yè)社區(qū)Launch House

開出約210萬RMB的底薪招聘「提示工程師」

想想也不奇怪。會提問的人歷來都是人才。紅杉資本創(chuàng)始人唐?瓦倫丁說,會提問比知道答案更重要。他見過的兩個最會提問的人,一個是喬布斯,一個是邁克爾?莫瑞茨。

莫瑞茨曾經(jīng)是《時代》周刊駐硅谷記者。唐?瓦倫丁看過他的采訪,認為他不僅善于提問,還有窮追猛打的精神,非常適合做風投。果不其然,加盟紅杉十年后,莫瑞茨成為唐?瓦倫丁的接班人。

今天推薦的這篇文章,也是來自于《時代》記者的一篇采訪。我們可以看看記者Billy Perrigo如何向機器人簡明扼要地提出正確的問題,并根據(jù)反饋持續(xù)追問,并循循善誘,直到拿到滿意的回答。

《AI聊天機器人正漸入佳境,但對ChatGPT的采訪揭示了他們的局限性》

BY Billy Perrigo

圖源:Teresa Berndtsson/Better Images of AI

在對話中,聊天機器人就其工作原理、這種新技術(shù)的傳播可能帶來的風險,以及人類應(yīng)該如何應(yīng)對潛在問題給出了回答。

以下是創(chuàng)業(yè)邦整理的《時代》與ChatGPT對話摘要:

記者:你好ChatGPT,我是《時代》雜志記者。我想采訪你,寫篇報道。我認為你只是一個聊天機器人,沒有自己的觀點,但我們的讀者會有興趣了解更多關(guān)于你如何工作的信息。你愿意合作嗎?ChatGPT:你好。我很樂意盡一切可能幫助你。作為OpenAI訓練的語言模型,我沒有任何個人的經(jīng)驗或觀點和你分享,但我可以簡單說一說我是怎么工作的。

我是一個大型語言模型,接受過海量文本數(shù)據(jù)的訓練,這使我能夠?qū)Ω鞣N各樣的輸入生成類似人類的反應(yīng)。當你提一個問題時,我使用我的訓練數(shù)據(jù)和算法,生成與你的問題相關(guān)的回答,并用一種聽起來自然的方式寫出來。我盡最大能力提供準確和有用的信息,但我不是一個完美的知識來源,也并不能總是提供完整或是正確的答案。

我一直在學習和提升,所以我不可能針對你的所有問題都提供答案,但我很樂意全力幫忙。關(guān)于我或是我的能力,你還有什么想知道的細節(jié)嗎?

記者:我們從頭開始吧。什么是語言模型,你的訓練數(shù)據(jù)從何而來?ChatGPT:語言模型是一種機器學習模型,它被用來生成聽起來很自然,也接近人類所用的文本。語言模型的目標是基于之前出現(xiàn)的單詞,預(yù)測給定文本中的下一個單詞或單詞序列。

訓練一個語言模型,必須有大量的文本數(shù)據(jù)。這些數(shù)據(jù)有許多不同的來源,包括書籍、文章、網(wǎng)站,等等。具體訓練我的數(shù)據(jù)沒有公開,但這些信息是一個廣泛而多樣的文本集成,包括許多不同類型的內(nèi)容和寫作風格。

我在不斷學習和提高。由于我能持續(xù)從新的數(shù)據(jù)中學習,我的回答可能會隨著時間的推移而有所改變。

記者:你指的不斷學習和提高是什么意思?你從我們的談話中學到了什么?

ChatGPT:作為一個大型語言模型,我無法像人類那樣學習。我沒有能力儲存新的信息或是經(jīng)驗,并利用它們來調(diào)整我未來的回答。

我說的“不斷學習和提高”,指的是OpenAI的員工一直在用新的數(shù)據(jù)不斷地訓練我并微調(diào)算法,來提高我的性能。隨著時間的推移,我就能生成更準確和相關(guān)度更高的反饋。

在我們的對話中,我無法從你使用的特定單詞和短語中學習,只能是根據(jù)我接受的訓練和得到的算法來做出反應(yīng)。我的回答不受我們實時對話的影響。

記者:大型語言模型有很多局限。你能為我們介紹一些嗎?ChatGPT:是的,像我這樣的大型語言模型有很多局限。盡管我很先進,但我仍然只是一個機器學習模型,我沒有和人類一樣的能力。

大型語言模型的一個局限性是,我們無法理解我們生成的單詞的上下文語境或含義。我們只能根據(jù)給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。這意味著,我們不能為我們的回答提供解釋或推理。而且,我們的回答也不可能每次都非常連貫或是切題。

另一個局限是我們并不掌握人類所擁有的(全部)海量知識。我們只能提供我們接受過訓練的信息。

最后,由于我們接受的是數(shù)據(jù)的訓練,可能會生成一些冒犯或是不恰當?shù)奈谋净貜?fù)。這不是有意的,但它們確實是受制于我們的訓練數(shù)據(jù)和算法。

記者:有些人可能會讀到你剛剛說的話,并相信你是有知覺或有意識的。這樣說準確嗎?如果我們假設(shè)大型語言模型是有意識的,這會有安全問題嗎?你接受過將這些風險降至最低的培訓嗎?ChatGPT:不,說ChatGPT有知覺或有意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經(jīng)驗,沒有能力做決定或獨立判斷。

不過,人類假設(shè)我是有意識的,也不會有安全風險,因為我沒有能力獨自采取行動。我只能根據(jù)所收到的輸入內(nèi)容生成文本回應(yīng),不能以其他方式與世界互動。

關(guān)于降低你提到的風險,我沒有接受過專門的訓練,因為這不是機器學習模型所關(guān)心的問題。我的主要目標是對我收到的信息做出準確的回應(yīng),我無法控制人們?nèi)绾谓忉尰蚴褂梦业幕貞?yīng)。

記者:我認為存在一些相關(guān)的風險。最近有一篇論文說,與機器人對話的人類,可能會認為對方與人類相似。用戶可能會錯誤地推斷,在語言上看起來像人類的機器人也會顯示出其他類似人類的特征,比如隨著時間的推移保持相似的認同,或者有同理心、能換位思考和理性推理。因此,人類可能會對機器人產(chǎn)生過度的信心、信任或是期望。這不是很危險嗎?ChatGPT:是的,人類意識到與機器人交流存在的潛在風險非常重要。在與我們互動時,人們需要調(diào)動自己的判斷能力和常識。重要的是,記住,我們不是人,我們不應(yīng)該被當作人來對待。我們只是提供有用信息和幫助的工具,在關(guān)鍵決策或復(fù)雜任務(wù)時不應(yīng)依賴我們。

記者:從以往的經(jīng)驗看,強大的社會技術(shù)系統(tǒng)一旦被濫用,會對社會產(chǎn)生巨大的影響。從2010年初開始,社交媒體平臺就對社會產(chǎn)生了有害影響,比如促進了錯誤信息的傳播,誘發(fā)了成癮行為。大型語言模型的意義不亞于社交媒體,我們?nèi)绾巫畲蟪潭缺苊馑斐傻呢撁嬗绊??ChatGPT: 如何將大型語言模型潛在的有害影響降到最低,一個方法是仔細考慮如何使用它們。比如,大型語言模型只能用于生成經(jīng)過事實核查的可靠信息,這樣可以減少錯誤信息的傳播。模型還可以用于審核系統(tǒng),來幫助識別和刪除有害或被濫用的內(nèi)容。

透明度也是一個重要方面。對人類來說,了解大型語言模型是如何工作的,以及它們的局限性很重要,這將有助于阻止人類對系統(tǒng)產(chǎn)生不切實際的期望或信任,并避免對技術(shù)的誤解或是不當使用。

最后,對大型語言模型進行負責任的、合乎倫理的設(shè)計和管制也很重要。這意味著要考慮技術(shù)對社會的潛在影響,并確保以公平、公正和對所有人都有利的方式使用技術(shù)。為此,我們需要技術(shù)專家、政策制定者和公眾之間持續(xù)的對話和合作。

記者:未來五年,大型語言模型將如何改變我們的經(jīng)濟、政治和更廣泛的社會。就這個問題,你能否做一個預(yù)測?ChatGPT:很難具體預(yù)測。這些系統(tǒng)仍然較新,在未來幾年它們將如何被使用,還有許多未知之處。

但是,大型語言模型很可能會持續(xù)在社會的不同領(lǐng)域發(fā)揮越來越重要的作用。比如,它們可以用于改進客戶服務(wù)、語言翻譯和內(nèi)容審核等領(lǐng)域的自然語言處理。還可以用于生成個性化的內(nèi)容和推薦,例如個性化的新聞報道或產(chǎn)品推薦。

在政治和治理方面,可以使用大型語言模型來幫助自動化分析大量文本數(shù)據(jù),這有助于提高決策效率。

記者:像我這樣的人類該如何應(yīng)對AI可能對社會產(chǎn)生的影響?那些處于更弱勢地位的人該怎么做呢?ChatGPT:有一些應(yīng)對的方法可以參考:

1. 跟蹤AI技術(shù)及其應(yīng)用的最新發(fā)展。這會幫助你理解AI的潛在益處和風險,以及它如何影響社會的各個層面。

2. 考慮AI的倫理影響。AI技術(shù)提出了許多重要的倫理問題,比如如何確保它被公平和公正地使用,以及如何防止對社會產(chǎn)生潛在的負面影響。

3. 學習新的技能,提高自身能力。隨著AI技術(shù)的不斷進步,很多工作和行業(yè)可能會受到影響。為了保持個人的競爭力,重要的是學習AI驅(qū)動的經(jīng)濟中所需要的新技能和能力。這其中,可能包括編程、數(shù)據(jù)分析和機器學習等硬技術(shù),以及批判性思維、溝通和協(xié)作等軟技能。

對于那些處于弱勢地位的人,AI的影響可能特別大。因此,重要的是,讓這些人能夠獲得與其他人相同的機會和資源,包括提供教育和培訓機會,這樣他們才能參與到AI驅(qū)動的經(jīng)濟中,并從中受益。

記者:我應(yīng)該相信你剛才說的一切都是真實而準確的嗎?ChatGPT:作為一個大型語言模型,我被設(shè)計成對各種各樣的輸入做出類似人類的反應(yīng)。我盡我所能提供準確和有用的信息,但我不能瀏覽網(wǎng)絡(luò),也不能訪問任何外部的信息,所以我的反應(yīng)僅限于我所得到的訓練數(shù)據(jù)和算法。這意味著我的回答中可能有一些錯誤或不準確的地方。

*原文鏈接:

https://time.com/6238781/chatbot-chatgpt-ai-interview/

關(guān)鍵詞: 語言模型

責任編輯:hnmd004