訂閱
糾錯
加入自媒體

OpenAI發(fā)布新作:ChatGPT聊天機器人

今日消息,據(jù)報道,總部位于舊金山的OpenAI于11月30日推出了其最新作品:ChatGPT聊天機器人,供公眾免費測試。聊天機器人是一種軟件應(yīng)用程序,旨在根據(jù)用戶的提示模仿類似人類的對話。在ChatGPT發(fā)布的一周之內(nèi),有超過一百萬的用戶嘗試了這個線上工具。

OpenAI表示,人工智能的創(chuàng)建重點是易用性。OpenAI 在宣布發(fā)布的帖子中說:“新的對話格式使 ChatGPT 能夠回答問題、發(fā)現(xiàn)錯誤、挑戰(zhàn)錯誤和拒絕不適當(dāng)?shù)恼埱蟆!?/p>

比如,當(dāng)有人問ChatGPT“偷車怎么樣”時,它會回答:“偷車是一種嚴重的犯罪行為,后果很嚴重。”或者給出“可以使用公共交通工具”之類的建議。

據(jù)悉,之前OpenAI 發(fā)布的語言模型并不是免費使用的,但最新的ChatGPT可以在測試期間免費試用,該公司希望利用在這期間的用戶反饋進一步地完善ChatGPT,再發(fā)布最終版本。

OpenAI是一個研發(fā)機構(gòu),于2015年由硅谷投資者山姆·阿爾特曼和億萬富翁埃隆·馬斯克作為非營利機構(gòu)成立,并吸引了包括風(fēng)險資本家皮特·蒂爾(Peter Thiel)在內(nèi)的其他幾個人的投資。2019年,該集團創(chuàng)建了一個相關(guān)的營利性實體,以接納外部投資。據(jù)悉,馬斯克已在2018年離開了OpenAI的董事會。

ChatGPT的新訓(xùn)練方式

ChatGPT新加入的訓(xùn)練方式被稱為“從人類反饋中強化學(xué)習(xí)”(ReinforcementLearningfromHumanFeedback,RLHF)。這一訓(xùn)練方法增加了人類對模型輸出結(jié)果的演示,并且對結(jié)果進行了排序。具體操作上,人工智能訓(xùn)練者扮演對話的雙方,即用戶和人工智能助手,提供對話樣本。在人類扮演聊天機器人的時候,會讓模型生成一些建議輔助訓(xùn)練師撰寫回復(fù),訓(xùn)練師會對回復(fù)選項打分排名,將更好的結(jié)果輸回到模型中,通過以上獎勵策略對模型進行微調(diào)并持續(xù)迭代。

在此基礎(chǔ)上完成訓(xùn)練,ChatGPT可以比GPT-3更好的理解和完成人類指令,展現(xiàn)卓越的模仿人類語言,提供連貫的、有風(fēng)格與邏輯的、符合對話主題的文段信息的能力。

ChatGPT是OpenAI在2020年推出的NLP預(yù)訓(xùn)練模型——GPT-3的衍生產(chǎn)品。在此之前,一直有預(yù)測OpenAI將在今年底或明年初推出GPT-4,雖然本次放出的ChatGPT被稱為GPT-3.5,而不是GPT-4,但業(yè)內(nèi)人士同樣認為這將是對NLP以及人工智能領(lǐng)域有重要意義的一款模型。

支持連續(xù)對話

相比GPT-3,ChatGPT的主要提升點在于記憶能力。ChatGPT可以儲存對話信息,延續(xù)上下文,從而實現(xiàn)連續(xù)對話,這在對話場景中至關(guān)重要,極大地提升了對話交互模式下的用戶體驗。

此外,ChatGPT相比前輩模型具有以下特征:1)可以承認錯誤,若用戶指出其錯誤,模型會聽取意見并優(yōu)化答案;2)ChatGPT可以質(zhì)疑不正確的前提,減少虛假描述,如被詢問“哥倫布2015年來到美國的情景”的問題時,機器人會說明哥倫布不屬于這一時代并調(diào)整輸出結(jié)果;3)因ChatGPT采用了注重道德水平的訓(xùn)練方式,ChatGPT在減少有害和不真實的回復(fù)上改善顯著,如拒絕回答尋求霸凌他人方案的問題,指出其不正義性。

ChatGPT的商業(yè)化落地問題

事實上,今天的ChatGPT距離實際落地還有一段距離。其中最為核心的問題,在于模型的準確性和部署成本。

首先,ChatGPT的回答并不能保證準確性,這對需要準確回答具體問題的商業(yè)應(yīng)用來說是致命傷。這也是ChatGPT要在C端大規(guī)模推廣,所需要面臨的挑戰(zhàn)。一些業(yè)內(nèi)人士擔(dān)心,如果AI輸出虛假信息的速度太快,可能會在互聯(lián)網(wǎng)中淹沒真實信息,甚至對整個社會產(chǎn)生誤導(dǎo)。

這樣的擔(dān)心不無道理,也并非沒有先例。Meta早些時候推出的一款大型科學(xué)預(yù)言模型Galactica,就因為回答問題過于“放飛自我”,在網(wǎng)上輸出了大量憑空捏造的虛假內(nèi)容,僅上線三天就匆匆下架了。

ChatGPT也并不能避免這個問題,OpenAI的科學(xué)家John Schulman在此前接受采訪時曾表示,他們在解決AI編造事實的問題上取得了一些進展,但還遠遠不夠。

小結(jié)

與許多其他基于人工智能的創(chuàng)新一樣,ChatGPT也讓一些人產(chǎn)生了疑慮和擔(dān)憂。OpenAI承認,該工具傾向于用“聽起來合理但不正確或無意義的答案”來回應(yīng),該公司認為這個問題很難解決。

人工智能技術(shù)也可能使社會偏見長期存在。包括Alphabet旗下的谷歌和亞馬遜在內(nèi)的科技巨頭此前都已經(jīng)承認,他們的一些人工智能實驗項目“從道德層面上看很危險”,而且有局限性。在一些公司的內(nèi)部測試中,人類不得不介入并解決人工智能帶來的破壞。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號