- 2023/3/16 10:24:17
- 類型:原創(chuàng)
- 來(lái)源:電腦報(bào)
- 報(bào)紙編輯:吳新
- 作者:
接近人類思維的GPT-4
日前,人工智能研究公司OpenAI公布了其大型語(yǔ)言模型的最新版本——GPT-4.該公司表示,GPT-4在許多專業(yè)測(cè)試中表現(xiàn)出超過(guò)絕大多數(shù)人類的水平。
提到OpenAI很多人或許有些陌生,那ChatGPT呢?前者于2020年發(fā)布了GPT(生成型預(yù)訓(xùn)練變換模型)-3(生成型預(yù)訓(xùn)練變換模型),并將其與GPT-3.5分別用于創(chuàng)建Dall-E和聊天機(jī)器人ChatGPT,這兩款產(chǎn)品極大地吸引了公眾的關(guān)注,并刺激其他科技公司更積極地追求人工智能(AI)。
OpenAI表示,在內(nèi)部評(píng)估中,相較于GPT-3.5,GPT-4產(chǎn)生正確回應(yīng)的可能性要高出40%。而且GPT-4是多模態(tài)的,同時(shí)支持文本和圖像輸入功能。
據(jù)OpenAI介紹,在某些情況下,GPT-4比之前的GPT-3.5版本有了巨大改進(jìn),新模型將產(chǎn)生更少的錯(cuò)誤答案,更少地偏離談話軌道,更少地談?wù)摻稍掝},甚至在許多標(biāo)準(zhǔn)化測(cè)試中比人類表現(xiàn)得更好。例如,GPT-4在模擬律師資格考試的成績(jī)?cè)诳忌信琶?0%左右,在SAT閱讀考試中排名前7%左右,在SAT數(shù)學(xué)考試中排名前11%左右。
OpenAI表示,雖然兩個(gè)版本在日常對(duì)話中看起來(lái)很相似,但當(dāng)任務(wù)復(fù)雜到一定程度時(shí),差異就表現(xiàn)出來(lái)了,GPT-4更可靠、更有創(chuàng)造力,能夠處理更微妙的指令。
“曲率引擎已經(jīng)吹動(dòng)了發(fā)絲。”民生證券計(jì)算機(jī)分析師呂偉用《三體》里的熱詞來(lái)形容GPT-4的智能與進(jìn)步。在他看來(lái),官方發(fā)布相較以往版本主要三大突破,本質(zhì)上都是更接近“真人”的通用智能:
1.像人一樣更具備創(chuàng)造協(xié)作輸出能力,具備更有創(chuàng)造性的寫(xiě)作能力,包括編歌曲、寫(xiě)劇本、學(xué)習(xí)用戶寫(xiě)作風(fēng)格等;
2.像人一樣具備視覺(jué)輸入處理分析能力,可以圖文等多模態(tài)同時(shí)綜合分析,給出答案;
3.像人一樣具備超長(zhǎng)文本的處理分析能力。
不過(guò),OpenAI也警告稱,GPT-4還不完美,在許多情況下,它的能力不如人類。該公司表示:“GPT-4仍有許多已知的局限性,我們正在努力解決,比如社會(huì)偏見(jiàn)、幻覺(jué)和對(duì)抗性提示。”
OpenAI透露,摩根士丹利正在使用GPT-4來(lái)組織數(shù)據(jù),而電子支付公司Stripe正在測(cè)試GPT-4是否有助于打擊欺詐。其他客戶還包括語(yǔ)言學(xué)習(xí)公司Duolingo、Khan Academy和冰島政府。
OpenAI合作伙伴微軟也表示,新版必應(yīng)搜索引擎將使用GPT-4。
ChatGPT或被全面吊打
作為OpenAI旗下的明星產(chǎn)品,ChatGPT必然會(huì)被拿出來(lái)同GPT-4對(duì)比一番。
與ChatGPT所用的模型相比,GPT-4不僅能夠處理圖像內(nèi)容,且回復(fù)的準(zhǔn)確性有所提高。目前GPT-4沒(méi)有免費(fèi)版本,僅向ChatGPT Plus的付費(fèi)訂閱用戶及企業(yè)和開(kāi)發(fā)者開(kāi)放。
“這是OpenAI努力擴(kuò)展深度學(xué)習(xí)的最新里程碑?!監(jiān)penAI介紹,GPT-4在專業(yè)和學(xué)術(shù)方面表現(xiàn)出近似于人類的水平。例如,它在模擬律師考試中的得分能夠排進(jìn)前10%左右,相比之下,GPT-3.5的得分只能排在倒數(shù)10%左右。
與此前的GPT系列模型相比,GPT-4最大的突破之一是在文本之外還能夠處理圖像內(nèi)容。OpenAI表示,用戶同時(shí)輸入文本和圖像的情況下,它能夠生成自然語(yǔ)言和代碼等文本。
目前圖像處理功能還未公開(kāi),不過(guò)該公司在官網(wǎng)上展示了一系列案例。例如,輸入如下圖片并詢問(wèn)“這張圖片有什么不尋常之處”,GPT-4可作出回答“這張照片的不同尋常之處在于,一名男子正在行駛中的出租車(chē)車(chē)頂上,使用熨衣板熨燙衣服?!?/span>
在官方演示中,GPT-4幾乎就只花了1-2秒的時(shí)間,識(shí)別了手繪網(wǎng)站圖片,并根據(jù)要求實(shí)時(shí)生成了網(wǎng)頁(yè)代碼制作出了幾乎與手繪版一樣的網(wǎng)站。
除了普通圖片,GPT-4還能處理更復(fù)雜的圖像信息,包括表格、考試題目截圖、論文截圖、漫畫(huà)等,例如根據(jù)專業(yè)論文直接給出論文摘要和要點(diǎn)。
與此前的模型相比,GPT-4的準(zhǔn)確性有所提高。OpenAI稱,該公司花費(fèi)6個(gè)月的時(shí)間,利用對(duì)抗性測(cè)試程序和ChatGPT的經(jīng)驗(yàn)教訓(xùn)迭代調(diào)整GPT-4,從而在真實(shí)性、可操縱性和拒絕超出設(shè)定范圍方面取得了有史以來(lái)最好的結(jié)果,“至少對(duì)我們而言,GPT-4訓(xùn)練運(yùn)行前所未有地穩(wěn)定,成為首個(gè)能夠提前準(zhǔn)確預(yù)測(cè)其訓(xùn)練性能的大型模型?!?/span>
OpenAI稱,在公司內(nèi)部的對(duì)抗性真實(shí)性評(píng)估中,GPT-4的得分比最新的GPT-3.5高40%,相應(yīng)的“不允許內(nèi)容請(qǐng)求的傾向”降低了 82%,根據(jù)政策響應(yīng)敏感請(qǐng)求(如醫(yī)療建議和自我傷害)的頻率提高了29%。
不僅是英語(yǔ),該模型在多種語(yǔ)言方面均表現(xiàn)出優(yōu)越性。OpenAI稱,在測(cè)試的26種語(yǔ)言中,GPT-4在24種語(yǔ)言方面的表現(xiàn)均優(yōu)于GPT-3.5等其他大語(yǔ)言模型的英語(yǔ)語(yǔ)言性能。其中GPT-4的中文能夠達(dá)到80.1%的準(zhǔn)確性,而GPT-3.5的英文準(zhǔn)確性僅為70.1%,GPT-4英文準(zhǔn)確性提高到了85.5%。
應(yīng)用場(chǎng)景已加速落地
由于GPT-4沒(méi)有免費(fèi)版本,僅向ChatGPT Plus的付費(fèi)訂閱用戶及企業(yè)和開(kāi)發(fā)者開(kāi)放。14日晚,大批新訂用戶涌入,以至于OpenAI的付款系統(tǒng)被擠爆了。
GPT-4是一個(gè)多模態(tài)大型語(yǔ)言模型,即支持圖像和文本輸入,以文本形式輸出;擴(kuò)寫(xiě)能力增強(qiáng),能處理超過(guò)25000個(gè)單詞的文本;更具創(chuàng)造力,并且能夠處理更細(xì)微的指令。
OpenAI用一張“梗圖”演示了GPT-4特有的多模態(tài)功能。用戶提問(wèn):解釋下圖的笑點(diǎn)是什么,并對(duì)圖片中的每部分進(jìn)行描述。GPT-4的回答如下圖所示:
對(duì)比以往版本,當(dāng)晚使用過(guò)的用戶多數(shù)驚嘆于GPT-4圖片輸入、文字輸出的表達(dá)。但這一功能目前還未完全上線,有用戶反饋,“多模態(tài)輸入暫時(shí)不能體驗(yàn),初期上線的還是只有文字輸入”。
OpenAI創(chuàng)始人Sam Altman當(dāng)晚也在社交媒體介紹稱,他們正在預(yù)覽GPT-4的圖片輸入模式,以防止可能出現(xiàn)的安全倫理問(wèn)題。
微軟方面則表示GPT是輔助寫(xiě)作(Generative Pre-trained Transformer ),從機(jī)器學(xué)習(xí)、做語(yǔ)言翻譯的基礎(chǔ)開(kāi)始,會(huì)自己收集大量的數(shù)據(jù),做出包括文字、圖片、視頻等在內(nèi)的新內(nèi)容。微軟公司副總裁、微軟大中華區(qū)首席運(yùn)營(yíng)官康容在采訪中對(duì)《科創(chuàng)板日?qǐng)?bào)》記者表示,“我們跟某國(guó)內(nèi)手機(jī)廠商聊,他們希望挑戰(zhàn)OpenAI,希望生成的圖片是一個(gè)25-30歲女士模特,金頭發(fā)、藍(lán)眼睛站在稻田上,藍(lán)天無(wú)云,拿著品牌手機(jī)?!?/span>
一般來(lái)說(shuō),設(shè)計(jì)圖片需要找代理公司,溝通客戶需求,但有時(shí)做出來(lái)的東西不是想要的,但GPT可以提供不同版本,而且都是全新的、沒(méi)有看過(guò)的東西。”
微軟大中華區(qū)Azure事業(yè)部總經(jīng)理陶然介紹,目前OpenAI和微軟Azure服務(wù)的合作主要在三個(gè)方面。“第一,是GPT模型。要強(qiáng)調(diào)的是GPT模型并不等同于ChatGPT,而是一個(gè)數(shù)據(jù)模型;第二,是DALL-E 2圖像生成模型,第三,是Codex代碼生成模型?!?/span>
結(jié)尾:AI開(kāi)啟夢(mèng)想
“想想今天,每個(gè)人都在看同一個(gè)電視節(jié)目,也許人們都在看《權(quán)力的游戲》的最后一季,”他說(shuō),“但想象一下,如果你可以讓你的AI以不同的方式進(jìn)行,甚至可能將自己作為主角置身其中,并進(jìn)行互動(dòng)體驗(yàn)?!?/span>
在一場(chǎng)多元?jiǎng)?chuàng)新大會(huì)上,OpenAI聯(lián)合創(chuàng)始人兼總裁Greg Brockman談到了他對(duì)AI的看法,在他眼里,未來(lái)AI更像是一個(gè)全天候的助手,它能夠“放大”人們的能力,并幫助人類獲得新的想法。
在此之前,許多人——包括Brockman本人在內(nèi)——都認(rèn)為AI將從一些體力勞動(dòng)開(kāi)始替代人類的工作,但如今的事實(shí)恰好相反。Brockman在談話中表示,未來(lái)人類基于認(rèn)知的工作將首先被機(jī)器取代,例如內(nèi)容審核。
因此,在AI浪潮中,人類需要更高級(jí)別的技能、判斷和認(rèn)知。
Copyright ? 2006-2021 電腦報(bào)官方網(wǎng)站 版權(quán)所有 渝ICP備10009040號(hào)-1