當前位置:首頁 > 新聞資訊 > IT業(yè)界 > 新聞
ChatGPT已不夠聰明?GPT-4有望孵化超級AI
  • 2023/3/16 10:24:17
  • 類型:原創(chuàng)
  • 來源:電腦報
  • 報紙編輯:吳新
  • 作者:
【電腦報在線】大數(shù)據(jù)時代,信息技術(shù)更迭很快,但真沒想到能快成這樣。大多數(shù)人還沒能和ChatGPT聊上天的今天,它的下一代技術(shù)已經(jīng)登場且應(yīng)用也快速落地……

接近人類思維的GPT-4


日前,人工智能研究公司OpenAI公布了其大型語言模型的最新版本——GPT-4.該公司表示,GPT-4在許多專業(yè)測試中表現(xiàn)出超過絕大多數(shù)人類的水平。


提到OpenAI很多人或許有些陌生,那ChatGPT呢?前者于2020年發(fā)布了GPT(生成型預(yù)訓(xùn)練變換模型)-3(生成型預(yù)訓(xùn)練變換模型),并將其與GPT-3.5分別用于創(chuàng)建Dall-E和聊天機器人ChatGPT,這兩款產(chǎn)品極大地吸引了公眾的關(guān)注,并刺激其他科技公司更積極地追求人工智能(AI)。


OpenAI表示,在內(nèi)部評估中,相較于GPT-3.5,GPT-4產(chǎn)生正確回應(yīng)的可能性要高出40%。而且GPT-4是多模態(tài)的,同時支持文本和圖像輸入功能。


據(jù)OpenAI介紹,在某些情況下,GPT-4比之前的GPT-3.5版本有了巨大改進,新模型將產(chǎn)生更少的錯誤答案,更少地偏離談話軌道,更少地談?wù)摻稍掝},甚至在許多標準化測試中比人類表現(xiàn)得更好。例如,GPT-4在模擬律師資格考試的成績在考生中排名前10%左右,在SAT閱讀考試中排名前7%左右,在SAT數(shù)學(xué)考試中排名前11%左右。


OpenAI表示,雖然兩個版本在日常對話中看起來很相似,但當任務(wù)復(fù)雜到一定程度時,差異就表現(xiàn)出來了,GPT-4更可靠、更有創(chuàng)造力,能夠處理更微妙的指令。


“曲率引擎已經(jīng)吹動了發(fā)絲?!泵裆C券計算機分析師呂偉用《三體》里的熱詞來形容GPT-4的智能與進步。在他看來,官方發(fā)布相較以往版本主要三大突破,本質(zhì)上都是更接近“真人”的通用智能:


1.像人一樣更具備創(chuàng)造協(xié)作輸出能力,具備更有創(chuàng)造性的寫作能力,包括編歌曲、寫劇本、學(xué)習(xí)用戶寫作風(fēng)格等;

2.像人一樣具備視覺輸入處理分析能力,可以圖文等多模態(tài)同時綜合分析,給出答案;

3.像人一樣具備超長文本的處理分析能力。


不過,OpenAI也警告稱,GPT-4還不完美,在許多情況下,它的能力不如人類。該公司表示:“GPT-4仍有許多已知的局限性,我們正在努力解決,比如社會偏見、幻覺和對抗性提示?!?/span>


OpenAI透露,摩根士丹利正在使用GPT-4來組織數(shù)據(jù),而電子支付公司Stripe正在測試GPT-4是否有助于打擊欺詐。其他客戶還包括語言學(xué)習(xí)公司Duolingo、Khan Academy和冰島政府。


OpenAI合作伙伴微軟也表示,新版必應(yīng)搜索引擎將使用GPT-4。


ChatGPT或被全面吊打


作為OpenAI旗下的明星產(chǎn)品,ChatGPT必然會被拿出來同GPT-4對比一番。


與ChatGPT所用的模型相比,GPT-4不僅能夠處理圖像內(nèi)容,且回復(fù)的準確性有所提高。目前GPT-4沒有免費版本,僅向ChatGPT Plus的付費訂閱用戶及企業(yè)和開發(fā)者開放。


“這是OpenAI努力擴展深度學(xué)習(xí)的最新里程碑。”O(jiān)penAI介紹,GPT-4在專業(yè)和學(xué)術(shù)方面表現(xiàn)出近似于人類的水平。例如,它在模擬律師考試中的得分能夠排進前10%左右,相比之下,GPT-3.5的得分只能排在倒數(shù)10%左右。


與此前的GPT系列模型相比,GPT-4最大的突破之一是在文本之外還能夠處理圖像內(nèi)容。OpenAI表示,用戶同時輸入文本和圖像的情況下,它能夠生成自然語言和代碼等文本。


目前圖像處理功能還未公開,不過該公司在官網(wǎng)上展示了一系列案例。例如,輸入如下圖片并詢問“這張圖片有什么不尋常之處”,GPT-4可作出回答“這張照片的不同尋常之處在于,一名男子正在行駛中的出租車車頂上,使用熨衣板熨燙衣服?!?/span>


在官方演示中,GPT-4幾乎就只花了1-2秒的時間,識別了手繪網(wǎng)站圖片,并根據(jù)要求實時生成了網(wǎng)頁代碼制作出了幾乎與手繪版一樣的網(wǎng)站。


除了普通圖片,GPT-4還能處理更復(fù)雜的圖像信息,包括表格、考試題目截圖、論文截圖、漫畫等,例如根據(jù)專業(yè)論文直接給出論文摘要和要點。


與此前的模型相比,GPT-4的準確性有所提高。OpenAI稱,該公司花費6個月的時間,利用對抗性測試程序和ChatGPT的經(jīng)驗教訓(xùn)迭代調(diào)整GPT-4,從而在真實性、可操縱性和拒絕超出設(shè)定范圍方面取得了有史以來最好的結(jié)果,“至少對我們而言,GPT-4訓(xùn)練運行前所未有地穩(wěn)定,成為首個能夠提前準確預(yù)測其訓(xùn)練性能的大型模型。”


OpenAI稱,在公司內(nèi)部的對抗性真實性評估中,GPT-4的得分比最新的GPT-3.5高40%,相應(yīng)的“不允許內(nèi)容請求的傾向”降低了 82%,根據(jù)政策響應(yīng)敏感請求(如醫(yī)療建議和自我傷害)的頻率提高了29%。


不僅是英語,該模型在多種語言方面均表現(xiàn)出優(yōu)越性。OpenAI稱,在測試的26種語言中,GPT-4在24種語言方面的表現(xiàn)均優(yōu)于GPT-3.5等其他大語言模型的英語語言性能。其中GPT-4的中文能夠達到80.1%的準確性,而GPT-3.5的英文準確性僅為70.1%,GPT-4英文準確性提高到了85.5%。


應(yīng)用場景已加速落地

由于GPT-4沒有免費版本,僅向ChatGPT Plus的付費訂閱用戶及企業(yè)和開發(fā)者開放。14日晚,大批新訂用戶涌入,以至于OpenAI的付款系統(tǒng)被擠爆了。


GPT-4是一個多模態(tài)大型語言模型,即支持圖像和文本輸入,以文本形式輸出;擴寫能力增強,能處理超過25000個單詞的文本;更具創(chuàng)造力,并且能夠處理更細微的指令。


OpenAI用一張“梗圖”演示了GPT-4特有的多模態(tài)功能。用戶提問:解釋下圖的笑點是什么,并對圖片中的每部分進行描述。GPT-4的回答如下圖所示:


對比以往版本,當晚使用過的用戶多數(shù)驚嘆于GPT-4圖片輸入、文字輸出的表達。但這一功能目前還未完全上線,有用戶反饋,“多模態(tài)輸入暫時不能體驗,初期上線的還是只有文字輸入”。


OpenAI創(chuàng)始人Sam Altman當晚也在社交媒體介紹稱,他們正在預(yù)覽GPT-4的圖片輸入模式,以防止可能出現(xiàn)的安全倫理問題。


微軟方面則表示GPT是輔助寫作(Generative Pre-trained Transformer ),從機器學(xué)習(xí)、做語言翻譯的基礎(chǔ)開始,會自己收集大量的數(shù)據(jù),做出包括文字、圖片、視頻等在內(nèi)的新內(nèi)容。微軟公司副總裁、微軟大中華區(qū)首席運營官康容在采訪中對《科創(chuàng)板日報》記者表示,“我們跟某國內(nèi)手機廠商聊,他們希望挑戰(zhàn)OpenAI,希望生成的圖片是一個25-30歲女士模特,金頭發(fā)、藍眼睛站在稻田上,藍天無云,拿著品牌手機?!?/span>


一般來說,設(shè)計圖片需要找代理公司,溝通客戶需求,但有時做出來的東西不是想要的,但GPT可以提供不同版本,而且都是全新的、沒有看過的東西。”


微軟大中華區(qū)Azure事業(yè)部總經(jīng)理陶然介紹,目前OpenAI和微軟Azure服務(wù)的合作主要在三個方面。“第一,是GPT模型。要強調(diào)的是GPT模型并不等同于ChatGPT,而是一個數(shù)據(jù)模型;第二,是DALL-E 2圖像生成模型,第三,是Codex代碼生成模型?!?/span>


結(jié)尾:AI開啟夢想


“想想今天,每個人都在看同一個電視節(jié)目,也許人們都在看《權(quán)力的游戲》的最后一季,”他說,“但想象一下,如果你可以讓你的AI以不同的方式進行,甚至可能將自己作為主角置身其中,并進行互動體驗。”


在一場多元創(chuàng)新大會上,OpenAI聯(lián)合創(chuàng)始人兼總裁Greg Brockman談到了他對AI的看法,在他眼里,未來AI更像是一個全天候的助手,它能夠“放大”人們的能力,并幫助人類獲得新的想法。


在此之前,許多人——包括Brockman本人在內(nèi)——都認為AI將從一些體力勞動開始替代人類的工作,但如今的事實恰好相反。Brockman在談話中表示,未來人類基于認知的工作將首先被機器取代,例如內(nèi)容審核。


因此,在AI浪潮中,人類需要更高級別的技能、判斷和認知。

編輯|張毅
審核|吳新
壹零社
本文出自2023-03-13出版的《電腦報》2023年第10期 A.新聞周刊
(網(wǎng)站編輯:ChengJY)