【資料圖】
OpenAI的聊天機(jī)器人ChatGPT在全球范圍內(nèi)廣受歡迎,然而,最新的研究顯示,該機(jī)器人在關(guān)鍵領(lǐng)域——癌癥治療方案的生成上,存在嚴(yán)重錯(cuò)誤,遠(yuǎn)不能取代人類專家。這項(xiàng)研究由美國(guó)哈佛醫(yī)學(xué)院附屬的布里格姆婦女醫(yī)院的研究人員進(jìn)行,結(jié)果發(fā)表在《美國(guó)醫(yī)學(xué)會(huì)腫瘤學(xué)雜志》上。研究人員向ChatGPT提出了各種癌癥病例的治療方案,結(jié)果發(fā)現(xiàn)三分之一的回答中包含了不正確的信息。研究還指出,ChatGPT傾向于將正確和錯(cuò)誤的信息混合在一起,因此很難識(shí)別哪些信息是準(zhǔn)確的。該研究的合著者Danielle Bitterman博士表示,他們對(duì)錯(cuò)誤信息與正確信息混合在一起的程度感到震驚,這使得即使是專家也很難發(fā)現(xiàn)錯(cuò)誤。ChatGPT于2022年11月推出后迅速走紅,兩個(gè)月后就達(dá)到了1億活躍用戶。盡管ChatGPT取得了成功,但生成型人工智能模型仍然容易出現(xiàn)“幻覺”,即自信地給出誤導(dǎo)性或完全錯(cuò)誤的信息。人工智能融入醫(yī)療領(lǐng)域的努力已經(jīng)在進(jìn)行中,主要是為了簡(jiǎn)化管理任務(wù)。本月早些時(shí)候,一項(xiàng)重大研究發(fā)現(xiàn),使用人工智能篩查乳腺癌是安全的,并且可能將放射科醫(yī)生的工作量減少近一半。哈佛大學(xué)的一位計(jì)算機(jī)科學(xué)家最近發(fā)現(xiàn),最新版本的模型GPT-4可以輕松通過美國(guó)醫(yī)學(xué)執(zhí)照考試,并暗示它比一些醫(yī)生具有更好的臨床判斷力。然而,由于ChatGPT等生成型模型存在準(zhǔn)確性問題,它們不太可能在近期取代醫(yī)生?!睹绹?guó)醫(yī)學(xué)會(huì)腫瘤學(xué)雜志》上的研究發(fā)現(xiàn),ChatGPT的回答中有12.5%是“幻覺”,并且在被問及晚期疾病的局部治療或免疫療法時(shí),最有可能給出錯(cuò)誤的信息。OpenAI已經(jīng)承認(rèn)ChatGPT可能不可靠,該公司的使用條款警告說,他們的模型并非旨在提供醫(yī)療信息,也不應(yīng)該用于“為嚴(yán)重的醫(yī)療狀況提供診斷或治療服務(wù)”。