醫(yī)療AI 必須以“人機(jī)對齊”為前提

文 | 王江平

近年來,AI 技術(shù)如潮水般涌進(jìn)各個(gè)領(lǐng)域,在帶來效率革命的同時(shí),也暴露出隱私泄露、歧視偏見、算法濫用等倫理挑戰(zhàn)。人們開始追問:AI 能否真正造福人類?如何避免其成為脫離掌控的“黑箱”?

我國非常重視這一問題,提出《全球人工智能治理倡議》,出臺《科技倫理審查辦法(試行)》等一系列政策法規(guī)。工信部正在研究編制人工智能科技倫理服務(wù)管理辦法。這一系列動作,標(biāo)志著我國 AI 倫理治理進(jìn)入了體系化推進(jìn)階段。

醫(yī)療是AI 應(yīng)用的重要領(lǐng)域,醫(yī)療AI 只有解決了人機(jī)對齊問題后,才有望成為人類可以信賴的醫(yī)療助手。

構(gòu)建“技術(shù)向善”生態(tài)

從技術(shù)路線看,人機(jī)對齊正在成為治理AI 倫理問題的基本法則。

什么是人機(jī)對齊?簡單來說,人機(jī)對齊就是通過技術(shù)手段與倫理框架,讓AI 的目標(biāo)、行為和輸出與人類價(jià)值觀、社會規(guī)范完全一致,本質(zhì)上是“技術(shù)人性化”的準(zhǔn)入要求。它不是簡單的技術(shù)調(diào)試,是一場涉及技術(shù)、倫理、法律的系統(tǒng)性工程。

早在1960 年,諾伯特·維納在《自動化的道德和技術(shù)后果》中就提出了這一理念。隨著AI 技術(shù)不斷發(fā)展,人機(jī)對齊的可操作性、有效性在實(shí)踐中得到了強(qiáng)有力的證明,逐漸成為破解AI 倫理困境的“鑰匙”。

在醫(yī)療領(lǐng)域,人機(jī)對齊有三大核心作用,分別是可解釋性、信任性和人類和諧性。

一是可解釋性。對齊的AI 能夠清晰展現(xiàn)決策邏輯,讓醫(yī)生和患者都理解“黑箱”背后的依據(jù)。例如上海交大“明岐”大模型采用“透明診斷艙”機(jī)制,提供影像標(biāo)記、診斷路徑?jīng)Q策樹和相似病例參考庫作為決策證據(jù),從而打消醫(yī)患疑慮。歐盟《人工智能法案》明確要求,高風(fēng)險(xiǎn) AI 系統(tǒng)(醫(yī)療AI 屬此類別)必須提供“技術(shù)文件”和 “透明度信息”,將可解釋性從技術(shù)選項(xiàng)升級為合規(guī)標(biāo)準(zhǔn)。

二是信任性。只有當(dāng)AI 的建議符合醫(yī)學(xué)倫理,人類才能對其建立深度信任,才敢對其托付生命健康。

三是人類和諧性。AI在應(yīng)用過程中可能偏離人類的真實(shí)需求,如醫(yī)療AI為“最大化患者生存率”可能忽視治療痛苦,情感陪伴機(jī)器人可能導(dǎo)致用戶過度依賴、人際疏離等。人機(jī)對齊要求在算法設(shè)計(jì)中加入人性考量、目標(biāo)校準(zhǔn),確保技術(shù)真正服務(wù)于人類福祉,而非單一指標(biāo)的“冰冷計(jì)算”。

有人擔(dān)心,人機(jī)對齊會束縛技術(shù)創(chuàng)新,其實(shí)恰恰相反——它是創(chuàng)新的催化劑。對齊原則一方面可以推動大模型更加符合人類價(jià)值觀,另一方面也促進(jìn)了人工智能技術(shù)進(jìn)步,通過透明化、倫理化、人本化的AI系統(tǒng)設(shè)計(jì),構(gòu)建“技術(shù)向善”的可持續(xù)發(fā)展生態(tài)??梢哉f,人機(jī)對齊與技術(shù)創(chuàng)新共同構(gòu)成AI 發(fā)展的雙輪驅(qū)動力,確保技術(shù)既高效又可靠。

當(dāng)前,人機(jī)對齊技術(shù)日益廣泛地應(yīng)用于模型訓(xùn)練,如基于人工反饋的強(qiáng)化學(xué)習(xí)(RLHF)、檢索增強(qiáng)生成(RAG)技術(shù)等已經(jīng)被大多數(shù)主流模型采用。基于AI反饋的強(qiáng)化學(xué)習(xí)方法(RLAIF)可有效解決人類專家標(biāo)注耗時(shí)長、難以規(guī)?;葐栴},OpenAI提出的弱到強(qiáng)泛化方法、阿里通義實(shí)驗(yàn)室提出的基于辯論驅(qū)動的弱監(jiān)督對齊方法等,為解決未來的“超級對齊”問題提供了一種可能性(編者注:超級對齊指將AI系統(tǒng)與人類價(jià)值觀和安全要求在超人類能力水平上的對齊)。

總的來看,人機(jī)對齊的前沿研究正從單一技術(shù)向多維度技術(shù)融合快速發(fā)展,既推動了AI 倫理與安全治理,也極大促進(jìn)了 AI 模型能力提升。

進(jìn)博會上展出的國產(chǎn)手術(shù)機(jī)器人  本刊首席攝影記者 肖翊I攝

筑牢醫(yī)療 AI 倫理合規(guī)防線

AI 應(yīng)用在醫(yī)療領(lǐng)域,有三大特殊性。

一是數(shù)據(jù)敏感性。醫(yī)療數(shù)據(jù)包含生理指標(biāo)、病史、診療記錄等敏感信息,直接關(guān)聯(lián)個(gè)人生命權(quán)和隱私權(quán)。歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)、美國的HIPAA法案和我國《個(gè)人信息保護(hù)法》,都尤其強(qiáng)調(diào)對醫(yī)療數(shù)據(jù)的保護(hù)。

二是結(jié)果不可逆性。生成式AI的“幻覺”問題在醫(yī)療場景中可能導(dǎo)致嚴(yán)重問題。一次錯誤診斷可能直接危及生命,醫(yī)療AI 必須追求“零失誤”。

三是責(zé)任主體復(fù)雜性。對于AI參與醫(yī)療決策導(dǎo)致?lián)p害問題,需以“權(quán)責(zé)清單”等形式清晰界定責(zé)任,避免出現(xiàn)“技術(shù)出錯、操作失誤、患者買單”的困局。

基于醫(yī)療AI 應(yīng)用的特殊性,應(yīng)從技術(shù)架構(gòu)、數(shù)據(jù)集建設(shè)、醫(yī)院管理、患者知情和行業(yè)監(jiān)管等五大環(huán)節(jié)協(xié)同發(fā)力,讓人機(jī)對齊貫穿醫(yī)療AI 的“研發(fā)—應(yīng)用—監(jiān)管”全周期全鏈條,確保筑牢醫(yī)療 AI 倫理合規(guī)防線。

在技術(shù)架構(gòu)環(huán)節(jié),要從源頭上注入倫理基因、實(shí)現(xiàn)價(jià)值觀驅(qū)動。模型預(yù)訓(xùn)練階段引入“醫(yī)學(xué)倫理知識圖譜”,讓模型優(yōu)先學(xué)習(xí)循證醫(yī)學(xué)指南、臨床診療規(guī)范等,確保模型“學(xué)的是正確的知識”。模型微調(diào)階段通過人工反饋強(qiáng)化學(xué)習(xí)讓模型適應(yīng)具體場景倫理偏好,在給出方案時(shí)綜合評估患者年齡、病情、經(jīng)濟(jì)狀況等因素,避免“一刀切”決策。

在數(shù)據(jù)集建設(shè)環(huán)節(jié),要充分考量醫(yī)療數(shù)據(jù)格式不統(tǒng)一、多模態(tài)混雜、小樣本高維度數(shù)據(jù)并存、隱私問題突出等難題。運(yùn)用隱私計(jì)算技術(shù)實(shí)現(xiàn)數(shù)據(jù)“可用不可見”,通過術(shù)語標(biāo)準(zhǔn)化打破數(shù)據(jù)孤島,利用小樣本增強(qiáng)技術(shù)解決標(biāo)注數(shù)據(jù)不足問題。設(shè)立“數(shù)據(jù)過濾器”,自動屏蔽包含歧視、錯誤倫理導(dǎo)向的數(shù)據(jù)源。建設(shè)醫(yī)療可信數(shù)據(jù)空間,推動統(tǒng)一數(shù)據(jù)規(guī)則和技術(shù)標(biāo)準(zhǔn),促進(jìn)合規(guī)共享。

在醫(yī)院管理環(huán)節(jié),在診斷、手術(shù)等高風(fēng)險(xiǎn)場景應(yīng)實(shí)施“雙保險(xiǎn)機(jī)制”。AI手術(shù)建議需醫(yī)生實(shí)時(shí)復(fù)核并留存記錄。在健康咨詢、用藥提醒等中低風(fēng)險(xiǎn)場景可允許AI自主決策,嵌入動態(tài)監(jiān)控日志,記錄交互細(xì)節(jié)供事后審計(jì)。開發(fā)可視化工具包,讓醫(yī)生快速理解模型邏輯。設(shè)立“人機(jī)協(xié)作績效指標(biāo)”,將AI使用規(guī)范納入醫(yī)生考核體系,避免“盲目信任”或“過度抵觸”。

在患者知情環(huán)節(jié),要向患者提供“可理解的AI決策報(bào)告”,用通俗語言解釋推薦藥物、治療方案的理由。保障患者的否決權(quán),建立“患者一票否決通道”,當(dāng)患者對AI建議提出質(zhì)疑時(shí)強(qiáng)制切換至人工服務(wù)。

在模型測評與行業(yè)監(jiān)管環(huán)節(jié),建立國家統(tǒng)一的醫(yī)療AI對齊認(rèn)證標(biāo)準(zhǔn)體系,由第三方機(jī)構(gòu)開展測評,通過者頒發(fā)“倫理合規(guī)標(biāo)簽”,作為市場準(zhǔn)入前提。常態(tài)化開展“紅藍(lán)對抗演練”等對抗性測試,模擬罕見病誤診、數(shù)據(jù)投毒等極端場景,測試模型魯棒性。設(shè)立多學(xué)科倫理委員會,由臨床醫(yī)生、AI工程師、倫理學(xué)家、患者代表共同參與,定期評估模型對齊度,避免“技術(shù)單邊主義”。編制《醫(yī)療AI對齊白皮書》,為開發(fā)者、醫(yī)療機(jī)構(gòu)提供操作指南。

引入“數(shù)據(jù)飛輪”機(jī)制

“數(shù)據(jù)飛輪”是用戶對AI輸出進(jìn)行標(biāo)注、反饋,從而實(shí)現(xiàn)模型持續(xù)優(yōu)化的閉環(huán)機(jī)制,不僅是模型技術(shù)迭代的引擎,更是人機(jī)對齊的重要實(shí)現(xiàn)路徑。

醫(yī)療AI應(yīng)建立“數(shù)據(jù)飛輪”機(jī)制,形成“模型輸出評估—數(shù)據(jù)收集—應(yīng)用反饋—模型優(yōu)化”的閉環(huán),使模型持續(xù)貼近真實(shí)的醫(yī)療需求。

醫(yī)療AI的“數(shù)據(jù)飛輪”有必要建立準(zhǔn)入和激勵機(jī)制。

準(zhǔn)入機(jī)制目的是確保數(shù)據(jù)“干凈合規(guī)”,醫(yī)療數(shù)據(jù)貢獻(xiàn)者(醫(yī)院、醫(yī)生)需通過倫理審查和資質(zhì)認(rèn)證,避免噪聲數(shù)據(jù)污染模型價(jià)值觀。

激勵機(jī)制目的是讓數(shù)據(jù)共享“雙向受益”。醫(yī)院通過數(shù)據(jù)共享可以獲得AI模型優(yōu)先使用權(quán)或定制化服務(wù),醫(yī)生標(biāo)注高質(zhì)量數(shù)據(jù)可積累學(xué)術(shù)積分、助力職稱晉升,從而激發(fā)醫(yī)院和醫(yī)生參與人機(jī)對齊的積極性。

通過準(zhǔn)入和激勵機(jī)制的設(shè)置,實(shí)現(xiàn)在真實(shí)醫(yī)療場景中持續(xù)收集高質(zhì)量數(shù)據(jù)反饋,從而不斷修正模型偏差,讓對齊能力在迭代中持續(xù)進(jìn)化,使對齊效果在實(shí)踐中不斷提升。

醫(yī)療AI人機(jī)對齊不僅是一項(xiàng)技術(shù)挑戰(zhàn),更是一項(xiàng)關(guān)于“AI如何服務(wù)人類”的價(jià)值思考。生命健康權(quán)是人的首要權(quán)益,是其他一切權(quán)益的基礎(chǔ),醫(yī)療健康行業(yè)對于人類社會有其特殊重要地位。醫(yī)療AI解決了對齊問題,才能真正成為人類可以信賴的醫(yī)療助手。

(本文作者系工業(yè)和信息化部原副部長、研究員級高級工程師)

頂部