◇實(shí)現(xiàn)科技與倫理的動(dòng)態(tài)適配,需從事后糾偏轉(zhuǎn)向過(guò)程嵌入,將倫理原則前移至技術(shù)研發(fā)、應(yīng)用部署的全流程
◇腦機(jī)接口可增強(qiáng)認(rèn)知能力,基因編輯可改變生理特征,但“為人”的關(guān)鍵仍是自我意識(shí)的連續(xù)性、自主決策能力以及為決策負(fù)責(zé)的態(tài)度
◇“善”不是抽象的道德概念,而是要確保技術(shù)發(fā)展不偏離人類(lèi)共同利益,讓所有人都能從技術(shù)進(jìn)步中受益,實(shí)現(xiàn)人與技術(shù)的和諧共生
隨著生成式人工智能、基因編輯、量子計(jì)算等顛覆性技術(shù)的迅猛發(fā)展,人類(lèi)社會(huì)正面臨著前所未有的倫理挑戰(zhàn)。例如生殖細(xì)胞編輯的倫理爭(zhēng)議持續(xù)發(fā)酵;Neuralink等腦機(jī)接口涉及意識(shí)上傳、記憶篡改風(fēng)險(xiǎn);合成生物學(xué)如基因驅(qū)動(dòng)滅蚊可能破壞生態(tài)平衡,等等。
技術(shù)的指數(shù)級(jí)發(fā)展與倫理規(guī)約的漸進(jìn)性適應(yīng)之間形成了日益凸顯的張力?!恫t望》新聞周刊記者采訪(fǎng)多位專(zhuān)家,就當(dāng)前科技與倫理的沖突與調(diào)和路徑進(jìn)行深入解析。
受訪(fǎng)專(zhuān)家認(rèn)為,面對(duì)快速的技術(shù)迭代,治理手段須實(shí)現(xiàn)從宏觀(guān)敘事向微觀(guān)實(shí)踐轉(zhuǎn)向,針對(duì)AI、生物技術(shù)及數(shù)據(jù)安全等不同領(lǐng)域,根據(jù)具體應(yīng)用場(chǎng)景的風(fēng)險(xiǎn)特征,建立敏捷、靈活且具備差異化的分類(lèi)倫理治理機(jī)制,將倫理原則細(xì)化為可操作的倫理規(guī)則。
科技突破與倫理滯后
《瞭望》:新一輪科技突破速度和外溢影響遠(yuǎn)超以往,倫理建設(shè)滯后于技術(shù)創(chuàng)新。不同領(lǐng)域的倫理適配缺口呈現(xiàn)怎樣的差異?又該如何構(gòu)建與技術(shù)發(fā)展動(dòng)態(tài)適配的治理體系?
張成崗:人類(lèi)社會(huì)的倫理規(guī)范通常在長(zhǎng)期實(shí)踐中緩慢形成,具有天然滯后性,而當(dāng)代數(shù)字技術(shù)、生物技術(shù)正以前所未有的速度突破既有邊界,倫理建設(shè)跟不上技術(shù)創(chuàng)新的步伐,且不同領(lǐng)域的倫理適配缺口差異顯著。
AI發(fā)展速度已超出大多數(shù)倫理框架的預(yù)設(shè),ChatGPT等大模型在兩年內(nèi)從概念走向數(shù)億用戶(hù),但內(nèi)容責(zé)任、知識(shí)產(chǎn)權(quán)、隱私保護(hù)等規(guī)范仍在構(gòu)建中,其“黑箱”特性也讓傳統(tǒng)倫理中的責(zé)任追溯變得困難;以CRISPR為代表的基因編輯技術(shù),不僅涉及技術(shù)風(fēng)險(xiǎn),更觸及“人類(lèi)自然性”這一根本命題,動(dòng)搖“何為人”的定義;數(shù)據(jù)科學(xué)領(lǐng)域,傳統(tǒng)隱私保護(hù)建立在“個(gè)人同意”基礎(chǔ)上,但大數(shù)據(jù)時(shí)代數(shù)據(jù)聚合產(chǎn)生的群體洞察已超出個(gè)人同意范疇,權(quán)利邊界界定成為核心困境。
這些差異意味著我們不能期待統(tǒng)一的科技倫理框架,而需針對(duì)不同技術(shù)特點(diǎn)制定差異化治理機(jī)制。
翟曉梅:新興科技發(fā)展快于倫理治理,應(yīng)摒棄用僵化原則規(guī)范科技發(fā)展的傳統(tǒng)思維,允許科技倫理邊發(fā)展、邊反思、邊修正,以包容和可修正的方式為實(shí)踐提供指南;通過(guò)構(gòu)建動(dòng)態(tài)的科技倫理治理系統(tǒng),由科研人員、倫理學(xué)家、機(jī)構(gòu)、主管部門(mén)和公眾等多方合力,將倫理融入科技發(fā)展的全過(guò)程。這種動(dòng)態(tài)治理不是被動(dòng)追趕技術(shù),而是主動(dòng)參與技術(shù)迭代,讓倫理成為技術(shù)創(chuàng)新的內(nèi)在約束而非外部枷鎖。
魯曉:傳統(tǒng)倫理治理多在技術(shù)成熟后進(jìn)行補(bǔ)救,難以適應(yīng)當(dāng)前技術(shù)的飛速發(fā)展。實(shí)現(xiàn)科技與倫理的動(dòng)態(tài)適配,需從事后糾偏轉(zhuǎn)向過(guò)程嵌入,將倫理原則前移至技術(shù)研發(fā)、應(yīng)用部署的全流程,推動(dòng)形成可解釋、可審計(jì)、可追責(zé)的技術(shù)發(fā)展路徑。同時(shí),算法決策、自動(dòng)生成內(nèi)容等技術(shù)打破了傳統(tǒng)責(zé)任邊界,“誰(shuí)來(lái)負(fù)責(zé)、如何負(fù)責(zé)”變得模糊,需重塑技術(shù)發(fā)展的責(zé)任體系,通過(guò)制度安排明確開(kāi)發(fā)者、平臺(tái)、使用者和監(jiān)管部門(mén)的責(zé)任,形成可追責(zé)、可審計(jì)、可糾偏的責(zé)任閉環(huán),讓科技向善從道德倡導(dǎo)化為制度約束。
AI倫理:從技術(shù)風(fēng)險(xiǎn)到責(zé)任重構(gòu)
《瞭望》:生成式AI的偏見(jiàn)與幻覺(jué)根源何在?算法偏見(jiàn)如何放大社會(huì)不平等?面對(duì)AI帶來(lái)的責(zé)任模糊與跨國(guó)風(fēng)險(xiǎn),如何構(gòu)建有效的治理框架?
陳小平:訓(xùn)練數(shù)據(jù)是生成式AI偏見(jiàn)與幻覺(jué)的根本來(lái)源,其中存在三大陷阱:
一是噪聲陷阱,數(shù)據(jù)中包含虛假陳述、虛構(gòu)事實(shí)和偏見(jiàn),數(shù)據(jù)清洗僅能消除部分,無(wú)法根除;二是書(shū)本陷阱,大部分訓(xùn)練數(shù)據(jù)是非場(chǎng)景性的書(shū)本知識(shí),與現(xiàn)實(shí)脫節(jié),AI能復(fù)述原理卻不善解決實(shí)際問(wèn)題,如同“書(shū)呆子”,同時(shí)還會(huì)“繼承”書(shū)本知識(shí)中隱含的偏見(jiàn);三是邏輯陷阱,訓(xùn)練數(shù)據(jù)中往往存在相互沖突的觀(guān)點(diǎn),但生成式AI基于統(tǒng)計(jì)推斷,無(wú)法準(zhǔn)確把握邏輯關(guān)系,會(huì)將不一致的內(nèi)容混雜,編造出不存在的觀(guān)點(diǎn),即幻覺(jué)。
只要這三大陷阱存在,就難以完全避免或消除AI的偏見(jiàn)和幻覺(jué),只能通過(guò)優(yōu)化數(shù)據(jù)質(zhì)量、完善訓(xùn)練方法來(lái)降低其影響。
張成崗:算法并非中立工具,其偏見(jiàn)源于歷史數(shù)據(jù)不平等、設(shè)計(jì)目標(biāo)單一化及反饋回路的自我強(qiáng)化,且會(huì)被現(xiàn)代社會(huì)的制度性結(jié)構(gòu)系統(tǒng)性放大。
例如在就業(yè)市場(chǎng),簡(jiǎn)歷篩選算法可能因歷史數(shù)據(jù)中對(duì)特定群體的歧視性記錄,持續(xù)歧視該群體,一旦成為行業(yè)標(biāo)準(zhǔn),就會(huì)形成“數(shù)據(jù)貧困—算法偏見(jiàn)—機(jī)會(huì)剝奪”的惡性循環(huán);在司法體系中,風(fēng)險(xiǎn)評(píng)估算法如果基于有偏見(jiàn)的歷史數(shù)據(jù),不僅會(huì)復(fù)制過(guò)去的歧視,還通過(guò)“技術(shù)客觀(guān)性”使其合法化、隱蔽化,讓偏見(jiàn)披上科學(xué)的外衣。
公眾對(duì)AI決策的“信任閾值”需從三方面設(shè)定:一是透明度階梯,按AI決策的風(fēng)險(xiǎn)等級(jí)要求不同的可解釋性,高風(fēng)險(xiǎn)場(chǎng)景如醫(yī)療、司法需更高解釋性;二是平衡信任,公眾信任既基于結(jié)果正確,也基于開(kāi)發(fā)過(guò)程的合理性和可問(wèn)責(zé)性;三是動(dòng)態(tài)校準(zhǔn),信任閾值應(yīng)隨系統(tǒng)性能變化調(diào)整,并通過(guò)包容性審議吸納受影響社群參與,最終取決于公眾對(duì)AI價(jià)值和風(fēng)險(xiǎn)分配公平性的感受。
翟曉梅:在醫(yī)療AI領(lǐng)域,AI應(yīng)被視為輔助性工具,而非獨(dú)立決策主體,最終臨床決策責(zé)任仍由醫(yī)生承擔(dān)。與此同時(shí),AI系統(tǒng)的開(kāi)發(fā)企業(yè)與相關(guān)研究者,須對(duì)其輸出內(nèi)容的準(zhǔn)確性、可靠性承擔(dān)相應(yīng)責(zé)任,并履行必要的警示與說(shuō)明義務(wù),以保障臨床應(yīng)用的安全與合規(guī)。
當(dāng)前面臨一個(gè)結(jié)構(gòu)性矛盾:當(dāng)醫(yī)生因長(zhǎng)期依賴(lài)AI而導(dǎo)致自身診療能力鈍化,卻仍需為最終決策承擔(dān)全部責(zé)任時(shí),會(huì)引發(fā)職業(yè)困境與信任危機(jī)。因此,我們不僅需要更智能的工具,更需要一種能守護(hù)并促進(jìn)醫(yī)生專(zhuān)業(yè)成長(zhǎng)的、負(fù)責(zé)任的人機(jī)協(xié)同范式,避免技術(shù)替代人類(lèi)核心能力。
此外,傳統(tǒng)醫(yī)療事故鑒定機(jī)制也需調(diào)整,由于A(yíng)I決策的“黑箱”特性,在出現(xiàn)誤診時(shí)難以清晰劃分責(zé)任,亟須在現(xiàn)有鑒定體系中納入對(duì)算法透明度與可解釋性的評(píng)估,構(gòu)建健康的人機(jī)協(xié)同醫(yī)療環(huán)境。
陳小平:AI“對(duì)齊”是指確保AI系統(tǒng)的行為與人類(lèi)價(jià)值觀(guān)、意圖和目標(biāo)保持一致。大模型訓(xùn)練方法多屬不完全歸納法,存在“實(shí)例性”,它學(xué)會(huì)的是行為模式的實(shí)例,有對(duì)有錯(cuò),數(shù)據(jù)充分時(shí)能解難題,數(shù)據(jù)不足時(shí)卻會(huì)犯低級(jí)錯(cuò)誤,呈現(xiàn)“鋸齒狀智能”,這導(dǎo)致“對(duì)齊”僅能在部分實(shí)例上有效,且大模型有內(nèi)在“彈性”機(jī)制抗拒“對(duì)齊”,靠技術(shù)手段難以完全實(shí)現(xiàn)。
更關(guān)鍵的是,人類(lèi)社會(huì)對(duì)倫理準(zhǔn)則的認(rèn)知存在顯著分歧,不同國(guó)家、文化群體對(duì)“善”“公正”的理解不同,將AI與人類(lèi)“對(duì)齊”需明確以何種倫理框架為參照基準(zhǔn),且即便技術(shù)上實(shí)現(xiàn)“對(duì)齊”,結(jié)果仍需符合專(zhuān)業(yè)領(lǐng)域的技術(shù)規(guī)范要求,經(jīng)過(guò)法定認(rèn)證程序檢驗(yàn)。
魯曉:生成式AI風(fēng)險(xiǎn)超越國(guó)界,僅靠一國(guó)監(jiān)管難起效,需構(gòu)建多層次、協(xié)同化、以規(guī)則為核心的綜合治理體系。
全球?qū)用?,推?dòng)底線(xiàn)共識(shí)型監(jiān)管,圍繞安全、隱私等關(guān)鍵問(wèn)題凝聚國(guó)際共識(shí),避免規(guī)則沖突;區(qū)域和國(guó)家層面,探索差異化、可調(diào)適的監(jiān)管路徑,在明確安全底線(xiàn)的前提下,各國(guó)根據(jù)國(guó)情進(jìn)行制度創(chuàng)新和試點(diǎn)。
“全球規(guī)則協(xié)調(diào)+本國(guó)制度創(chuàng)新+多主體協(xié)同”的組合式治理路徑,既能防范跨國(guó)風(fēng)險(xiǎn),又能為技術(shù)創(chuàng)新留足空間。
生命與交叉科技倫理的模糊地帶
《瞭望》:基因編輯技術(shù)中生殖細(xì)胞與體細(xì)胞編輯的倫理差異是什么?腦機(jī)接口與合成生物學(xué)又帶來(lái)哪些新的倫理挑戰(zhàn)?
翟曉梅:生殖細(xì)胞編輯與體細(xì)胞編輯的倫理差異核心在于影響的時(shí)空范圍和可控性:體細(xì)胞編輯針對(duì)已分化的特定組織細(xì)胞,如造血細(xì)胞、肌肉細(xì)胞,影響僅限于個(gè)體當(dāng)前生命階段,不會(huì)遺傳給后代,倫理爭(zhēng)議集中在安全性和可及性上;生殖細(xì)胞編輯修改精子、卵子或早期胚胎基因,遺傳變化會(huì)傳遞給后代,具有永久性和代際傳播性,引發(fā)代際倫理爭(zhēng)議及對(duì)人類(lèi)基因池長(zhǎng)期影響的擔(dān)憂(yōu)。
人們普遍認(rèn)為,技術(shù)進(jìn)步不能賦予科學(xué)家改變?nèi)祟?lèi)基因池的特權(quán),保護(hù)后代基因是我們這一代人的責(zé)任,包括中國(guó)在內(nèi)的絕大多數(shù)國(guó)家和WHO等國(guó)際組織明確禁止生殖細(xì)胞編輯的臨床應(yīng)用,僅允許在嚴(yán)格監(jiān)管下開(kāi)展實(shí)驗(yàn)室基礎(chǔ)研究。
在醫(yī)學(xué)領(lǐng)域,治療與增強(qiáng)的界限本質(zhì)是倫理界限:治療旨在預(yù)防、治愈疾病或恢復(fù)機(jī)體正常功能,使個(gè)體回歸“物種典型水平的健康”;增強(qiáng)則是超越人的正常健康水平提升能力,如通過(guò)基因編輯提高智力、增強(qiáng)體能,這引發(fā)對(duì)人類(lèi)自然屬性的反思及加劇社會(huì)不平等的擔(dān)憂(yōu),其界限映射出社會(huì)對(duì)“健康”“正?!蹦酥痢叭祟?lèi)福祉”的深層價(jià)值選擇。
魯曉:中美歐在基因編輯監(jiān)管上的差異源于各自發(fā)展階段、文化價(jià)值觀(guān)和治理理念的不同,正深刻影響全球科研合作。
監(jiān)管分化加速了科研活動(dòng)的“功能分區(qū)”:美國(guó)在嚴(yán)格倫理審查下推進(jìn)體細(xì)胞編輯臨床研究,側(cè)重創(chuàng)新;歐盟更審慎,強(qiáng)調(diào)風(fēng)險(xiǎn)防范,對(duì)基因編輯技術(shù)應(yīng)用限制較多。這導(dǎo)致前沿實(shí)驗(yàn)向監(jiān)管靈活地區(qū)集中,倫理與規(guī)范研究則多在監(jiān)管?chē)?yán)格地區(qū)開(kāi)展,合作模式從“同向協(xié)作”轉(zhuǎn)向“分區(qū)推進(jìn)”。同時(shí),監(jiān)管差異抬高了跨國(guó)合作成本,樣本共享、數(shù)據(jù)流動(dòng)和聯(lián)合試驗(yàn)常因標(biāo)準(zhǔn)不一而面臨重復(fù)審批甚至制度沖突,延長(zhǎng)研究周期、增加不確定性,部分項(xiàng)目被迫調(diào)整或縮減。
監(jiān)管多樣性也為評(píng)估技術(shù)安全性、社會(huì)影響提供了現(xiàn)實(shí)樣本,有助于校準(zhǔn)全球監(jiān)管邊界,未來(lái)應(yīng)加強(qiáng)對(duì)話(huà)、推動(dòng)標(biāo)準(zhǔn)互認(rèn)與倫理協(xié)商,在尊重多元制度的基礎(chǔ)上降低壁壘,維護(hù)開(kāi)放、負(fù)責(zé)任的全球科研合作生態(tài)。
羅敏敏:目前的腦機(jī)接口更像是一個(gè)“粗糙的意圖識(shí)別器”,遠(yuǎn)未達(dá)到讀取記憶、情感等抽象思維的精度,竊取記憶的風(fēng)險(xiǎn)被高估了,但我們必須防患于未然。未來(lái)防范風(fēng)險(xiǎn)的核心在于本地化處理與“神經(jīng)加密”:數(shù)據(jù)盡可能在設(shè)備本地完成分析,不向外傳輸,從源頭保障安全;利用大腦數(shù)據(jù)的獨(dú)特生理特征開(kāi)發(fā)加密算法,即使數(shù)據(jù)被竊取也無(wú)法解讀。
此外,人類(lèi)心理的復(fù)雜性本身就是抵御意識(shí)操控的天然防火墻,每個(gè)人的意識(shí)都獨(dú)一無(wú)二,受經(jīng)歷、價(jià)值觀(guān)等多重影響,外部力量想要精準(zhǔn)操控極其困難。除了技術(shù)防護(hù),還需從法律、倫理等多維度構(gòu)建保障體系,明確腦機(jī)接口數(shù)據(jù)的隱私屬性,規(guī)范技術(shù)應(yīng)用場(chǎng)景,確保技術(shù)真正造福人類(lèi)。
翟曉梅:合成生物學(xué)的生態(tài)干預(yù)常引發(fā)“是否挑戰(zhàn)敬畏自然傳統(tǒng)倫理觀(guān)”的討論,但自然、非自然等術(shù)語(yǔ)常被附加道德判斷。
對(duì)合成生物學(xué)的倫理分析,應(yīng)聚焦其對(duì)環(huán)境的具體沖擊,而非抽象概念,核心是進(jìn)行風(fēng)險(xiǎn)—收益分析,評(píng)估風(fēng)險(xiǎn)的性質(zhì)和發(fā)生概率,不宜因籠統(tǒng)風(fēng)險(xiǎn)否定技術(shù),也不應(yīng)在缺乏評(píng)估時(shí)盲目研發(fā)。更妥善的做法是在技術(shù)發(fā)展全過(guò)程中實(shí)時(shí)監(jiān)測(cè),設(shè)定風(fēng)險(xiǎn)閾值,構(gòu)建程序來(lái)權(quán)衡風(fēng)險(xiǎn)與收益并形成決策。
以基因驅(qū)動(dòng)技術(shù)為例,它可控制外來(lái)物種、預(yù)防傳染病,也可能破壞生態(tài)平衡,妥善的倫理評(píng)估可從三方面開(kāi)展:一是通過(guò)算法模擬等方式評(píng)估生態(tài)影響,預(yù)測(cè)可能的風(fēng)險(xiǎn);二是將安全技術(shù)手段嵌入研發(fā)使用過(guò)程,如設(shè)置“自限性”機(jī)制,防止基因驅(qū)動(dòng)擴(kuò)散;三是完善審查機(jī)制,建立政府、科研人員、環(huán)保組織、公眾等多方參與的平臺(tái),共同監(jiān)測(cè)風(fēng)險(xiǎn)并權(quán)衡利弊。
技術(shù)鏡像下的人文反思
《瞭望》:前沿科技不斷突破人類(lèi)能力邊界,新的倫理挑戰(zhàn)持續(xù)涌現(xiàn),這些技術(shù)將如何推動(dòng)我們重新思考“何以為人”與“何為善”的根本命題?
翟曉梅:技術(shù)不僅是改造世界的工具,更是照亮人類(lèi)自我認(rèn)知的鏡子,它通過(guò)擴(kuò)展能力的邊界,迫使我們回歸“何以為人”的根本問(wèn)題。
人腦的核心價(jià)值在于產(chǎn)生有意識(shí)的思考、情感與責(zé)任感知,而非物理載體本身,新興技術(shù)能改變?nèi)说奈镔|(zhì)基礎(chǔ)和心理狀態(tài),如腦機(jī)接口可增強(qiáng)認(rèn)知能力,基因編輯可改變生理特征,但“為人”的關(guān)鍵仍是自我意識(shí)的連續(xù)性、自主決策能力以及為決策負(fù)責(zé)的態(tài)度。
在追求技術(shù)進(jìn)步的同時(shí),我們應(yīng)始終保持對(duì)技術(shù)局限性與人性復(fù)雜性的敬畏,不能讓技術(shù)定義人類(lèi),而要讓人類(lèi)掌控技術(shù)方向。技術(shù)的發(fā)展路徑深受社會(huì)制度、文化價(jià)值與公眾選擇的影響,我們需要主動(dòng)塑造技術(shù)方向,在“保護(hù)人類(lèi)本質(zhì)”與“擁抱技術(shù)進(jìn)化”之間重新錨定存在意義與向善方向。
魯曉:人的核心價(jià)值在于獨(dú)特的精神品質(zhì),這是機(jī)器無(wú)法替代的:機(jī)器無(wú)法主動(dòng)探索未知,而人擁有好奇心與創(chuàng)造力,能不斷拓展知識(shí)的邊界;機(jī)器無(wú)法復(fù)制真誠(chéng)情感,而人能產(chǎn)生情感共鳴與韌性,在困境中堅(jiān)守信念。
人的本質(zhì)是思維、情感與道德意識(shí)的綜合體,思考“何以為人”需回歸以人為本,在制度上劃定倫理紅線(xiàn),確保技術(shù)始終是服務(wù)于人的工具,而非替代人的主體。思考“何為善”的核心是技術(shù)向善、人機(jī)協(xié)同與全民福祉的統(tǒng)一,“善”不是抽象的道德概念,而是要確保技術(shù)發(fā)展不偏離人類(lèi)共同利益,讓所有人都能從技術(shù)進(jìn)步中受益,實(shí)現(xiàn)人與技術(shù)的和諧共生。
羅敏敏:面對(duì)量子計(jì)算、腦科學(xué)等顛覆性技術(shù),我們需確立“神經(jīng)權(quán)利”,保障人類(lèi)的精神自決權(quán),防止技術(shù)干預(yù)人類(lèi)的意識(shí)與思維。技術(shù)研發(fā)須引入“倫理紅隊(duì)”,在源頭進(jìn)行“破壞性測(cè)試”,提前預(yù)判技術(shù)可能帶來(lái)的倫理風(fēng)險(xiǎn),而不是等問(wèn)題出現(xiàn)后再補(bǔ)救。
陳小平:AI等新科技能提供發(fā)展動(dòng)力,但不一定能讓發(fā)展方向符合人類(lèi)根本利益。生成式AI在歷史上前所未有地將人類(lèi)的一大類(lèi)通用技能——適用于眾多行業(yè)的語(yǔ)言文字工作技能轉(zhuǎn)移到機(jī)器上,未來(lái)可能出現(xiàn)一種極端情況:掌握機(jī)器的極少數(shù)大企業(yè)員工賺取高額收入,大部分企業(yè)和工作崗位消失,社會(huì)兩極分化。這種情況需要我們提前警惕。
編輯:李華山