世衛(wèi)組織:人工智能在醫(yī)療領域應用前景廣闊,但同時也要防范可能出現(xiàn)的“自動化偏見”


中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)   時間:2024-01-23





  世界衛(wèi)生組織1月18日發(fā)布的多模態(tài)大模型治理相關新指南說,人工智能在醫(yī)療衛(wèi)生領域應用前景廣闊,但同時也要防范其中可能出現(xiàn)的諸如“自動化偏見”導致的過度依賴等風險。


  作為一項快速發(fā)展的生成式人工智能技術,多模態(tài)大模型是指能夠處理圖像、文本、聲音等多種類型數(shù)據(jù)的深度學習模型,廣泛應用于醫(yī)療衛(wèi)生領域。


  世衛(wèi)組織這份新指南概述了多模態(tài)大模型在醫(yī)療衛(wèi)生領域的五大應用場景:診斷和臨床護理、患者自主使用、文書和行政工作、醫(yī)療和護理教育、科學研究和藥物研發(fā)。


  新指南還指出了醫(yī)療系統(tǒng)面臨的相關風險:表現(xiàn)最佳的多模態(tài)大模型的可及性和可負擔性;多模態(tài)大模型可能助長“自動化偏見”,使醫(yī)療專業(yè)人員和患者過于依賴人工智能,忽略原本可以由人發(fā)現(xiàn)的差錯,或把困難的選擇不恰當?shù)亟唤o多模態(tài)大模型;多模態(tài)大模型與其他形式的人工智能一樣,也容易受到網(wǎng)絡安全風險的影響,從而危及患者信息安全、有損算法的可信度等。


  世衛(wèi)組織首席科學家杰里米·法勒說,生成式人工智能技術具有改善醫(yī)療保健水平的潛力,但前提是研發(fā)、監(jiān)管和使用這些技術的人必須識別并充分考慮相關風險。人們需要透明的信息和政策來管理多模態(tài)大模型的設計、開發(fā)和使用,以取得更好的衛(wèi)生成果,克服持續(xù)存在的衛(wèi)生不平等。


  世衛(wèi)組織強調,為了創(chuàng)造安全有效的多模態(tài)大模型,政府、科技公司、醫(yī)療服務提供者、患者等利益攸關方需要參與相關技術研發(fā)和部署的各個階段,對多模態(tài)大模型進行監(jiān)管并制定相關規(guī)范。(記者曾焱)


  轉自:新華每日電訊

  【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。

延伸閱讀

?

版權所有:中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)京ICP備11041399號-2京公網(wǎng)安備11010502035964