世界衛(wèi)生組織1月18日發(fā)布的多模態(tài)大模型治理相關新指南說,人工智能在醫(yī)療衛(wèi)生領域應用前景廣闊,但同時也要防范其中可能出現(xiàn)的諸如“自動化偏見”導致的過度依賴等風險。
作為一項快速發(fā)展的生成式人工智能技術,多模態(tài)大模型是指能夠處理圖像、文本、聲音等多種類型數(shù)據(jù)的深度學習模型,廣泛應用于醫(yī)療衛(wèi)生領域。
世衛(wèi)組織這份新指南概述了多模態(tài)大模型在醫(yī)療衛(wèi)生領域的五大應用場景:診斷和臨床護理、患者自主使用、文書和行政工作、醫(yī)療和護理教育、科學研究和藥物研發(fā)。
新指南還指出了醫(yī)療系統(tǒng)面臨的相關風險:表現(xiàn)最佳的多模態(tài)大模型的可及性和可負擔性;多模態(tài)大模型可能助長“自動化偏見”,使醫(yī)療專業(yè)人員和患者過于依賴人工智能,忽略原本可以由人發(fā)現(xiàn)的差錯,或把困難的選擇不恰當?shù)亟唤o多模態(tài)大模型;多模態(tài)大模型與其他形式的人工智能一樣,也容易受到網(wǎng)絡安全風險的影響,從而危及患者信息安全、有損算法的可信度等。
世衛(wèi)組織首席科學家杰里米·法勒說,生成式人工智能技術具有改善醫(yī)療保健水平的潛力,但前提是研發(fā)、監(jiān)管和使用這些技術的人必須識別并充分考慮相關風險。人們需要透明的信息和政策來管理多模態(tài)大模型的設計、開發(fā)和使用,以取得更好的衛(wèi)生成果,克服持續(xù)存在的衛(wèi)生不平等。
世衛(wèi)組織強調,為了創(chuàng)造安全有效的多模態(tài)大模型,政府、科技公司、醫(yī)療服務提供者、患者等利益攸關方需要參與相關技術研發(fā)和部署的各個階段,對多模態(tài)大模型進行監(jiān)管并制定相關規(guī)范。(記者曾焱)
轉自:新華每日電訊
【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。
延伸閱讀