香港文匯報訊(記者 胡永愛 深圳報道)「術影」SurgMotion 手術視頻大模型昨日在河套深圳園區正式發布,並宣布大模型及參數全面開源。該大模型是由中國科學院香港創新研究院人工智能與機器人創新中心(簡稱CAIR)在香港 InnoHK 項目資助下研發的面向手術視頻的大規模視頻基座模型,也是目前業內規模最大、最完整的手術視頻通用智能底座。CAIR主任劉宏斌表示,「AI大模型的價值,在於它可以把專家級的經驗普及到基層醫療中去,讓技術真正服務於臨床。」
該模型涵蓋約1,500萬幀、超 3,650 小時真實手術視頻,採用視頻原生架構與潛在運動表徵學習進行大規模自監督預訓練,支持12 種人類主要器官、6 大類手術理解任務(工作流理解、動作理解、深度估計、分割、三元組識別、技能評估),已在 17 個國際權威手術 AI 基準上全面刷新最優紀錄(SOTA),尤其在手術流程識別、器械交互理解、精細動作建模等核心任務上大幅超越現有方法。
可為術中預警提供支撐
「像對出血識別的瞬間事件的感知,SurgMotion可以達到97.03%的準確率,在所有對比方法中排名第一,顯著領先多種主流手術視覺模型。」劉宏斌介紹,該大模型應用於臨床,便可以精準、穩定地識別手術中突發的高風險事件,為術中預警提供支撐。
此次大模型的研發中,中山大學附屬第一醫院、香港威爾斯親王醫院、香港大學深圳醫院等大灣區醫院均參與其中,與CAIR研發團隊一起在底層技術的突破上進行了聯合攻關,香港大學深圳醫院神經外科副主任醫師葉小帆便是其中的核心醫生成員。
SurgMotion大模型的研發頗具灣區特色。目前,CAIR臨床合作方包含廣州、深圳、香港三地的醫院,給了大模型足夠多的病例樣本的支撐。「未來,SurgMotion也會與具身智能相結合,向手術機器人領域進行拓展。」劉宏斌認為,「手術機器人將更加展現出深港合作的優勢。」劉宏斌並期待未來河套合作區內能夠數據互通。

評論(0)
0 / 255