近日,MIT和Google的研究人員共同提出了一種名為Health-LLM的新型人工智能框架,旨在將大語言模型(LLMs)應用于健康預測任務,利用可穿戴傳感器的數據。該框架的提出標志著健康領域在可穿戴技術和人工智能的交叉點上取得了重大突破。
可穿戴傳感器技術的出現使得生理數據的連續監測成為可能,包括心率變異性、睡眠模式和體育活動等。然而,這種非語言的、多模態的時間序列數據如何有效地用于健康預測,成為一個需要超越傳統LLMs能力的挑戰。

研究的重點是通過調整LLMs以解釋和利用可穿戴傳感器數據進行健康預測。這些數據的高維度和連續性要求LLMs能夠理解個體數據點及其隨時間動態關系的能力。相比之下,傳統的健康預測方法主要涉及Support Vector Machines或Random Forests等模型,而最近出現的先進LLMs,如GPT-3.5和GPT-4,引起了在這一領域探索它們潛力的關注。
研究涵蓋了八種最先進的LLMs的綜合評估,包括GPT-3.5和GPT-4等知名模型。研究人員精心選擇了五個領域的13個健康預測任務:心理健康、活動跟蹤、代謝、睡眠和心臟病。這些任務旨在覆蓋健康相關挑戰的廣泛范圍,并測試模型在不同場景中的能力。

研究采用了嚴格而創新的方法,包括零-shot提示、少量提示增強鏈式思維和自一致技術、指導微調以及零-shot環境中重點關注上下文增強的剔除研究。零-shot提示測試了模型在無特定任務訓練的情況下的內在能力,而少量提示利用有限的示例促進上下文學習。鏈式思維和自一致技術被整合以增強模型的理解和連貫性。指導微調進一步調整模型以適應特定健康預測任務的細微差異。
研究中,Health-Alpaca模型,Alpaca模型的經過微調的版本,在13項任務中表現出色,成為五項任務中取得最佳結果的模型。這一成就尤為引人注目,考慮到Health-Alpaca模型相較于GPT-3.5和GPT-4等較大模型的規模要小得多。研究的剔除研究部分揭示,包括用戶資料、健康知識和時間背景在內的上下文增強可以使性能提高高達23.8%。這一發現突顯了上下文信息在優化LLMs健康預測性能中的重要作用。
這項研究在將LLMs與可穿戴傳感器數據整合進行健康預測方面取得了重要進展。研究證明了這一方法的可行性,并強調了上下文在增強模型性能方面的重要性。特別是,Health-Alpaca模型的成功表明,規模較小、更高效的模型在健康預測任務中同樣,如果不是更加,有效。這為以更加可訪問和可擴展的方式應用先進的醫療保健分析打開了新的可能性,從而為個性化醫療的更廣泛目標做出了貢獻。


產品與服務
聯系站長
關于我們