最近,一項引人關(guān)注的研究表明,大語言模型(LLM)在持續(xù)接觸低質(zhì)量數(shù)據(jù)后,會出現(xiàn)類似于人類的“腦損傷”現(xiàn)象,導(dǎo)致推理和記憶能力顯著下降。
近日,Deezer與市場調(diào)研公司Ipsos聯(lián)合發(fā)布了一項關(guān)于AI與音樂的獨特研究。這項調(diào)查在美國、加拿大、巴西、英國、法國、荷蘭、德國和日本等八個國家進行,共計收集了9000名參與者的反饋。
人工智能公司Anthropic將投資500億美元在美國建設(shè)人工智能基礎(chǔ)設(shè)施。首期項目將包括在得克薩斯州和紐約州建設(shè)定制化的數(shù)據(jù)中心,旨在支持公司日益增長的企業(yè)業(yè)務(wù)和長期研究計劃。
當AI不再只是“輸出答案”,而是能“察覺自己正在思考什么”,人工智能的進化正悄然跨越一道哲學(xué)門檻。
賓夕法尼亞州立大學(xué)最新發(fā)表的研究論文《MindYourTone》揭示了一個反常識的現(xiàn)象:在與大語言模型交互時,使用直白甚至粗魯?shù)恼Z氣,可能比禮貌用語獲得更準確的答案。
最近,研究人員發(fā)現(xiàn),能夠?qū)⑽谋咎崾巨D(zhuǎn)換為圖像和視頻的生成式AI工具,其碳足跡遠遠超出了人們的預(yù)期。這項研究由開源AI平臺HuggingFace的團隊進行,揭示了當前文本到視頻生成器的能耗問題。
-------------沒有了-------------