芝加哥大學的研究人員與Snap Research合作,推出了一種名為3D畫筆(3D Paintbrush)的人工智能方法,通過文本描述自動生成網格上的局部語義區域的紋理。這一創新使得用戶可以通過直觀的、自由形式的文本輸入控制紋理編輯,為各種網格描述其編輯。
為了提高局部紋理區域的細節和分辨率,研究團隊引入了級聯分數蒸餾(CSD)和神經場的概念。通過這些方法,他們能夠修改定位區域并在局部區域內變形幾何形狀。采用多層感知器對神經場進行編碼,以表示定位和紋理映射,確保了紋理的一致局部風格。
與現有模型相比,研究人員表示,3D畫筆的定位更加清晰,并使用級聯分數蒸餾控制監督的粒度和全局理解,實現了比其他SDS更高分辨率的紋理和定位。
該方法通過在3D表面上定義的多層感知器(MLPs)創建神經紋理,產生在3D中平滑變化的輸出。這在2D紋理圖在紋理接縫處存在不連續性時尤為重要。MLPs提供的平滑性減少了紋理的偽影,減少了噪點,并具有超分辨率能力。
研究團隊同時優化了定位和紋理區域,他們發現同時優化可以產生高度詳細的紋理,有效地符合預測的定位區域。未來,他們計劃將局部編輯能力擴展到文本化以外,并學習使用相同的局部紋理圖在多個形狀之間提供對應關系。
這一研究為3D建模和紋理編輯領域帶來了新的可能性,為游戲、動畫、電影等各個行業提供了更加高效和直觀的紋理編輯工具。


產品與服務
聯系站長
關于我們