延續先前對於圖像生成基礎模型Emu的研究,Meta發表能夠精確執行文字指的影像編輯模型Emu Edit,以及文字轉影片(T2V)生成方法Emu Video。Meta使用1000萬個合成樣本資料集訓練Emu Edit,這是目前同類中規模最大的資料集,每個樣本都包含輸入圖像、任務描述、目標輸出圖像。這樣的資料集有益AI模型培養更好的影像編輯功能,產生前所未有的優異結果。
資料來源:https://www.ithome.com.tw/news/159897
責任編輯:林薇晨(政治大學 傳播碩士學位學程 碩士)