OpenAI 近日發布了 Sora 模型,可以根據用戶輸入的文本描述,生成一段視頻內容,一經公布便引發網友熱議。然而,Sora 的能力還不止于此。
當地時間周六 OpenAI 研究科學家比爾?皮布爾斯 (Bill Peebles) 在 X 上曬圖,并表示“這是 Sora 一次性生成的視頻樣本,并不是我們把 5 個視頻拼接在一起。Sora 決定同時擁有五個不同的視角!”
令人驚嘆的是,這組圖片展示了人們在下雪天漫步、玩雪的多個角度,并且均由 Sora 一次完成。這意味著該模型支持一次性生成多機位視頻,短視頻、電影行業或許會受到不小沖擊。
傳統視頻拍攝通常需要人工撰寫腳本再使用攝像機拍攝,通過多視角的剪輯,最終呈現出完整的視頻片段。然而,未來也許只需要輸入腳本信息,便可生成多角度多機位視頻,再加上人工的剪輯,便可呈現一部完整的作品。
據此前報道,Sora 會嚴格根據用戶輸入的提示詞,可以制作長達一分鐘的視頻,保持較高的視覺質量。對于任何需要制作視頻的藝術家、電影制片人或學生來說,這都帶來了無限可能。
Sora 可以創建包含多人、特定運動類型和詳細背景的復雜場景。它能生成準確反映用戶提示的視頻。例如,Sora 可以制作時尚女性走在霓虹閃爍的東京街頭的視頻、雪地里的巨型長毛象視頻,甚至是太空人冒險的電影預告片。
目前,OpenAI 尚未向公眾開放 Sora。OpenAI 稱,該模型正在接受測試,只分享給了一批精選的研究人員和學者。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。