Runway 的手機應(yīng)用使用了其 Gen-1 模型,這是一種視頻到視頻(video-to-video)的生成 AI 模型。用戶可以上傳一段視頻,然后選擇一個文本、圖片或者視頻作為輸入,讓 Gen-1 模型根據(jù)輸入的內(nèi)容來轉(zhuǎn)換視頻的風(fēng)格。比如,用戶可以上傳一段自行車在公園里騎行的視頻,然后選擇一幅水彩畫作為輸入,讓視頻變成水彩畫風(fēng)格;蛘,用戶可以上傳一段電影片段,然后選擇一張貓咪的照片作為輸入,讓視頻中的人物變成貓咪。媒體發(fā)現(xiàn),這有點類似于濾鏡,但跟濾鏡不同的是,它會生成全新的視頻作為輸出。
當(dāng)然,這種生成式 AI 的輸出并不是完美的。有時候,視頻中的物體會變形、變色、變模糊,但是這也是生成 AI 的樂趣所在。用戶可以嘗試各種不同的輸入,看看會產(chǎn)生什么樣的效果。Runway 的 CEO Cristóbal Valenzuela 說,讓這些工具能在手機上使用是非常重要的,“因為你可以直接用你的手機來錄制視頻,然后告訴 Gen-1 模型如何轉(zhuǎn)換那個視頻。”
目前,Runway 的手機應(yīng)用還有一些限制。比如,用戶不能上傳超過五秒鐘的視頻,也不能使用一些被禁止的輸入。比如,用戶不能生成裸體、版權(quán)受保護的作品或者敏感內(nèi)容。每個視頻大概需要兩到三分鐘才能生成,這個時間可能會隨著技術(shù)進步而縮短。而且,目前只有 Gen-1 模型可用,但是 Valenzuela 說,更先進的 Gen-2 模型也會很快加入。
這種生成 AI 工具雖然還不夠成熟,但是卻展示了無限的可能性。就像 19 世紀(jì)時期的“光學(xué)玩具”一樣,它們雖然功能有限,但卻是現(xiàn)代攝影機器的祖先。Runway 的手機應(yīng)用就像是這樣一個玩具,用戶可能無法用它來做專業(yè)的制作工作,但無法想象它將來會有多大的影響。