讓 AI 生成圖像,這幾個月來一直都是網路社群熱門話題。有些人已經擁抱了人工智慧,認為這將是未來藝術的發展方向,在 AI 輸入指令這門「詠唱術」甚至也被視為相當需要技巧的管理學問。

但也還是有一派質疑 AI 的道德與合法性,因為許多用以訓練 AI 的圖片並沒有經過創作者授權。但如果這些問題也都可以讓 AI 解決?近期 Midjourney 發布了新的「描述(describe)」功能,只要輸入一張圖,讓 AI 來幫你寫 Midjourney 指令,或是看看在 Stable Diffusion 生成的圖片源自哪些材料。

Midjourney 學會從圖片反推到文字,「詠唱」可以輕鬆學會

「描述」的功能最厲害的地方在於,上傳一張圖片,就可以轉換成文字,而這些字詞可以再輸入 Midjourney 生成全新、相關聯的圖片。簡單來說,Midjourney 學會了從圖片反推到提示詞(prompt)。

使用方式很簡單,在文字的區域中輸入 /describe,就會出現一個拖放欄位,讓使用者可以上傳一張圖片,並轉換成四組英文字詞之後,讓使用者選擇最適合的,也可以讓使用者自行修改。

Midjourney describe
圖片來源:

Midjourney 的提示詞可以很簡單,也可以是自然語言。但是要產生最符合使用者所想的圖片,就必須使用特有的語法了,因為 Midjourney 的機器人不像人類那樣理解語法、句子結構或單詞。因此,/describe 對於生成圖像的新手而言非常有幫助。

只不過,由於近日 Midjourney 推出最新版本 v5 湧入大量的新帳號,Midjourney 暫停了免費帳號試用圖片生成服務。目前不知道何時才會再度開放免費帳號使用,如果要使用 Midjourney 需支付每個月約 10 美元的訂閱費用。

目前在 Twitter 上的測試結果看來,都有至少七成以上的相似度。

有些 Twitter 網友認為,這是一個學習如何使用提示詞的實用方式:

圖片來源: Twitter@prodosworldwide

也有網友透過修改 /describe 生成出來的文字,來調整不那麼滿意的圖片;雖然結果可能不完全是用戶想要的,但從圖像生成文字來描述已經是一大突破:

Stable Attribution 溯源 AI「原形」,可以是 AI 與人類藝術共處的可能?

除了逆向生成文字,現在也有個網站逆向回推生成圖片的素材了。Stable Attribution(直譯為「穩定歸因」)名字與另一個 AI 圖片生成服務 Stable Diffusion(直譯為「穩定擴散」)相對應,目的就是要找出一張AI圖像背後是哪些人類藝術家的作品。

圖片來源: Stable Attribution

該網站表示,希望提供原作資訊,讓大家正視人類藝術家對於 AI 藝術的貢獻。而找尋圖片素材來源的原理是將 AI 模型解碼,並在 AI 訓練的資料庫中找到最相近的圖片。而 Stable Diffusion 所使用的是資料庫 LAION-5B 是公開的,因此是目前該網站最主要可以溯源的 AI 圖像。Stable Attribution 也開放用戶補充溯源到的圖片的作者和來源。

只要在該網站內上傳一張 Stable Attribution 生成的圖片,就會反向搜尋 20 張可能是 AI 參考後合成來的圖片。不過在上傳時該網站也表示,他們不會判斷上傳的圖片是否為 AI。

事實上,AI 生成一張圖的參考圖片可能不只 20 張,因此官網也提到,「目前第一版的 Stable Attribution 並不完美,部分原因是訓練過程嘈雜,訓練數據包含了大量錯誤和冗餘……但這也不是一個不可能解決的問題。」目前這個網站還在測試階段。

雖然還有 AI 圖像支持者質疑 Stable Attribution 炒作,或指出 Stable Attribution 給出的 20 張參考圖片都沒有上傳的 AI 圖像中的細節,但已經可說是一個開始,至少讓創作者能夠看到自己的作品是否會被當作 AI 的素材。

Getty Images 等各大圖片網站與 Stable Diffusion 的版權爭議仍然還沒結束,但也有選擇加入 AI 潮流的網站,如近期與 OpenAI 合作的 Shutterstock。在法律問題之外,Stable Attribution 讓人看見了另一個 AI 與人類藝術共處的可能。

資料來源:The GeneratorDecryptPCgamer

本文轉載自《數位時代

作者介紹 |

數位時代

1999年開始以雜誌型態出發,聚焦科技財經領域的「新趨勢、新觀念、新人物和新商業模式」的報導。現今已成為橫跨平面與數位載體、結合內容與社群聚集、並且提供知識學習服務的科技媒體品牌;繼續為讀者尋找新經濟的下一個關鍵,為下一步發展預作準備。

分享