強化智慧標籤功能!Adobe 協助行銷人員找出最關鍵原創影音內容

作者 | 發布日期 2018 年 12 月 28 日 12:30 | 分類 AI 人工智慧 , 市場動態 , 軟體、系統 follow us in feedly


Adobe 宣布將 Adobe Experience Manager 中現有的智慧標籤功能(Smart Tag),擴展至使用者原創內容(User-Generated Content,以下簡稱 UGC)影片。全新功能可透過人工智慧自動閱讀並辨識影片中的物品及行為,協助行銷人員搜尋及篩選影片,無需再土法煉鋼逐一瀏覽,大幅提升工作效率。

隨著網路新世代來臨,對於內容的需求量不斷倍數成長,使用者產生內容(UGC)變得至關重要,也是品牌面對現今市場內容和個人化需求日益增加的關鍵。UGC 可減少內容行銷(Content marketing)成本、提高市場行銷活動成效,以及解決現今行銷人員面對的大規模製作難題。UGC 不但具有高成本效益,同時內容更為真實及具更佳表現。根據 Adweek 資料顯示,64% 社群媒體使用者會在購物前觀看 UGC 影片,而且 UGC 影片的觀看次數較品牌影片高出 10 倍。

透過人工智慧  尋找最適合的 UGC

Adobe 一直致力於開發電腦視覺技術(Computer Vision),協助自動化處理以往需藉由人力閱覽的使用者原創內容過程。Adobe Sensei 驅動的智慧標籤可自動閱讀圖像並找出關鍵物品、物品類型,以及其藝術特性等,並建立描述性標籤(Tag),讓行銷人員能透過標籤過濾掉不符合搜尋要求的圖像內容。

雖然使用智慧標籤處理圖像大幅提升成效,影片卻是現今在網路上最受歡迎的媒體類型。根據思科(Cisco)的預測,在 2021 年,影片將會佔整個網路流量的 82%,而過去一年在 Instagram 發布的影片數量已成長 4 倍。相較於圖像,影片更大規模且更具即時性,這也使影片分析遠較圖像更難分類、篩選及選用。

Adobe Experience Manager 中的影片智慧標籤功能

Adobe Experience Manager 中的 Adobe Sensei 自動影片標籤(Video Auto Tag)功能服務,可以為 60 秒鐘以內的影片產生兩組標籤。第一組標籤是關於影片內物品、場景及影片的特徵,第二組則是描繪影片中的動作,可用於優化影片搜尋及選用,協助行銷人員能自動過濾掉不符合搜尋要求的圖像內容。

除了物品、場景及特徵外,自動影片標籤功能亦可辨識暫時發生變化的事件,包括影片內的動作或活動,例如:「喝水」和「跳躍」。利用一整套涵蓋大量動作的影片,搭配 Adobe 內部影片數據庫的用戶數據所產生的動作標籤訓練,以實現自動影片標籤功能。動作自動標籤可跨越影片中多個畫面,聚集各時間段的結果後,產生一組影片動作標籤集。

行銷人員善加管理 UGC 為現今優化行銷效果的必要能力,其中,運用影片分析工具最為關鍵,透過強化 Adobe Experience Manager 智慧標籤功能進行 UGC 影片分類,行銷團隊能加速工作流程,更好地運用這個網路上最受歡迎的內容型式,用更高的效率達到行銷目標。