AI 專家李飛飛座談會的 4 條筆記:從創業題目選擇到潛在威脅,我們該怎麼跟 AI 共存?

作者 | 發布日期 2023 年 04 月 02 日 10:00 | 分類 AI 人工智慧 line share follow us in feedly line share
AI 專家李飛飛座談會的 4 條筆記:從創業題目選擇到潛在威脅,我們該怎麼跟 AI 共存?


當生成式 AI 給了未來無限想像時,也帶來許多焦慮:AI 會不會取代我的工作?我要怎麼開始運用 AI 技術?現在用 AI 創業是好想法嗎?

由國科會設立的Taiwan Science and Technology Hub主辦的「AI進行式:技術展望與產業應用論壇」中,美國史丹佛大學資訊科學首任紅杉教授、Google前首席科學家李飛飛與和碩董事長童子賢、PChome執行長張瑜珊和iKala共同創辦人暨執行長程世嘉,探討了正在快速席捲全球的AI帶來的影響,從未來的創業題目、各產業的應用,以及我們怎麼與AI共存。

《創業小聚》總結了4條筆記:

  1. 創業家該如何選擇賽道?
  2. 怎麼跟AI共處?
  3. 台灣在AI世界生態系的角色是什麼?
  4. AI最該讓人類感到威脅的是?

▲ 美國史丹佛大學資訊科學首任紅杉教授、Google前首席科學家李飛飛(中)與和碩聯合科技董事長童子賢(右二)、PCHome執行長張瑜珊(左一)和iKala共同創辦人暨執行長程世嘉(左二)共同探討AI。

1. 創業家該如何選擇賽道?

程世嘉認為當前AI產業的快速進展,有賴於雲端計算以及大數據分析的基礎已經成熟,「且當AI成本接近0的時候,未來我們就不再討論AI了,就好像你現在拿手機充電,卻不會思考整個電網是怎麼回事,AI最終會變得跟喝水一樣稀鬆平常。」

然而,AI的稀鬆平常指的並不是會有更多ChatGPT或語言模型出現,而是更多既有服務採用AI技術。根據管理顧問公司麥肯錫的調查報告指出,2018年就已經有70%的公司應用了至少一項AI技術,這個數字只會不斷往上攀升。張瑜珊從電商產業的應用舉例,舉凡消費者搜尋產品到商家生產行銷素材與文案,都是當前可以看到的AI應用方式。

在這個前提下,李飛飛認為應該要從應用場景出發思考「AI可以幫你做什麼」。舉例來說,我們可能希望AI為我們洗衣掃地、鋪床疊被,卻不會希望AI幫我們拆開聖誕禮物。在思考完方向後,李飛飛建議新創們站在大企業的肩膀上,運用既有的模型或開源資料做創新服務。

換句話說,投入「生成式AI」創業可能不是明智之舉,應該專注在市場需求,「垂直領域的洞察、數據與資料,才是當前最珍貴的資產」,程世嘉提醒。

2. 怎麼跟AI共處?

不過,身處AI時代正在發生劇變的人們,可以怎麼學習跟AI共處?

「溝通技巧」會比過往來的都重要,程世嘉和張瑜珊就當前最熱門的ChatGPT應用表示:「很會問問題、很會下指令,你才能把這些AI真的當成助手。」

張瑜珊認為,「精準用詞」和「提出要求」是未來從基層員工到管理職位的人都該學會的技巧;程世嘉則表示,我們現在已經透過說話(口語文字)來跟AI互動,或許未來會出現新的程式語言寫法也不一定,不鼓勵急著學習既有的程式語言來增加AI基礎。

▲ 對ChatGPT精確地下指令,AI才能確實幫助你。(Source:Unsplash

3. 台灣在AI世界生態系的角色是什麼?

「有夠強的運算能力,AI才成為可能」,童子賢從硬體基礎出發,他認為半導體產業做為台灣護國神山的狀況,將會隨著AI需求大增而延續,「我認同AI本身不是產品的說法,所以要看的是我們在整個產業鏈與服務價值的位置」,程世嘉則認為規模化與國際化是台灣軟體新創的目標,而且應該善用台灣作為硬體強國的優勢。

長居美國的李飛飛則以美國1990年代的「人類基因體計畫(Human Genome Project,HGP)」為例子講述生態系如何打造。

當時學術界以及產業界紛紛在研究人類基因體序列,雙方幾乎是祕密進行、相互不公開資料,但是這對整體發展並無明顯的益處,而政府意識到萬一由產業界率先找出生物祕密而成為專利資產時,也會大大減緩整個醫療、生技與製藥產業的發展速度,因此拍板決定公私協力共同研究,「這關鍵就是政府整合了新創、企業、學術界與公部門等等單位共同努力、開源共好,這就是重要的生態系力量的展現。」

所以在硬體方面,台灣半導體的地位短期內不會動搖,但是在生態系方面,就需要仰賴更多單位的共同協作,推升台灣AI生態系的發展。

4. AI最該讓人類感到威脅的是?

新技術的出現總是伴隨利與弊,例如工業革命帶來了產能的提升,卻也犧牲了環境與生活品質──那AI會帶來什麼壞處?

李飛飛認為,絕對不是「工作被取代」,「事實上,現在是全球大缺工時代,與其擔心工作被取代,我更擔心AI普及化後的社會會進入『後事實時代』──我們要怎麼判斷資訊的真偽?」張瑜珊也表示,檢核事實或許會成為一個比「怎麼使用AI」更令人焦慮的事情。

雖然OpenAI一再強調ChatGPT產生的內容並不是完全正確,但是不可避免的是,未來會有一大堆難以辨識真假的AI內容流竄在網路上,屆時真實與虛假之間的界線更加模糊,人類將更難以辨別真假。

「人類社會基本上是依賴『信任』而建立的,我們如何不讓AI瓦解我們的社會?」李飛飛認為答案也許比想像中簡單:訓練AI的數據來自人類,所以人類必須先做好自我把關。

(本文由 創業小聚 授權轉載)