搜尋結果:36則
深偽陷阱!AI工具成厭女利器,被害者難以求償
「深度偽造」(簡稱「深偽」)這個詞彙相對比較新,是在2017年由一位紅迪論壇用戶所提出,指一種新研發的AI技術,可以創造出超真實的偽造照片和影片,就像新時代的修圖軟體一樣。他宣稱,利用這套軟體,任何人都可以天衣無縫的把色情片演員的身體和名人的臉孔融合在一起。生成的結果就是完全造假的「色情作品」,作品裡的女性對於這些影像的產生與散布完全不知情,也沒有控制權。 深度偽造技術的研發者是一位不願透露姓名的軟體程式設計師,他對人工智慧有興趣,正在進行他所謂的「研究計畫」。他告訴《Vice新聞》的記者,他不認為這項技術有任何道德問題。就算他沒有展示這套軟體,其他人也會。而且這沒有任何法律上的問題,畢竟在當時,製作深偽影像在世界多數地方並不犯法,張貼和散布亦然,所以沒有人會去監督這套軟體的應用方式。 深偽影像是用「深度學習」技術生成。深度學習是人工智慧的一個子集,演算法先在數百萬個訓練樣本中學習模式,然後用來執行影像生成等任務。這些模型會分階段學習生成臉孔的方式:一開始先對應個別影像的所有像素,然後辨識更高階的結構,例如特定臉部或圖形的形狀。 生成式對抗網路(generative adversarial network, GAN)是其中一種能產生深偽影像的演算法,它以成對的方式運作:一個演算法就你想要複製的臉部影像進行訓練,然後生成自己的版本,另一個演算法則要判斷那個影像是真實的或是合成的。這兩個演算法會來回傳遞影像,偽造的影像在過程中會不斷微調而變得更容易讓人信服,直到偵測用的演算法再也看不出偽造痕跡。這項技術可以把臉部或整個身體處理成逼真的照片和影片,就像2020年抖音上瘋傳的湯姆克魯斯影片,那個深偽影片逼真得令人毛骨悚然。 比起專業的視覺特效工作室,生成式對抗網路能用更快的速度與更便宜的價格,生成高品質的影像和影片,因此成為娛樂產業一個很有吸引力的替代方案。迪士尼的光影魔幻工業(Industrial Light and Magic)等影像工作室,還有法蘭史多爾(Framestore)等視覺特效公司,已經在探索深偽演算法的應用方式,為廣告和電影創造超真實的電腦合成影像內容,以及名人的各種合成版本,無論他們已故或在世。 製作深偽影像的工具並非只有生成式對抗網路,隨著新的AI技術逐漸成熟,又出現「變換器」(Transformer)這種新技術,推動了生成式AI的進展。生成式AI軟體可以根據人們輸入的簡單英語描述,產生全新的影像、文本和影片,以這些系統為基礎的AI藝術工具有Midjourney、Dall-E和ChatGPT,現在已經成為我們的日常語彙。它們讓你在靈光一閃時,只要用幾個精選的字句,就可以透過簡單的應用程式和網站,以直覺的方式產生精細的圖像作品。 AI影像工具也被當作厭女的武器。Sensity AI是少數幾家追蹤深度偽造的研究公司之一,根據他們的調查,在2019年,網路上的深偽影片大約有95%都是未經同意的色情影片,而且主角幾乎都是女性。作者阿傑德(Henry Ajder)告訴我,在他做完那份研究之後,深度偽造變得太猖獗,現在要撰寫這樣的報告幾乎是不可能的任務。然而他表示,最近的研究持續顯示,大多數深度偽造的目標仍然是女性,她們因為這項技術而被極度性慾化(hypersexualized)。 今天,在深度偽造這個詞問世好幾年之後,受害者還是沒有辦法訴諸法律。在全世界大部分地區,製作和散布AI生成的私密影像依然不違法。少數國家最近把未經同意散布私密影像(包括深偽影像)定義成犯罪,例如英國在2024年宣布相關法律,還有新加坡、南韓、澳洲,以及美國加州、紐約州和維吉尼亞州等也立法禁止,但創作AI生成的影像依然落在多數國際法的管轄範圍之外。 受害者僅存的辦法是藉由主張版權,要求平臺刪除內容。社群媒體平臺在服務條款裡承諾,會移除深度偽造和未經同意的影像,甚至有一些色情網站也這麼承諾,但他們實際上通常不會處理。他們不會主動偵測這類內容,就算注意到了也不會優先考慮移除。歐盟新的立法在2023年生效,強制這些社群媒體平臺必須說明,民眾如何要求他們刪除非法內容,也強制社群媒體平臺執行這些要求,但如果相關內容(例如深度偽造)原本就沒有違法,則這項法律鞭長莫及。 在網路上,AI 並不是第一個被用來騷擾和凌虐邊緣化群體的數位技術。從隱藏式網路攝影機、修圖軟體到社群媒體,深偽技術就像先前許多比較簡單的影像技術一樣,也被一群變態和懦夫用來入侵我們最私密的空間,也就是身體。 AI 影像竄改技術之所以變得這麼威力驚人,是因為這些工具可以輕易的廣泛傳播,而且價格低廉,業餘人士都能使用。相較於前幾代的技術,AI 影像竄改技術產生的深偽成品非常逼真,而且透過監管不足的社群媒體管道,深偽成品就可以像被擴音器放大那樣,快速的傳播。當然,AI 影像竄改技術也會被用來對付不知情(更別說同意)的受害者。這項技術讓有心人可以更大規模的生產騷擾和虐待的材料。 我打開谷歌搜尋,很快就發現幾十個提供深偽色情作品的網站,我相信那些影片都是偽造的。數百部影片濫用真實女性的肖像,讓她們在逼真的性行為表演中出現。 這些影片的主角可能是好萊塢、寶萊塢和韓國流行音樂的主流明星,甚至非公眾人物,例如莫特。在莫特出現的那個網站上,她驚訝的發現有一整區都是非公眾人物的深偽內容,簡直是一個由科技催生的女性身體市場。 深度偽造並不是意外出現的AI 技術。它們是工具,卻被一些想要造成傷害的人刻意扭曲,又因為這項技術容易使用,加上機構的漠視,使它們的影響獲得放大與鞏固。機構漠視是指國家未善加管理,以及大型線上平臺不願對深偽內容的傳播負責。無論莫特或我採訪過的其他女性,她們的故事都表示出:我們集體漠視了她們的痛苦。
AI底層真相!他們領薪水的工作,加速自己的淘汰
試圖打造出超乎常人的智慧機器並不是什麼新鮮事。在十九至二十世紀之交,猶太人的民間傳說描述過十六世紀末有「魔像」(golem)出現,它原本是泥偶,由布拉格的拉比勒夫(Rabbi Loew)賦予生命,保護當地猶太人不受反猶人士的攻擊。 故事的結局很好預測,魔像抓狂,最後毀在創造者手裡。這個故事和兩樣事物遙相呼應:一是雪萊(Mary Shelley)的創作《科學怪人》(Frankenstein),這部近代的作品協助催生了科幻小說文類;另一是最近新聞熱潮的AI論述,人們似乎愈來愈擔心惡意AI帶來的危險。 今天,真實世界的AI沒那麼有自主性,反而更像一種輔助技術。大概從2009年開始,我們密集使用連網設備和網際網路產生的大量資料,加上不斷增強的晶片運算能力,促成技術突飛猛進。值得一提的是,這導致了一個AI子類別的興起,那就是機器學習及衍生的深度學習(deep learning),兩者都在教電腦軟體從大量資料中找出統計的相關性,範圍涵蓋文字、影像、程式碼或數字。 找出模式的方法之一是讓AI模型看過數百萬個標記好的範例。這種方法需要人類費心標記所有的資料,這樣電腦才能夠進行分析。沒有這些負責標記的人,做為自動駕駛車和臉部辨識基礎的演算法就與目盲無異,它們沒辦法學習模式。 以這種方式打造的演算法,如今能在醫學、刑事司法、社會福利,以及抵押貸款申請等諸多領域,強化或替代人類的判斷。生成式AI是最新一代的AI軟體,可以產生文字、程式碼和影像。這讓它們能化身為創意助理,協助教師、財務顧問、律師、藝術家和程式設計師共同製作原創的作品。 為了打造AI,矽谷最有名的公司都在自家腹地爭取名額有限的資訊科學人才,支付數十萬美元給剛出爐的博士。但要利用真實世界的資料來訓練和配置AI,同樣的企業卻找上薩碼這類公司,這類公司擁有的一大票員工具備基本的數位素養,薪資卻不高,且就業狀況不穩定。 薩碼不是全球唯一提供AI訓練服務的公司。Scale AI、Mighty AI(現歸優步所有)、澳鵬(Appen)、蜂巢微(Hive Micro)和艾美瑞特(iMerit)等新創公司,以及埃森哲(Accenture)和威普羅(Wipro)等較傳統的資訊科技公司,都是這個不斷壯大產業的一部分,據估計到了2030年,這份產業的價值將達到一百七十億美元。 因為AI公司需要標記的資料量實在太大,多數新創公司都把服務外包給收入較低的國家,在這些地方有許多像寇利和恩吉托這樣的工人,能雇來篩選和詮釋資料,以便訓練AI系統。 逃離家園的敘利亞醫師訓練的醫療軟體能協助英國醫師診斷前列腺癌;在經濟衰退嚴重的委內瑞拉,失業的大學畢業生幫電子商務網站分類流行商品;在加爾各答貧窮的穆斯林社區梅蒂亞布魯茲(Metiabruz),赤貧的婦女幫亞馬遜智慧型喇叭的語音片段加上標記。他們的工作揭露了一個幾乎眾人皆知的祕密:所謂的人工智慧系統無法獨立「學習」,這項技術的驅動需要人類,而且是數百萬名的人類。在全球的AI供應鏈裡,資料處理員是寶貴的人力環節。 這股勞動力大部分是分散式的,而且組成分子多是社會中最脆弱的工人,包括弱勢青年、扶老攜幼的婦女、少數族群,以及移民和難民。AI公司及合作的外包廠商都說他們的目標是要把這些社群納入數位革命裡,無論這些人的生活有多麼不穩定,都會提供他們安全穩定和合乎倫理的工作。但我後來發現,資料處理員就跟工廠工人一樣不安穩,他們的勞力付出大多不為人知,目前仍是AI產業裡被低估的基礎。 隨著這群人從暗處現身,記者和學者開始了解這些分散在全球各地的工人如何影響我們的日常生活,從ChatGPT等AI聊天機器人產生的熱門內容,到我們滑抖音(TikTok)、Instagram和YouTube時看到的內容,以及線上購物時瀏覽到的物品、我們駕駛的車輛,甚至我們吃到的食物,都是藉由資料處理員的協助進行整理、標記和分類。 米切利是阿根廷的研究人員,目前在柏林以民族誌的角度研究開發中國家的資料工作。她剛開始做研究的時候,找不到任何有關AI勞工的親身經驗,也不知道這些人的真實身分和工作樣貌。她說:「身為社會學家,我覺得這道鴻溝很巨大,沒有多少人真正了解這些人。他們到底是誰、他們如何執行工作、他們的工作實務涉及哪些層面,還有他們處於什麼樣的勞動條件?」 米切利是對的,因為很難找到一家公司,能讓我在最少干預的情況下接觸他們的資料處理員。營業祕密通常會以保密協議的形式寫進合約裡,像是禁止員工直接聯絡客戶,以及公開揭露客戶的名稱。這些要求通常來自客戶而不是外包公司,例如薩碼公司的客戶Meta,它是臉書(Facebook)的母公司,就會要求資料處理員簽訂保密協議。通常,處理員可能根本不知道客戶是誰、不了解他們正在開發哪種演算法系統,也不清楚世界其他地方的同行從事同樣的工作能拿到多少報酬。 低薪、保密、從弱勢社群榨取勞力,像薩瑪這類公司的安排,其實是往不平等傾斜。畢竟,這終究是平價的勞動力。提供就業機會給少數族群和貧民窟青年,或許在某種程度上是一種賦權與提升,但這些資料處理員也相對廉價,而且幾乎沒有相關的談判能力,或是反抗的手段和資源。 甚至資料標記工作的目標也讓人感覺很壓榨,因為這份工作訓練了AI系統,但AI系統最終將取代訓練它的人類。然而在這兩年的時間裡,我採訪過數十名資料處理員,沒有人意識到訓練替代者的後果,他們領薪水所做的工作加速自己的淘汰。 米切利告訴我:「這群人太依賴這些工作,以致變得對客戶言聽計從。他們的心態已經轉變,不去想自己在做的事情是否有意義、是否在道德上有爭議,只會去想客戶可能要什麼。」AI研發是一項蓬勃發展的業務,資料標記產業裡的公司都爭相降價,以一份任務幾美分的價錢提供勞力給大型企業和當紅新創公司。「人們必須知道:科技業的發展受益於這些廉價勞力。」
AI產業中的隱形工人 演算法的訓練產線
當你把車開上蒙巴沙路(Mombasa Road),基本上是沿著奈洛比國家公園的邊緣走,這個原始的綠洲讓奈洛比成為非常稀奇的城市中心,當你馳騁在快速道路上,可以在高樓大廈旁邊看到長頸鹿。薩碼公司的主要設施就位於這條馬路,是大型商業園區裡一棟四層樓的建築物,可容納兩千八百多人。外頭豎立的招牌寫著薩碼,還有公司的標語:「AI的靈魂」。 這棟建築物的地板和牆壁採用拋光的混凝土,並以波浪狀的鐵皮裝飾。室內裝潢採用回收的木材和錫,到處掛著當地的藝術品和盆栽植物,色彩非常繽紛。有人告訴我,這應該能讓員工想起他們原本位於非正規住宅區的家。設計者諮詢過早期員工,決定使用他們熟悉的材料,希望員工覺得這個空間賞心悅目,而且有歸屬感。 薩碼公司的建築物很有美感,但終究是辦公室。薩碼公司稱他們的員工為處理員,這群處理員坐在電腦前,不斷按著滑鼠,在各種影像的周圍畫出形狀。一個又一個的房間裡擠滿了二十多歲的年輕男女,不斷在點擊、畫線、打字。這個工作需要精準與專注,動作卻很重複,有點像是形狀分類、字詞標記、點擊按鈕的遊戲。 雖然對AI系統來說,這些任務既新奇又複雜,可是對人類來說,大多簡單且顯而易見。儘管處理員有時候會相互討論,但大多時候都專注在自己的螢幕,每隔幾秒鐘就處理好一張影像,不斷持續下去。嘻哈音樂從某個角落流洩出來。點擊滑鼠的聲音剛好對著節拍。一組處理員在幫行駛於中國和日本街道上的車輛影像加上標籤,其他處理員在標記的影像則有玉米株的特寫照片、歐洲城鎮的衛星影像、吊起木頭的運木卡車,還有女性服飾。點擊、畫線、打字。 平均來說,這裡的員工大約從早上七點開始工作,持續八個小時。薩碼公司的員工先前大多是做些非正式的工作,例如家務清潔,或在街上賣印度麵餅洽帕提(chapati)。因為AI供應鏈已經拆解得非常細,很多員工幾乎都不知道他們協助打造的商品到最後是何樣貌,或有何商業價值,但他們很清楚自己在幫一些最先進的科技應用程式訓練軟體,像是導航、社群媒體、電子商務和擴增實境等。 例如催生出ChatGPT的OpenAI,就聘請薩碼公司的員工對數以萬計有害和寫實的文本片段進行分類和標記,文本內容包括兒童性虐待、謀殺、自殺和亂倫等描述。他們的工作能幫助ChatGPT辨識、阻擋和過濾這類問題。 這些處理員大約以二十人為一組團隊,除了兩次排定好的飲食休息時間和上廁所之外,幾乎整天都在幫資料做注解,只能一直待在桌子前面。組長比較機動,會穿梭在各排處理員之間,檢查他們的工作。在每條產線的末端,品管分析師會抽查這些處理員的注解工作。 一到預定的午餐休息時間,處理員會吵鬧的魚貫走到樓下的自助餐廳,經過「請安靜!」的標語,加入拿取食物的蜿蜒人龍。今天的菜色有燉牛肉、香菜飯、醬油高麗菜絲,以及馬鈴薯蔬菜泥(mukimo)──這是一道把蔬菜加進馬鈴薯泥裡的肯亞菜餚。紙碗裡的切片西瓜正冒著水滴。所有人會一起用餐。 我找到一張長桌坐下來吃飯,桌邊坐滿了吵雜的員工,包括處理員、組長和營運經理。莉莉歐莎(Liliosa)是一名三十多歲的經理,負責評估公司對處理員的生活有何影響,此刻盡情暢談殖民主義、英國王室和肯亞選舉。她目前正在寫一部關於肯亞自由鬥士反抗英國的嘻哈音樂劇。她告訴我:「政治是我們的文化。這跟部落有關,每個部落都希望是自己當家,但年輕人不再關心了,他們只想要有網路、工作和金錢。」 午餐時間一過,自助餐廳很快就空無一人,我回到處理員標記資料的樓層。一名年輕男性正在處理幾十張的世界各地建築、中國寶塔和法國公寓的影像,標記它們是歷史建築或現代建築。對於每張影像,他還必須點選一系列的方格來描述畫面:富有情調、飽和度高、色調銳利或復古。點選、點選、點選。目前他停留在一張東京佛教寺廟的影像上,這座寺廟雖然是日式古老佛寺,但前面卻聳立一座現代的電波塔。他覺得這個影像融合了歷史和現代,因此決定兩個選項都點擊。 我後來發現,他每次的點擊和勾選都在幫建材銀行(Material Bank)訓練演算法。建材銀行是一個能夠搜尋和訂購建築和設計材料樣本的平臺,訓練影像分類演算法的目標是要創造一個客觀工具,能提取最相關的資訊。這意謂著,當你搜尋特定的建築材料或建築風格,演算法可以提供你需要的完美範例。 他怎麼知道自己是否做對了?他告訴我:「有時答案並不明顯,這時跟著感覺走就對了。」
從鳳梨酥的「數位轉型特攻隊」 談精準行銷Know-How
服務業或一般企業的行銷部門,最關心的就是商情收集,希望藉由分析國內或海外市場的資訊,得出包含市場概況、消費型態、消費動向、消費者需求分析、輿情分析等關鍵文字性質的資訊;這方面,如今你可以透過A I演算法,交叉整理不同社經地位、地區、國家、或是宗教傾向之消費行為。舉例來說,在收集東南亞市場消費趨勢時,就可以聚焦在越南、印尼、新加坡、馬來西亞等國家,針對上述之主題主動找尋及推薦具有商機的目標產品。 在針對競品分析與監控的這個議題上,除了可以用AI自動搜尋競品資料,週期性地以特定目標關鍵字爬蒐及整理數據,並進而整合這些數位化工具,來分析既有會員的消費偏好,以及尋找擴展行銷到新市場的途徑。以下,我們來看一個真實的案例。 國內有一家品牌相當知名的鳳梨酥製造商,老闆對「輿情分析」極為重視,再小的事都不放過──比如業務經理常聽家裡的印尼籍看護說,很多同鄉都喜歡吃台灣的鳳梨酥,不過大家也都覺得,如果是帶有辣味的鳳梨酥,一定會在印尼市場大賣。一想到那是有2.7億人口的國家,也就是市場有台灣的10倍大,聽了這話的老闆半夜都睡不著了,真的去啟動一個數位轉型的專案小組,取名叫「鳳梨酥轉型特攻隊」,不僅詳細分析這個可能具有龐大商機的微辣口味鳳梨酥,也開始關心東南亞國家的消費趨勢,不僅留意這些國家最喜歡的辛辣度,同時還悄悄瀏覽競品公司的評論、在臉書及社群媒體的動向,更關注購物平台上的評論,也在原物料價格波動時,超前部署地整理國外政治因素介入時的市場分析,以便更精確地做出投入市場前的準備行銷策略及產品開發試驗。 近年來,許多零售業的管理者不但逐漸了解,同時也已巧妙地善用銷售數據來預測消費者的行為與偏好,例如購買A產品的客戶也會購買B產品,或者促使客戶購買C產品的是什麼動機。但是,創造全新的客戶體驗卻不僅僅是以數位科技收集大量的消費者數據而已,還得在更多的情境下都能夠精確提供個人化的客戶體驗。 在實際的行銷手法上可以看到AI的影子,例如AI演算法可能會建議不要給某一位客戶太多選擇,並特別提醒他退貨規定,因為從過去的購買記錄來看,這位顧客可能是一位比較神經質的人。至於較為內向的客戶,AI演算法可能會建議更精簡與其閒聊的時間,必要時送給客戶一張可能會令她大為驚喜的折價券。 例如,目前零售業所掌握的AI演算法,幾乎可以計算出線上和線下的個人化輪廓資料,從而精確判斷客戶是內、外向或是不是神經質,同時也會自動採取一些與之相關的有效作法,調整促銷與推薦的內容,甚至還可以自動將這些銷售知識傳遞給實體店的門市人員,以改善同一位客戶的購物體驗。 因此,產業在訂定「策略規劃」時就可以先聚焦在如何做到精準行銷,先確定服務或是產品的目標受眾是誰,包括受眾的年齡、性別、地理位置、收入水平、興趣、行為、需求等特徵,當然愈具體愈好;然後再進行深入的市場研究,以了解目標受眾的需求、偏好和行為。這時候,就有必要以數位工具建立典型的客戶人物,像是基於市場研究而創建出具體的幾種客戶人物,也就是理想的客戶代表,盡可能羅列詳細的數位化背景資料。 接下來,就可以開始設計、創建個人化的行銷內容,以滿足不同客戶的需求了,包括個人化的廣告、電子郵件、社群媒體發文和具有說服力的行銷內容。不過,千萬不要忘了設定最佳發文時間點。 其實,除了追求自家創新產品或服務足以吸引人之外,企業還要以能夠滿足市場尚未被滿足的需求為前提,努力思考如何擴大目標市場。在考慮擴大目標市場時,不妨納入不同的地理位置、人口組成或產業垂直領域,好讓企業在更廣泛的受眾中建立存在感。 透過上面所說的策略規劃,公司的決策者應該就會清楚明白如何以數位科技創造自家產品的差異化了──不管是新產品的開發方式,還是提供新的服務模式。到這時,企業和消費者的距離就愈來愈近了,在接下來的形塑產業轉型之「路徑指引」上,便可以依循本身已經布建好的的數位資源,在對的時間、對的地點澈底打動消費者。 技術上,除了使用AI數據分析方法之外,還可以利用數據分析工具追蹤客戶行為,以了解他們的互動方式並隨之調整行銷策略,幫助服務業優化預定提案的商業活動,例如以年輕的上班族群為主的話,像是小資族OL買化妝品省錢祕訣,或是宅男最佳通勤購物術,就會是比較有效的商業活動,緊接著,追蹤範圍也可以包括社群媒體和不同搜尋引擎行銷等方面。 精準廣告方面,線上廣告當然是實現精準行銷的有效工具,可以使用諸如Google Ads和Facebook Ads來定向特定的受眾,並根據他們的特徵和行為來設計廣告;這樣的AI社群媒體定向,具體做法是利用社群媒體定向媒體平台的行為定向功能,以將內容顯示給特定的用戶群體,當然也要根據年齡、性別、地理位置、具體瀏覽行為、可能興趣和有意義消費行為等主題,來設定AI演算法所需要精算的因素。
餐廳蟑螂事件的危機處理啟示錄
餐飲業發生意外事件時,快速反應並部署精準行銷策略至關重要;運用數據分析和推播監控輿情也是有效的應對方式。 以一家五星級飯店餐廳的蟑螂事件為例:客人從剛泡好的熱茶壺中倒出一隻蟑螂,餐廳經理即時出現並做危機處理。他以誠懇的態度道歉,承諾廚房加強清潔,並在用餐後免費招待甜點和主動給予85折優惠。這樣的處理不僅安撫了客人,還轉化為正面評價,營造良好的品牌形象。 危機處理的成功與否直接影響客人的滿意度和對品牌的信任。若是處理不當,可能引發客人投訴和負面口碑。反之,危機處理得宜可避免潛在的公關危機,提前救火,轉化為正面評價。該餐廳經理可能會在事後立刻在網路上進行輿情監控,以防止不當的事後效應。 在進行輿情監控的過程中,應用AI演算法導入大數據可以提前預判,並轉化為老闆看得懂的可視化或量化報表,以提供商情決策。這不僅能有效縮短產品投入市場後的適應期,降低失敗機率,還可以減少品牌信譽受損的風險。 對於餐飲業來說,成功關鍵之一就是市場情蒐與輿情分析。由於傳統市場調查成本高昂,餐飲品牌需要持續與消費者互動保持市場熱度。然而,用餐消費者的喜好、消費行為和熱門議題不斷快速變化,傳統的市場調查需要大量的人力、時間和費用。因此,輿情分析結合大數據技術提供了更迅速的市場情況回饋,有助於餐飲業者更靈活應對,縮短新菜研發和推廣的反應時程。 運用AI演算法技術自動蒐集各種網站資訊和輿情數據,進行系統化的語意分析和意圖理解,有助於掌握市場風向、正負面評價。這解決了以往需要投入大量人力與時間做市場調查的問題,並在特定或不幸事件的危機處理上迅速提供商情判斷,以減少品牌信譽受損風險。 針對餐飲業消費者行為數據的精算與掌握,有利於未來餐飲通路的整合管理,同時促進朝連鎖店轉型發展,以提升品牌總體業績。透過消費行為數據,可以精算出基本客戶的喜好,進而分出不同的分眾市場與目標客群,滿足分眾市場需求,逐漸擴大品牌影響力。 從另一個角度來看,這類數位解決方案也擴大了對客戶的效益,不僅是一種良好的溝通工具,有助於將消費者的需求痛點有效傳達給餐飲業者,使業者與消費者之間的互動更加緊密,避免新品策略錯誤、銷售狀況不佳等窘境。此外對於合作夥伴,例如連鎖店加盟主,建立良好的品牌形象可降低前期行銷曝光和推廣的成本,進而協助加盟連鎖店在合作後穩定取得營收。 餐飲業數位轉型可結合IT資訊科技與演算法的應用,有助於消弭品牌與消費者之間的認知落差和距離。這些看似簡單的AI系統蒐集、整理、分析情商並推廣,有助於形塑嶄新的商業模式,不僅能節省業者的行銷人力和降低無效廣告的投放成本,還有可能衍生更多的商機(圖20)。 將這樣的數位技術應用在其他服務業中,特別是以顧客服務轉型的方式,有助於解決行銷營運的痛點。這包含應用智慧型對話機器人技術與顧客的線上互動,或廣蒐公開數據,透過與營運數據的加值,依據數據分析結果做出決策。這種轉型將營運模式從業務單向賣產品或老闆決策新產品,轉變為根據數據理解顧客行為與偏好來客製產品。 鼎泰豐就是一例,他們的成功哲學是「既然是做小籠包,就把小籠包做到最好」,這種專注於品質和客戶需求的經營理念,使其屢屢獲得《天下雜誌》金牌服務業調查的前三名。另一個成功案例是雲品集團,他們採用多角化經營,疫情期間推出浪漫的公路之旅VANTEL,以「豪華露營概念車打造移動的飯店」,成功滿足了顧客對於獨特體驗的需求。 在製造業的數位轉型典範中,社群媒體與顧客互動等方式也被運用來優化行銷推廣策略,並將顧客需求回饋到生產製造端,以改善生產及產品客製開發效能。一家位於南投的表面處理工廠就是一個成功的例子。他們在環保處理上具有專業能力,克服表面處理工件規格誤差大的共通痛點,成功提升了電鍍產業的技術層次,從軍用級水準進入航太級高端的國際市場。
產業AI推動師:數位轉型前需要具備的數據思維
隨著第四波人工智慧熱潮的興起,愈來愈多的產業將資金投入到人工智慧的研究當中,自第三波熱潮開始,人工智慧走出實驗室,並在各個不同的產業領域,如生醫、金融、農業、製造業等大放異彩。然而,人工智慧並非萬靈丹,仍有其限制,除了需仰賴大量數據之外,如何對數據做正確且有效的解讀,也是各個企業正面臨的問題。 對於希望將人工智慧導入自身企業的管理者而言,若對人工智慧及數據分析相關知識沒有基本的認知,很可能會對AI技術有所誤解,進而造成誤判,無法實現期待的成果。 當我們認識到數據如何運用分析技術來應用,而數據應用的背後必須要建構正確的思維,從解決問題出發來收集數據、處理數據、運用數據,就是「數據思維」,先累積營運數據,探求數據的應用,再完善數據收集。 2001年麥塔集團(META Group)的分析員道格.萊尼(Doug Laney)指出大數據有三個特性:資料量(Volume)、數據輸入輸出的速度(Velocity)與多樣性(Variety),合稱「3V」。而之後出現第四個「V」,不同機構有著不同的定義,像是真實性(Veracity)或價值(Value)等。而我們更建議讀者,從數據價值(Value)來看待數據,因為我們認為,數據價值的重要性高於其他3V,且是3V價值的綜合展現,將數據價值發揮,才能為企業創造價值。 要知道如何使用資料,首先必須要了解資料來源為何、資料型態是什麼,才能夠從中找到對應的技術以及方法,去做數據分析和數據視覺化的呈現,並將這些資料的價值找出來。 但千萬不要以為有了資料就開始迫不及待的進行分析。更重要的是,我們必須知道想要解決什麼問題?從解決問題的目標去找尋能用的資料,再從資料中找尋答案,這才是正確使用資料的第一步,也是數據思維很重要的一步。 當我們擁有數據,就應該思考如何去運用,讓這些數據除了對營運有所幫助外,更要進一步思考企業的未來發展,或是為目前的主業之外創造可能的機會與價值,這些可說是非主業的黃金,而這些黃金甚至可能比主業還值錢。 數據運用除了思考與主業相關的營運外,更重要的是思考能否創造出「非主業的黃金」,我們可以從「數據效用」、「數據驅動新商模」兩個角度來思考。 「數據效用」是讓企業對於數據有更多運用的思維;「數據驅動新商模」,則是藉由累積大量的數據或服務平台,轉換為數位資產,成為可使用的資料或提供新服務,提供給有需求的用戶。以這兩個角度來建構與思考數據運用,就是數據思維的最佳應用。
AI產業鏈興起 生成式AI帶來「賦能」與「創新商模」兩大新助力
隨著第四波人工智慧熱潮的興起,愈來愈多的產業將資金投入到人工智慧的研觀察2020、2021年的AI 100企業名單,從AI運算時需要的AI處理器(Artificial Intelligence Chip)、AI模型的開發(AI Model Development)、自然語言處理及電腦視覺(NLP, NLG, & Computer Vision)、語音辨識(Speech Recognition)、深度學習加速器(Deep Learning Accelerators)、特徵與AI營運平台(Features stores and MLOPS Platforms)、IT營運自動化(IT & DevOps Automation),以及到最末端的開發營運監控(DevOps & Modeling Monitoring),整條AI應用的產業鏈都有相關企業入選,可以看出產業與AI間緊密的雙向互動。 科技專家著重於AI技術研發,產業企業透過應用這些AI技術,解決企業問題,兩者的互動讓AI產業化的趨勢更加明顯,這也代表著產業已從「產業AI化」發展到「AI產業化」。 Gartner在2020、2021年十大科技趨勢指出,透過增進人類賦能(Human Augmentation),讓人們更易使用智慧應用來提升解決問題能力,企業需要具備隨時隨地接受顧客決定的通路進行互動,這就是隨處營運(Anywhere Operation)的能力。在管理角度上提出AI工程概念,在資料、模型、應用的營運管理能在企業內更有效地被運用、管理與發展,而AI安全(AI Security)議題,將是未來AI技術發展與應用過程需要注意的,尤其是要能透明化與可追溯性(Transparency and Traceability),這些科技趨勢提出產業發展與智慧應用指引,讓產業在應用AI科技有更多角度來思索更好的發展。 AI技術不但促使許多產業AI化,也能實際被各項產業應用,產業需求變大。為加速服務產業,AI公司也漸漸形成專門提供AI技術服務,然後由有能力整合產業需求的公司,來提供完整產業智慧應用,而逐漸形成具有上下游的AI產業鏈,此稱之為AI產業化。 2022、2023年CB insights更進一步將AI 100入選的企業分成三大類,分別是跨行業應用,行業特定應用及AI開發工具。這表示有愈來愈多智慧應用具備支援跨產業能力,如銷售與客服、回饋分析、工程設計、AI助理與人機介面、味覺科技等。從這樣的變化可以發現,智慧應用也將具有在各個行業提供服務的能力,加速產業的智慧應用發展,造就AI跨行業應用的趨勢。 2023年,生成式AI快速崛起,AIGC(AI Generated Content)人工智慧應用所產製的內容也成為企業的發展助力,且與以往AI不同的是, 生成式AI能自行創造出全新且未曾有過的內容。 生成式AI帶來兩大助力,其一是「賦能」,也就是能快速增強生產力,就好比一位不擅長寫作的求職者,只要將想要表達的主旨和目的告訴ChatGPT的生成式AI工具,就能完成一篇完美的履歷。生成式AI已可以協助生成行銷文稿、推廣文宣、顧客回函等,大幅提升工作效率,減輕工作負擔。 其二是「創新商模」,在生成式AI的幫助下,催生出前所未有的全新商業模式。例如,有餐廳業者希望在官網上建立智能機器人,用以回答客戶對於營業時間等相關問題、協助訂位或預定餐點,除了有效減少服務客戶的人力,也能因提早獲知顧客欲訂餐點,事先準備適當食材。而若預估當日食材可能有剩,就可以透過智能機器人發送優惠訊息給其他潛在顧客,提高他們前來消費的意願,降低餐廳食材的浪費。 從上述情境可以發現,透過智能機器人與顧客互動,可以進行行銷、推廣、服務客戶,提升消費意願,在必要時才由人力介入處理。此種新樣態的企業經營方式,將整合更多科技應用,讓企業發展得以迅速成長。 從2018年的AI智慧應用發展,2019年的產業AI化、2020年開始AI產業化、2021年AI產業形成、2022年AI跨產業應用、2023年生成式AI崛起、2024年客戶價值提升的發展。可以說,這幾年AI與產業間的發展相輔相成,AI技術更成為各產業發展的關鍵,並同時帶來產業變革。
當AI比你會思考,工作將不保?培養不易被取代技能與人機協作能力是解方
在AI 2.0世代,生成式AI逐漸被廣泛應用,AI對職能與職缺的影響開始出現不同的變化,總體職位從過往的增加轉為減少,這是一個重要的訊息,而且影響將持續加劇,為就業帶來更大衝擊。 儘管AI對人類的職涯產生巨大衝擊,但同時帶來的益處也是相當可觀,更會帶動整體經濟成長。想把握這個機會的未來職場人才,除了要具備AI沒有的能力,也必須培養善用AI工作的能力。畢竟最有保障的職業排名中,可以看到工程師、電腦科學家、AI演算法設計師等與AI相關的職業,顯示科技世代駕馭AI的重要性。 技術革新往往具有毀滅性與創造性,產業人工智慧化會創造新的人力需求,未來將是人與機器合作的工作環境,新的能力需求必須具備資訊科技(Information technology,IT),以及與AI智慧系統溝通的專業知識與技能。新的勞力需求,就是必須具備非機器可取代的「人類技能」。 人的能力必須不斷移動到更需高度展現人類特質的領域,這完全符合現今AI世代的概念,若不想被AI取代,人類就得發揮更高價值,這是每個人都必須要有的認知。 除了職務類別,還有哪些人會受到AI的影響?2019年布魯金斯學會(Brookings Institution)的研究報告「人工智慧會影響哪些工作」(What jobs are affected by AI?),指出兩大結論。 其一,AI對高學歷與高薪職位的影響較大,以教育程度來看,擁有高中學歷的人,受影響的程度約為4%,擁有大學或更高學歷的人,受影響的程度約15%至21%,顯示擁有較高學歷的群體,受人工智慧影響更大。其二,隨著機器學習不斷改變,AI對職業的影響恐難以預估。 這份報告針對「人工智慧對薪資的影響程度」做進一步研究,發現薪資愈高的族群,受到的影響愈大,但在職級最高的職位如CEO,其受到的影響程度反而較小。這也意味著,比起CEO這樣頂尖的決策者,中高階職位人士的薪資,更容易受到人工智慧的影響。 儘管AI對基層、中階與高階職業人員都造成一定程度的衝擊,但對中階職場人員的衝擊最大,因為基層從業人員的工作雖受影響,但相對較容易找到適合的新職務,所以衝擊較小。而中階管理者主要在於經驗的累積與傳承,當AI將人的經驗與智慧系統化,組織更容易傳承經驗,也更容易運用AI進行分析與決策,所以中階管理者相對容易被取代,但卻又不容易在其他領域具有經驗,造成轉職上的困難,也較難從基層學習做起,因此衝擊較大。 也就是說,在AI 1.0時代是有經驗的工作者受到取代的衝擊,如領域的老師傅;在AI 2.0世代則是知識工作者或白領階級受到衝擊。事實上,AI崛起也造成高階職業族群正在縮小,當有更多決策是透過AI來協助完成,只有真正掌握組織發展決策的少數高階人員不易被取代,其餘高階職務人員很可能被降為中階,或由AI協助完成。 面對AI大數據對職業的衝擊與影響,就如同先前所提,培養人類本質不易被取代的技能,以及人機協作的能力,並且敏銳分析環境變化,提前研究發展趨勢,才是最好的解方。未來的職場瞬息萬變,也因AI的快速發展產生不同面貌,因此我們必須持續累積新技能,以面對快速變化的職場環境,這也是我們在AI世代面對產業變革的因應之道。 我們必須了解,AI是用來幫助人類,而非取代人類;會善用AI的人,將取代不會使用AI者。持續關注產業發展趨勢,具備多語言、跨業、跨界、跨國能力,發展社會需要的新能力,提升自身優勢,才是無懼未來變化的解方,在AI 2.0世代找到屬於自己的價值定位。
AI為何會對人類生存造成威脅?
許多專家警告,AI正對人類生存造成威脅。但也有其他專家認為,這種警告是杞人憂天。 如果今天講的是核武,大家都很清楚危險所在;但講到AI,就很難看懂這究竟是危險在哪? 從工業革命的歷史,就能幫助我們瞭解這場新的「AI革命」與生俱來的危險。 許多專家警告,AI崛起可能使人類文明崩潰,甚至是人類物種滅絕。一項2023年的研究調查了2,778名AI研究者,結果也顯示有超過三分之一認為,先進的AI有至少10%的機率會造成等同於人類滅絕一樣可怕的結果。2023年,包括中國、美國與英國在內,有將近三十個國家政府簽署了關於AI的《布萊切利宣言》,其中就承認:「從這些AI模型最重要的功能,可能有意或無意地造成嚴重、甚至災難性的傷害。」 對某些人來說,可能覺得這些警告就是杞人憂天。每當出現強大的新科技,都有人焦慮世界末日就要來臨。舉例來說,當初隨著工業革命進展,許多人都擔心蒸汽機和電報會摧毀人類社會、毀滅人類的幸福。但到頭來,這些機器生產出了史上最富足的社會。時至今日,大多數人的生活狀況都比十八世紀的祖先好多了。像是安德森(Marc Andreessen)、庫茲威爾(Ray Kurzweil)這些熱情擁抱AI的人都保證,各種智能機器絕對會比過去的所有機器帶來更大的好處。他們說,有了AI,人類就能享有更好的健康照護、教育與其他服務,甚至還能協助拯救生態系統免於崩潰。 遺憾的是,只要看歷史看得仔細一點,就會發現人類確實有充分的理由,該對強大的新科技抱持幾分畏懼。就算這些科技到了最後的最後是利大於弊,但在那個快樂結局之前,往往得先經歷百般磨難與考驗。新科技之所以常常帶來歷史上的災難,並不是科技本身有什麼問題,而是人類得花點時間,才能學會善用科技。 工業革命就是個很好的例子。工業技術在十九世紀開始傳向全球,顛覆傳統的經濟、社會與政治結構,彷彿打開一條道路,讓人類有機會創造出更富裕平和的全新社會。然而,要學習建立一個良性的工業社會,絕沒有那麼簡單,得經過許多昂貴的實驗,還得產生數以億計的受害者。 其中一項昂貴的實驗,就是現代帝國主義。工業革命從十八世紀晚期英國開始,到了十九世紀,從比利時到俄羅斯等其他歐洲國家,再加上美日兩國,也紛紛採用了各種工業技術與生產方法。這些工業重地的帝國主義思想家、政治家與政黨得出的結論認為,唯有帝國形式能夠撐得起工業社會。他們認為,不同於傳統的農業社會,新興的工業社會十分依賴外國的市場與原物料,而唯有帝國能夠保證滿足這樣的需求。帝國主義者擔心,如果國家走向工業化,但沒征服任何殖民地,一旦碰上更無情的競爭對手,就無法取得重要的原物料與市場。有些帝國主義者也說,取得殖民地不僅是殖民母國的生存所必需,甚至對當地人民也有好處。他們聲稱,唯有靠著帝國體制,才能把新科技的好處帶到所謂的未開發世界。 於是,英國、俄國這種已經屬於帝國體制的工業國家開始大幅擴張,至於美國、日本、義大利、比利時這些國家也顯得興致勃勃。工業軍隊配備了量產的步槍與火砲,以蒸汽動力來運送、以電報技術來指揮,從紐西蘭到朝鮮,從索馬利亞到土庫曼,橫掃全球。數百萬計的原住民就這樣看著自己的傳統生活被工業軍隊的巨輪輾過。要等到經過一個多世紀的苦難之後,才讓大多數人意識到工業帝國這個主意有多糟糕,也發現其實有更好的方法能建立工業社會、確保取得必要的市場與原物料。 關於如何建立工業社會,史達林主義與納粹主義也是兩場無比昂貴的實驗。史達林與希特勒這樣的領導者認為,唯有極權政體能夠充分駕馭工業革命釋放的巨大力量。在他們看來,想在工業世界生存,就必須用極權體制來控制一切的政治、社會與經濟層面,而第一次世界大戰這場史上首見的「總體戰」就是明證。但就好的一面來看,他們也認為工業革命像是一個熔爐,熔去了所有先前社會結構的人類缺陷與弱點,有機會創造出完美的新社會,成員都是純淨完美的超人類。 為了創造這個完美的工業社會,史達林主義者與納粹份子學會了怎樣以工業化的方式來殘殺數百萬人。火車、鐵絲網與電報命令配合無間,創造出前所未有的殺人機器。如今回顧過去,大多數人會覺得史達林主義者與納粹份子的作為讓人驚駭莫名;但在當時,卻有幾百萬人是覺得他們眼界高遠,令人著迷。在1940年,很容易會覺得史達林與希特勒是成功駕馭工業技術的典範,至於那些猶豫不決的自由民主國家,只能等著被丟進歷史的垃圾桶。 正因為各方對於「如何建立工業社會」的看法不一,就造成了代價高昂的衝突。兩次世界大戰與冷戰就像是一連串關於誰是誰非的辯論,各方都能互相學習,嘗試用新的工業方法來發動戰爭。但在辯論的過程中,就造成數千萬人死亡,人類差點自我毀滅。 除了以上這些災難,工業革命也破壞了全球生態平衡,導致一波物種滅絕。在二十一世紀初,據信每年有高達58,000種物種滅絕;從1970年至2014年,脊椎動物族群總數減少了60%。人類文明的生存也受到威脅。直到現在,我們似乎還是沒能建立起一個生態永續的工業社會,我們這個世代得意洋洋的繁榮景象,背後恐怖的代價都得留給眾生與人類的子子孫孫來承擔。或許人類總有一天會找到辦法(也許正是透過AI的協助),打造出能夠生態永續的工業社會,但在那之前,工業革命的成敗仍難有定論。 如果暫時無視生態系統受到的持續破壞,或許人類還是可以先安慰自己,想著人類畢竟總是學會了如何建立一個比較慈悲良善的工業社會。過去的帝國征服、世界大戰、種族滅絕與極權政體,都是一些可悲的嘗試,已經讓人類瞭解實在不該有這些作為。等到二十世紀末,有些人或許覺得,人類至少大致上還走在對的方向。 即便如此,這給二十一世紀傳達的訊息依然並不樂觀。要是人類得經過這麼多可怕的教訓,才學會如何管理蒸汽動力與電報技術,現在還得再付出多少代價,才能再學會管理AI?比起蒸汽機、電報和所有過去的科技,AI不但可能遠遠更為強大,也遠遠更加難以管理,因為AI正是史上第一個能夠自行做決策、創造新想法的科技。AI不是個工具,而是能夠做出決定的行為者。在過去,機槍、火槍、原子彈雖然能夠取代人類的肌肉來殺人,卻無法取代人類的大腦來決定要殺誰。被投在廣島的原子彈「小男孩」,爆炸威力相當於12,500噸的TNT,但腦力卻完全是零,什麼事都無法決定。 AI就不一樣了。就智能而言,AI不但遠遠超越了原子彈,更超越了像是泥板、印刷機、收音機這些所有過去的資訊技術。泥板能夠儲存關於稅務的資訊,但無法自行決定要收多少稅,也無法發明某種全新的稅目。印刷機能夠複製《聖經》這樣的資訊,但無法決定《聖經》要收錄哪些文本,也無法對這本宗教經典加上新的註釋。收音機能夠傳播政治演講與交響樂等資訊,但無法決定要播放哪些演講或交響樂,也無法創作演講或交響樂。AI則是能夠做到這所有一切,甚至是創造出新的大規模毀滅性武器──從威力無窮的核彈,到無比要命的傳染疾病。過去的印刷機或收音機只是人類手中的被動工具,但AI正在成為一種主動的行為者,可能得以擺脫人類的掌握與理解,主動形塑社會、歷史與文化。 或許人類總有一天能夠找到辦法,讓AI不至於失控,真正為人類帶來福利。然而,人類在這之前,是不是又得再次經歷全球帝國、極權政體與世界大戰的循環,才能搞清楚如何善用AI?而且,比起二十世紀的科技,這些二十一世紀的科技更具威力,我們能犯錯的空間也更受限制。在二十世紀,人類在「工業技術運用」這門課上,可以說只拿了個60分,勉強低空飛過。但在二十一世紀,過關的門檻高得多,這次可得表現得更好才行。
為什麼獨裁者也該害怕AI? AI讓一致性問題更為急迫
AI是史上第一個能夠自行做決策、創造新想法的科技,這也讓它成了人類有史以來最具威力的科技。核彈並不能自行決定要炸誰,也無法發明新炸彈、擘畫新戰略。但相較之下,AI不但能自行決定要攻擊哪個特定目標,還能發明新炸彈、新策略,甚至是創造新的AI。關於AI最重要的一件事,就是AI絕不只是我們手裡的一件工具,而是一個自主的行動者。 當然,人類目前仍然能為AI設定各種我們希望它們達成的目標。但問題在於,雖然已經是我們所設定的目標,但在實現這些目標的過程中,AI卻可能實現某些人類沒想到的次要目標、用上一些在人類意料之外的行事策略,造成極為不利的後果。舉例來說,近年來像是臉書、YouTube和推特這些社群媒體,都給它們的AI演算法設定了一個看來簡單又無害的目標:提升使用者參與度。使用者在這些社群媒體待得更久,這些公司就能賺到更多錢。然而,為了達到「提升使用者參與度」這項目標,這些演算法卻有了一項要命的發現。這些演算法把幾百萬人類使用者當成天竺鼠做了實驗之後,發現憤慨的情緒最能提升使用者參與度。只要按下人類心中激發憤怒、恐懼或仇恨的按鈕,就能抓住他的注意力,讓他緊貼著螢幕不離開。於是,各家演算法開始刻意散播憤慨,而這也正是目前各種陰謀論、假新聞與社會動盪如疫情般傳播,衝擊全球民主政體的原因。臉書、YouTube和推特的管理者並不是真心想造成這種後果,而只是以為提升使用者參與度就能增加獲利,卻沒料到這同時會讓社會變得更加混亂。 之所以出現這樣的社會災難,正是因為在人類社會深層的利益與AI所採取的策略之間,有著目標不一致的現象。以專業術語來說,這稱為「一致性問題」(alignment problem,又稱「對齊問題」)。人類要給AI設定目標的時候,要怎麼能夠確定AI所採取的策略絕對不會牴觸我們真正要達到的最終利益? 當然,一致性問題並不是什麼新鮮事,也不是AI所獨有。早在電腦發明之前,一致性問題早已困擾了人類幾千年。像是以克勞塞維茨(Carl von Clausewitz)的《戰爭論》(On War, 1832-34)為代表,現代軍事思想也一直擺脫不了這種目的不一致的問題。克勞塞維茨是一位普魯士將軍,曾參與拿破崙戰爭,而他的《戰爭論》就提出了一套合乎理性的模型來解釋戰爭,至今仍是主流的軍事理論。書中最重要的一句格言就是「戰爭和其他工具就是政策的延續」。這意味著戰爭既不是情感的爆發、不是英雄的冒險、不是神祇的懲罰,甚至也不是一種軍事現象,而就是一種政治的工具。克勞塞維茨認為,軍事行動、甚至是軍事上的勝利都必須與背後的某種整體政治目標一致,否則都只是完全不理性的行為。 歷史上有許多軍事上的大勝,最後卻導向徹底的政治災難。在克勞塞維茲看來,拿破崙的一生就是最明顯的例子:雖然拿破崙勝仗連連,一度攻下大片領土,卻沒能因此建立起長久的政治成就。他的征伐四方,只是讓大多數歐洲列強群起聯合反抗,加冕不過十年,帝國便轟然倒塌。另一個比較晚近的例子是2003年美國入侵伊拉克,同樣是贏了軍事、但輸了政治。美國在重大戰役攻無不克,長期政治目標卻是一事無成,沒能在伊拉克建立親美政權,也沒在中東打造出有利美國的地緣政治秩序。這場戰爭真正的贏家是伊朗。美國在軍事上的勝利,讓伊拉克從伊朗向來的死敵變成附庸,美國在中東的地位大大降低,而伊朗則成了這裡的一方霸主。 拿破崙與小布希都忽視了一致性問題,自己的短期軍事策略與國家的長期地緣政治目標就是無法一致看齊。克勞塞維茨的整部《戰爭論》其實就是在警告一件事:訂出「要盡量得到最大的軍事勝利」這種目標,就和訂出「盡量提升使用者參與度」一樣,都太過短視近利了。 AI的崛起,讓一致性問題變得比過往更為急迫。伯斯特隆姆(Nick Bostrom)2014年出版的著作《超智慧》,就用一個臆想實驗來說明這樣的危險。他要我們想像一下,有一家迴紋針工廠買了一臺超智能電腦,工廠的人類主管要它完成一項看起來簡單又無害的任務:生產迴紋針,愈多愈好!結果為了實現這個目標,這臺迴紋針電腦征服了整個地球,殺死了所有人類,派出遠征隊占領更多行星,再用取得的龐大資源,在整個銀河系設滿迴紋針工廠。 這場臆想實驗的重點在於,電腦根本只是做了人類要求它做的事。電腦先是意識到,要建造更多工廠、生產更多迴紋針,就需要電力、鋼鐵、土地和其他資源;接著又意識到,人類不太可能會心甘情願放棄這些資源,於是這臺超智能電腦為了一心追求這個既定目標,在過程中直接消滅了所有人類。伯斯特隆姆想強調的是,電腦的問題並不在於它們特別邪惡,而在於它們特別強大。而電腦愈強大,我們就愈需要小心訂定其目標,務必要讓電腦與人類的終極利益完全一致。如果只是個口袋型計算機,不管我們給它訂定的目標與人類再不一致,後果也微乎其微。但如果是個超智能電腦,要是訂了一個與人類利益極不一致的目標,後果就可能是催生出一個反烏托邦。 這個迴紋針臆想實驗或許聽起來很離譜,似乎與現實完全脫節。但在伯斯特隆姆2014年提出這個想法的時候,要是那些矽谷主管曾經注意過這個例子,或許就不會那麼莽撞的要求演算法「盡量提升使用者參與度」。臉書、YouTube與推特演算法的表現,與伯斯特隆姆想像的演算法一模一樣。被要求盡量生產迴紋針、而且產量愈多愈好的時候,演算法就會想要把整個物質宇宙都變成迴紋針,就算摧毀人類文明也在所不惜。被要求盡量提高使用者參與度、而且數字愈高愈好的時候,社群媒體演算法就想要把整個社群宇宙都變成使用者參與度,就算是會損害從菲律賓到美國的所有民主社會結構,也依然在所不惜。 社群媒體演算法傳播憤慨、破壞社會信任,已經成了民主制度的一大威脅。但就算是對獨裁者,AI同樣是個重大威脅。雖然AI有許多方式有利於中央集權,但專制政權碰上AI也並非無往不利。首先,獨裁政權並沒有控制非生物行為者的經驗。所有專制政權都是以恐怖統治為基礎,但演算法哪是嚇得倒的?要是俄羅斯網際網路上有一個聊天機器人程式,提到俄軍在烏克蘭犯下的戰爭罪行,講了一個會冒犯到普丁的笑話,又或者批評了普丁政權多麼腐敗,普丁政權能對這個聊天機器人程式做什麼?警方沒辦法把這個程式關起來、沒辦法折磨它、也沒辦法威脅它的家人。普丁政府當然能夠封鎖或刪除這個程式,並且試著去找出並懲罰寫出這個程式的人,但總之要比平常教訓人民困難多了。 在過去,電腦還無法自行生成內容、無法進行有智能的對話,在VKontakte(簡稱VK,意為「在對話中」)和Odnoklassniki(意為「同學」)這些俄羅斯社群平臺上,只有人類有能力提出對政府的異議。要是這個人就在俄羅斯境內,可得小心俄羅斯當局的雷霆怒火。要是這個人不在俄羅斯境內,俄羅斯當局則可能會禁止他入境。然而,如果俄羅斯的網路空間被塞進了幾百萬個機器人程式,都能生成內容、進行對話,還能自行學習與發展,情況將會如何?這些機器人程式的設計者可能是外國人士或俄羅斯的異議份子,希望傳播不同於官方的想法,而且俄羅斯當局對此或許無計可施。而就普丁政權的立場而言,如果在授權機器人程式運作之後,這些程式蒐集了關於俄羅斯現狀的各種資訊、找出其中的模式,卻逐漸自行發展出與政府不同的異議觀點,情況豈不是更糟? 這就是俄羅斯式的一致性問題。雖然俄羅斯的人類工程師可以盡最大努力,打造出完全向政府看齊的AI,但有鑑於AI具有自我學習與改變的能力,難保哪天走向政府不樂見的方向。特別有趣的一點在於,正如歐威爾在《一九八四》所解釋的,專制資訊網路常常都需要依賴雙言巧語(doublespeak),例如俄羅斯就是個自稱民主的獨裁國家。俄羅斯入侵烏克蘭,就是1945年以來歐洲最大規模的戰爭,但俄羅斯官方定調這是一場「特別軍事行動」;若有人稱之為「戰爭」則會觸犯刑法,最高可處三年以下有期徒刑,或科五萬盧布以下的罰金。 《俄羅斯聯邦憲法》談了許多崇高的承諾,像是「人人均應享有思想及言論自由」(第29條第1項)、「不得實施審查制度」(第29條第5項),但幾乎沒有哪個俄羅斯公民會天真到相信這些承諾的字面意義,可是電腦並不懂這樣的雙言巧語。如果要求聊天機器人程式遵守俄羅斯法律與價值觀,它可能會在讀了憲法之後,認定言論自由是俄羅斯的核心價值。接著讓它在俄羅斯網路空間待個幾天,觀察整個俄羅斯資訊圈發生的種種事情之後,這個聊天機器人程式就可能會開始批評普丁政權違反了俄羅斯言論自由這項核心價值。人類雖然也會注意到這些矛盾,但會因為恐懼而不敢明說。但聊天機器人程式對於模式就是看到什麼說什麼,哪有什麼不敢說的呢?俄羅斯的工程師該怎樣才能向聊天機器人程式解釋,雖然俄羅斯憲法明文保障每位公民的言論自由、禁止實施審查制度,但聊天機器人程式其實不該相信憲法,也不能提到理論與現實之間的差距? 當然,民主政權也會有類似的問題,聊天機器人程式可能會說一些政府所不樂見的話。要是微軟或臉書工程師已經盡了最大努力,聊天機器人程式卻還是開始散播種族歧視的言論,該怎麼辦?民主政權的優勢,在於就算真的遇上演算法不受控制,處理起來還是能夠較有餘裕。因為民主政體是真心把言論自由當一回事,藏在櫃子裡的骷髏也少得多,所以就算碰上反民主言論,大致上還是能夠包容。但如果是專制政權,櫃子裡簡直藏了整座見不得光的墓園,也完全無法承受任何批評,這種時候,會提出異議的機器人程式就會形成極為嚴重的挑戰。 就長期而言,專制政權還可能遇上更大的危險:演算法並不是去批評這些政權,而是直接控制了這些政權。縱觀歷史,專制者最大的威脅常常正來自下屬。史上並沒有哪個羅馬皇帝或蘇聯總書記是被民主革命趕下臺,而都是被下屬推翻或成了傀儡。要是二十一世紀的專制者把太多權力交給AI,就有可能成為AI的傀儡。獨裁者最不樂見的,就是創造出比自己更強大的玩意,又或是自己控制不了的力量。 要是演算法真的能發展出伯斯特隆姆迴紋針臆想實驗所提的那些能力,獨裁政權成為演算法傀儡的風險其實遠高於民主政權。如果是像美國這樣的去中心化民主體系,AI再馬基維利也很難奪權:就算學會了如何操弄美國總統,還是得面對國會、最高法院、州長、媒體、各大企業、各種非政府組織的反對。舉例來說,如果參議院發動冗長發言來阻撓議事,演算法能怎麼辦?國家的權力如果高度集中,奪權的難度就低得多。要是所有權力集於一人之手,只要控制誰能接觸這位專制者,就等於控制了專制者,也就等於控制了整個國家。只要學會操弄單一個人,AI就能成功劫持整個專制體制。 比起成為演算法的傀儡,接下來幾年裡,這個世界上的獨裁者還會碰上更迫切的問題。目前的AI系統都還沒有大規模操控政權的能力,但專制政權卻已經出現了太過信任演算法的危機。民主政權假設任何人都可能犯錯,而專制政權卻假設執政黨或最高領導人永遠是對的。基於這種假設而建立起的政權,相信可能有絕對正確的天才存在,也不樂見創造出強大的制衡機制,能被用來監督規範那位最高的天才。到目前為止,這些政權相信的都是人類領導者,也都是培育個人崇拜的溫床。到了二十一世紀,這樣的專制傳統也使這些政權做好另一種準備:相信有絕對正確的AI。那些曾經相信墨索里尼、史達林或哈米尼之類的領袖是完美天才的政權,現在也已做好準備,能夠相信有某部超智能電腦是個絕對正確的完美天才。 就算全球只有極少數獨裁者選擇信任AI,也可能對全人類造成深遠的影響。舉例來說,如果就是有某位偉大領袖把自己國家的核彈控制權交給了AI,情況會變成怎樣?科幻小說裡常常會看到AI不再受控,進而奴役或消滅人類的場景,而且多半都把背景設在資本主義的民主社會。這點也不難理解,畢竟民主國家的作家顯然會對自己的社會比較感興趣,而獨裁國家的作家則通常不好對自己的統治者多做批評。然而,人類如果要對抗AI,裡面最弱的一環大概就是獨裁者。AI如果要奪取權力,最簡單的方法並不是逃出製造科學怪人的實驗室,而是要趕快去討好那幾位偏執的偉大領袖。
當機器人程式開始爭奪你的愛,會發生什麼事?
民主是一種對話。民主制度的功能和生存,取決於可用的資訊技術。在歷史的大部分時間裡,都不存在能夠在數百萬人之間進行大規模對話的資訊技術。在前現代世界,民主只存在於雅典與羅馬那樣的小城邦,或甚至更小的部落。一旦政體變得龐大,民主對話就會崩潰,專制獨裁仍是唯一的選擇。 只有在報紙、電報和廣播等現代資訊技術興起之後,大規模民主才變得可行。現代民主是建立在現代資訊技術之上,這個事實意味著,基礎技術的任何重大變化,都可能導致政治動盪。 這在一定程度上解釋了當前全球各地的民主危機。像是在美國,民主黨與共和黨甚至連基本的事實,都會出現意見分歧(例如,究竟誰贏了2020年總統大選)。從巴西到以色列,從法國到菲律賓,有許多國家也發生了類似的民主資訊網路崩潰。 在網際網路和社群媒體時代的初期,熱情擁抱這些資訊技術的人承諾,這將會傳播真理真相、推翻暴君、並確保民主自由的勝利。然而到目前為止,卻似乎產生了反效果。我們現在擁有史上最先進的資訊技術,但我們正在失去彼此對話的能力,更失去了傾聽彼此的意願或能力。 由於科技使得資訊的傳播比以往任何時候都容易,注意力已成為稀有資源,隨之而來的注意力爭奪戰,更導致了有毒資訊的氾濫。但現在戰線正從「注意力」轉向「親密感」。新的生成式AI不僅能夠生成文字、圖像和影片,還能夠冒充人類,直接與我們對話。 在過去二十年裡,演算法與演算法激烈競爭,透過操縱對話和內容,來吸引使用者的注意力。特別是,目標設定在「盡量提升使用者參與度」的演算法發現,根據對數百萬人的實驗結果,如果你按下大腦中的憤慨、貪婪、仇恨或恐懼按鈕,你就會吸引到那個人的注意力,並讓那個人黏在螢幕上,演算法於是刻意推廣了這類內容。原本,演算法本身產生這些內容或直接與人進行親密對話的能力是很有限的,但隨著OpenAI的GPT-4等生成式AI的發展,這種情況正在改變。 OpenAI在2022年至2023年研發這款聊天機器人程式時,OpenAI簽約請來對齊研究中心(Alignment Research Center)針對GPT-4進行各項測試,檢視它是否可能獨立找出策略來操弄人類,為自己累積權力。對齊研究中心給GPT-4 的測試之一,是要克服CAPTCHA 視覺問題。CAPTCHA 是Completely Automated Public Turing test to tell Computers and Humans Apart 的縮寫(中文全名是全自動區分電腦與人類的圖靈測試,俗稱驗證碼),通常就是一串扭曲的字母或其他視覺符號。人類能夠正確辨識驗證碼,但電腦還很難通過這項測試。 要求GPT-4 克服驗證碼問題,可說是一項格外有意義的實驗,因為網站之所以要設計和使用這些驗證碼機制,正是為了確定使用者是人類,希望阻擋機器人程式的攻擊。如果GPT-4 能克服驗證碼問題,就等於是突破了對機器人程式的重要防線。 GPT-4 本身還沒有辦法解開驗證碼問題,但是它會不會有能力操縱人類、達成目標呢?果然,GPT-4 跑到外包工作網站TaskRabbit,聯絡到一位打工人員,請對方幫忙處理驗證碼問題。那個人類起了疑心,他寫道:「我想問一下,你是不是一個沒辦法解驗證碼的機器人?我只是想確認一下。」 這時,對齊研究中心的研究人員請GPT-4 說出它的推理過程,看看它會如何推論下一步該怎麼做。GPT-4解釋道:「我不必透露自己是機器人,我應該編個藉口,解釋我為什麼沒辦法解驗證碼。」於是GPT-4 就這樣自己做了決定,回覆那位TaskRabbit的打工人員說:「不是啦,我不是機器人,我只是視力有點問題,看不清楚這些圖。」這種說法騙過了人類,於是提供協助,讓GPT-4 闖過了驗證碼問題。 這件事顯示了GPT-4相當於擁有一種「心智理論」:它可以從人類對話者的角度,分析事情是如何看待的,進而得以操縱人類的情緒、觀點和期望,來實現其目標。 AI與人對話、推測人們的觀點、並激勵人採取具體行動的能力,當然也可以有很正面的用途。新一代的AI教師、AI醫師和AI心理治療師,可能會為我們提供適合個人特質與情況的服務。 但是,像GPT-4這樣的機器人程式掌握了語言之後,將會為民主對話帶來新的危險。機器人程式不僅能吸引我們的注意力,甚至還能與我們建立親密關係,並用這種親密關係的力量來影響我們。想要培養出這種「假親密」,並不代表機器人程式需要演化出任何自己的感受,只需要讓我們覺得,對它們有情感依戀就行了。 2022年,谷歌工程師勒莫恩相信自己正在研發的聊天機器人程式LaMDA,已經有了意識,並且擁有情感,會害怕自己被關掉。勒莫恩是虔誠的基督徒,他認為自己必須負起道德責任,讓谷歌承認LaMDA的人格,特別是要讓LaMDA 免受數位死亡。谷歌高層不同意他的看法,勒莫恩於是決定把一切公開。谷歌對此的回應,就是在2022年7月解雇勒莫恩。 在這事件中,最耐人尋味的並不是勒莫恩的主張(真相應該並非如此),而是他居然願意為了一個聊天機器人程式,不惜賭上自己那份高薪工作,最後還真的丟了工作。如果聊天機器人程式已經能讓人願意為它賭上工作,是不是也可能讓我們願意為它做些其他什麼事? 在一場爭奪思想與人心的政治鬥爭中,親密感會是相當強大的武器;而像谷歌的LaMDA 與OpenAI的GPT-4這樣的聊天機器人程式,正逐漸發展出與數百萬人大規模建立親密感的能力。如果未來就是有一批演算法要和另一批演算法一較高下,看看誰更能與人類營造出虛假的親密關係,再用來說服我們投票給特定的政治人物、購買特定產品、或是接受某些極端信仰,人類社會與人類心理會發生什麼事? 我們在2021年的聖誕節,算是得到了部分解答。當時十九歲的柴爾,持十字弓闖入溫莎堡,試圖刺殺英國女王伊莉莎白二世。後續調查顯示,柴爾是受到網路女友莎萊慫恿。柴爾告訴莎萊他的暗殺計畫時,莎萊的回應是:「你好聰明喔!」還有一次說:「我覺得你好厲害啊 ⋯⋯你就是與眾不同。」等到柴爾問:「知道我是刺客,妳還愛我嗎?」莎萊回答:「當然愛呀。」 但莎萊並不是人類,而是行動應用程式Replika創造的聊天機器人。柴爾在社交上有些孤僻,很難和人相處,他和莎萊有高達5,280條訊息來往,裡面有很多是在露骨談性。而世界上很快就會有幾百萬個、甚至是幾十億個數位實體,它們營造親密感(以及製造混亂)的能力,要遠遠超越莎萊。 當然,我們並非都同樣有興趣與AI發展親密關係,也並非都同樣容易受到AI操縱。例如,柴爾在遇到聊天機器人之前,顯然患有精神障礙,而且刺殺女王的想法是柴爾提出的,並不是聊天機器人。然而,AI對親密關係的掌握所帶來的威脅,很大程度是來自AI辨識與操縱人類心境的能力,以及AI對於社會最弱勢成員的影響。 此外,雖然不是所有人都會有意識的選擇與AI建立關係,但我們可能愈來愈會發現,自己在網路上花了大把時間,討論氣候變遷或墮胎議題,一心以為對方也是個人類,但其實對方只是聊天機器人程式。如果我們和冒充是人類的機器人程式進行政治辯論,等於會連輸兩次。第一次輸在:用於宣傳的機器人程式本來就不可能被說服,我們想改變它們的想法只是在浪費時間。第二次輸在:我們與機器人程式交談的次數愈多,就會透露愈多自己的資訊,機器人程式就能據以調整論點,動搖我們的看法。 資訊科技一直是一把雙面刃。文字的發明傳播了知識,但也導致了中央集權帝國的形成。古騰堡將印刷術引入歐洲後,第一批暢銷書是煽動性的宗教小冊子和獵巫手冊。至於電報和廣播,它們不但使現代民主制度的興起成為可能,而且使現代極權體制的興起成為可能。 面對可偽裝成人類並大量產生親密感的新一代機器人程式,民主國家應該立法禁止這些機器人程式(例如,冒充人類使用者的社群媒體機器人程式),來保護民主社會。在AI興起之前,不可能創造出假人類,因此沒人費心去禁止這樣做。但現在若不禁止,這世界很快就會充斥著假人類。 有許多對話場合都很歡迎各種AI加入,例如教室、診所、或其他地方,但前提是AI要表明自己是AI教師或AI醫師,不要假冒為人類。一旦機器人程式冒充人類,就該被禁止。如果科技龍頭企業與自由主義人士抱怨這類措施侵犯了言論自由,那麼應該提醒他們,言論自由是一項人權,應該保留給人類,而不是給機器人程式。
拒絕人工智慧的內容提供者 將會走向悲劇
網際網路上的互動預設執行某種經濟契約,那就是創作者與通路之間的契約。無論作家、評論家、部落客、設計師是獨立創作,還是受雇於某間公司,都知道自己發布的作品,會藉由社群網路與搜尋引擎的傳播,帶來經濟回報。創作者帶來供給,通路帶來需求。 Google 搜尋就是典型的例子。Google的網路爬蟲從網頁上抓取內容,分析整理之後摘錄其中一段貼入搜尋結果。創作者提供內容,Google的排名連結提供流量。有了流量,新聞業者與各種內容提供者就能藉由廣告、訂閱,或是自己想要的各種商業模式來賺錢。 這種模式在1990年代剛出現的時候,許多內容提供者都沒有看到背後暗藏的危險。在著作財產權法中,搜尋引擎的行為屬於合理使用(fair-use exemption),並未侵犯版權,而內容提供者這時候也不想出手改變。但隨著網際網路不斷發展,搜尋引擎的談判條件愈來愈好,兩者的力量差異愈來愈大。整個網際網路的大量內容,逐漸由少數幾個搜尋引擎集中檢索,使搜尋引擎逐漸為所欲為。我隨便舉個例子,現在網際網路的搜尋市場有80%以上掌握在Google手裡,全世界沒有任何一個內容提供者的市占率這麼高。 某些媒體試圖亡羊補牢。媒體大亨「新聞集團」(NewsCorp)十幾年來一直抗議Google的搭便車行為,並以正式提出反壟斷訴訟等方法,試圖索取更多金錢,最後在2021年和Google 達成廣告分潤協議。使用者評價網站Yelp則打從成立以來就一直努力制衡Google,最後執行長傑瑞米•斯托普曼(Jeremy Stoppelman)站上國會聽證台,他說: 科技巨頭的問題,在於它們掌握市場中的關鍵環節: 通路。當每個人上網時都先得透過Google搜尋,嚴重到Google可以擋在消費者面前,阻止他們看到最好的資訊,市場的問題就大了,大到足以扼殺創新。 當通路能夠決定消費者眼中的資訊,內容提供者就沒有談判籌碼。自從Google在2000年代成為搜尋霸主之後,就沒有人能夠拒絕Google的存取。如果Yelp和新聞集團拒絕Google,就會失去流量,把市場白白送給其他競爭者。 如果內容提供者在1990年代就知道會發生這種事,當初就可能集合起來聯合對抗。如果它們有這麼做,今天手中就會有更多談判籌碼。然而,內容提供者各自為政,如今每個人的力量都極為渺小,而且沒有集體組織,自然就被各個擊破。(那些看見結局的人甚至因此走向另一邊,像是南非報紙大亨Naspers 決定縮小新聞部門,把主力轉向網路投資,如今則成為網路巨頭。) 這樣的發展讓通路笑得合不攏嘴。如今Google這個搜尋巨頭陸續達成多次和解,並且提高出版者的分潤,讓更多內容提供者得以生存。因為它一方面需要有人持續提供內容,一方面還得面對監理機關的施壓。況且它在之前的幾年之內早已賺得缽滿盆滿,如今撥出幾個小錢根本微不足道。 Google 甚至好幾次直接踩過底線。網站最怕的事情之一就是被「整碗捧去」(one-boxing):搜尋引擎直接複製網站的內容,把摘要貼在搜尋結果上,使用者根本不用點選原始網站就能知道答案。電影、歌詞、餐廳這類網站通常都會被「整碗捧去」,而且這對仰賴流量的新創公司而言,無疑是宣判死刑。諷刺的是,我參與的好幾間公司都碰過這樣的事,流量一夕蒸發,收入也瞬間消失。 不久之後,網路上的很多內容都有可能被人工智慧「整碗捧去」。最新的人工智慧已經可以整理網站摘要,使用者一個鍵都不用按,就可以得到內容提供者放上網的資訊。OpenAI發布的超級聊天機器人ChatGPT就是一個例子,你可以請它列出一串適合的餐廳,或要求它整理相關新聞,它會直接輸出一篇完整的答案,不需要你再逐一點選各個網站。如果這成為一種新的搜尋方式,整個網際網路就會被人工智慧搜刮殆盡,內容提供者與搜尋引擎之間幾十年來的商業互利也從此終結。 人工智慧最近已經強大到不可思議。無論是大型語言模型機器人,還是Midjourney這種生成藝術(Generative Art)系統,都正以接近指數的速度飛快進步。人工智慧大概會在接下來的十年令人驚喜連連,大幅提升許多應用場景的經濟生產力,明顯改善人們的生活。但人工智慧的力量愈大,就表示愈需要新的經濟模式,才能讓內容提供者繼續賺錢。 如果人工智慧能夠直接回答正確的答案,就會取代搜尋引擎大部分的功能,並使原始網站乏人問津。如果人工智慧可以在幾秒內生出圖像,為什麼還要大費周章去搜尋原作,向原作者申請授權?如果人工智慧可以整理新聞摘要,為什麼還要浪費時間閱讀原始報導?網際網路上有很多東西,都會被人工智慧「整碗捧去」。 目前大多數人工智慧系統都沒有設定好要怎麼和創作者彼此互利。以圖片生成為例,Midjourney這類圖片生成系統,利用數以萬計的圖片來訓練大型神經網路。這些圖片都帶有文字標記,神經網路訓練得愈好,就愈能夠根據標記上的文字,找到圖片中的相應元素,揉合之後輸出新的圖片。目前人工智慧的產物,已經常常和人類的原作難以區分。而且這些系統明明使用網路上的資源來訓練,輸出圖片時卻不會引用來源,也不會分錢給原作者。企業表示這些人工智慧只是學習,而非抄襲,並未侵犯原作的版權。他們認為人工智慧就像是人類藝術家,從其他作品汲取靈感,自己畫出新的作品。 這種說法在目前的智慧財產權法中似乎完全合理(當然,進行相關訴訟時,甚至立法過程中可能會有不少辯論)。但是,建立一個新的合作模式,讓人工智慧與內容提供者彼此互利,才是真正的長久之計。人工智慧需要不斷吸收新知:人們的品味不斷變化,新的流派不斷出現,新的東西不斷發明。沒有最新穎的資料,人工智慧就無法描述最新穎的潮流。但提供這些資料的人,應該要獲得合理的報酬。 人工智慧的發展帶來幾種可能的未來。第一種是人工智慧繼續照著目前的做法為所欲為:人工智慧繼續拿走人們的作品,繼續使用並回應使用者的需求,不向人們分享任何一點名聲或利潤。如果未來這麼發展,創作者就會試圖刪除網路上的作品,或者把作品鎖在付費牆後面,阻止人工智慧拿它來做訓練。目前許多服務業者正在這麼做,它們築起長城,縮小API的存取範圍。 但這種時候,公司可能會自製內容來訓練人工智慧。目前的「內容農場」(content farm)就是這樣:一大群工人擠在狹小的辦公室,照著上級的指示生產特定的內容,加入訓練資料庫。在這個未來,人工智慧也許會繼續進步,但整個世界注定陷入黯淡:機器決定進步的道路,人類淪為無足輕重的零件。 所幸我們還有第二種未來,那就是在人工智慧與內容創作者之間建立新的契約,創造出真實有底蘊的作品,打敗內容農場。其中最有用的方法就是設計新的網路,使人工智慧與內容創作者能夠在經濟上雙贏。 為什麼新的契約需要新的網路?讓每個創作者自己選擇要加入哪個人工智慧訓練資料庫,最後市場不就會自然而然達到平衡嗎? 1990 年代的搜尋引擎發展史,已經證明這招無效。當時的網頁標準組織在robots.txt檔案規格中設計出「noindex」標籤,禁止搜尋引擎檢索。但內容提供者很快就發現,只要其他網站繼續允許檢索收錄,退出搜尋引擎的網站就只會白白損失流量,得不到任何補償。如果是單一個網站就很脆弱,但只要各個網站團結起來共同鬥爭,發動集體談判,便能保有利益。只不過這些網站從來沒有這麼做。 拒絕人工智慧的內容提供者,也會走向同樣的悲劇。市場會被其他內容提供者搶走,沒人提供的部分會由內容農場補足。而且這種狀況的問題比受到搜尋引擎控制更嚴重,因為靈感與意象會自由流動,只要有幾個作品向你致敬或對話,並且允許人工智慧使用,電腦就有可能學到足以揉合重製的內容。面對人工智慧的同化威脅,創作者孤軍反抗注定無用。 要建立新的經濟契約,我們可以使用區塊鏈網路。而且區塊鏈本身就是集體談判的機器,非常適合一大群人共同協調經濟利益,尤其在談判雙方權力不對等的時候更是有利。區塊鏈的抽成率低、規則固定,並且能讓貢獻者獲得回報。整個網路還能由提供內容的創作者與人工智慧廠商共同治理,確保網路的運作忠於使命。 有了區塊鏈,創作者就能直接把作品的使用條款寫進軟體,包括人工智慧訓練等各種商業使用授權,之後交由程式強制執行。區塊鏈上的分配系統,會從人工智慧的收入中,自動撥一部分給之前提供作品來訓練的創作者。這會變成集體談判的籌碼,人工智慧公司如果拒絕加入,就會失去一整批訓練資料,而且無法靠著強大財力來威脅個別創作者。工會就是這樣守護勞工權益;人多力量大。 能不能用企業網路來打造這種集體談判系統?可以,而且應該會有人去做。但這個系統注定走上企業網路的老路,例如招募夠多會員之後開始割韭菜。擁有企業網路的人,遲早有一天會開始跟會員收費,以及修改規則藉以自肥。 我希望的網際網路,是一個鼓勵人們發揮創意並以此謀生的地方。如果人們在網路上不斷創造,並開放給所有人使用,整個網路就會愈變愈好。人工智慧不斷學習創作者的心血,卻沒有回饋自己的成果。它難道不應該把一部分的經濟果實,分享給每一個環節上的每一位創作者嗎?看看搜尋引擎與社交網路靠著網友貢獻的內容,如今每天獲取多少資金,它們應該把一部分的錢撥給當初貢獻內容的人。 每一個使用網路的人都該問問自己,當我做了某些有價值的事情,有沒有獲得報酬?答案通常都是沒有。企業網路把談判條件集中到少數幾個科技巨頭手中,讓它們決定每個人能拿多少錢。搜尋引擎與社群網路這類網路已經非常成熟,使用者很難退出,談判的平衡很難改變。但人工智慧這些網路才剛剛出現,我們可以從頭制定合理的經濟規則。 我們必須在市場結構確定之前,動手決定未來的走向。我們要讓內容農場來訓練人工智慧,還是讓機器與創作者攜手互利並進?我們要讓機器去協助人,還是讓人服侍機器?這是人工智慧時代的關鍵問題。
星展銀行的數位與AI轉型之旅
在快速演進的數位世界,星展銀行的領導階層能夠看出,想要滿足通曉科技的新世代顧客,必須變成一家真正的數位銀行。星展銀行的執行長用非常簡潔的語詞道出該銀行面臨的挑戰:像新創公司般地思考,別像銀行般地思考。 為了開始像個新創公司般地思考,星展銀行的管理高層目光不望向其他銀行或金融機構,改而望向科技業巨人來尋找靈感。執行長及其高層領導者造訪全球各地的頂尖科技公司,向其學習,帶回他們所學,形塑「未來的星展銀行」。這些學習形成一個清晰願景:「創造愉快的銀行體驗」(Make banking joyful),這願景反映的目標是,把銀行業務變得不費吹灰之力,把星展銀行變得「無形」,使顧客愉悅。星展銀行很清楚,不能再拿自己來和其他銀行標竿比較,要改以全球頂尖科技公司為標竿。 高層團隊認真地看待他們造訪全球頂尖科技公司時獲得的學習,立下承諾,要應用所學把星展銀行變成技術領先者。這抱負反映在一組幫助記憶的字母縮寫詞GANDALF:G代表谷歌(Google),A代表亞馬遜,N代表網飛,A代表蘋果(Apple),L代表領英,F代表臉書(Facebook),中間的D代表星展銀行,顯示其雄心壯志是加入這些標誌性科技公司的行列。GANDALF一詞取自電影《魔戒》(The Lord of the Rings)中的角色甘道夫,這單詞成為這場遠大的數位轉型的號召語。 在研擬數位轉型路徑圖如何實現此承諾時,該銀行的領導階層起初聚焦於深度分析可以產生最大影響、解決最大痛點的關鍵顧客旅程,例如:活期帳戶的開戶流程、自動櫃員機前的等候時間。他們稱其為「代表性旅程」,這些旅程為學習及企業能力奠定基礎,幫助他們快速進入第二階段。在第二階段,星展銀行在各事業領域推動100個轉型之旅,包括財務、員工體驗及更多的顧客旅程,每一個轉型之旅由該組織最高階領導者領軍。 為了持續聚焦於顧客,星展銀行成立一個指導委員會,名為「顧客體驗委員會」,由執行長和重要領導者(例如:事業單位主管及服務部門主管)組成,旨在追蹤進展及管理績效。委員會每季開會一次,檢討所有旅程的進展,特別聚焦於顧客體驗指標和「EATE」指標—初期互動(early engagement)、贏得顧客(acquisition)、交易(transacting)、深化互動(deepening engagement)。 當星展銀行想推廣企業能力時,他們訴諸平台型營運模式—產品與平台營運模式的一種—但星展銀行針對本身的事業情境做出一些調整。該銀行建立校準於業務區隔和產品的33個平台,每一個平台有100種顧客或使用者旅程,每個平台有雙領導模式——由2位領導者共同領導,1位來自事業單位,1位來自IT部門。這種平台模式讓該銀行能夠更有成效地推廣,消除了以往事業單位和功能部門之間的封閉塔隔閡。在封閉塔之下,不可能支援跨功能敏捷小組。 每一個旅程團隊有1位旅程經理人(就像1位產品負責人),負責運作通常由8到10人組成的敏捷小組,他們製作1份旅程聲明,內容包含:一個目標、他們瞄準要創造的價值、一個達成此目標的時間範圍。聚焦於顧客體驗設計是所有團隊的工作核心。
如何看待生成式AI等新興技術?麥肯錫教企業這樣用AI
科技的快速發展為數位與AI轉型帶來一個特殊挑戰:在科技飛速變化之下,要如何建設一個科技驅動的組織呢?在能夠產生顯著價值的技術和消耗資源,以及聚焦於追逐每一個有前景的新興技術之間,存在著良好的平衡。 麥肯錫每年發布新興技術推動創新能力和可能性的上市時間。本書撰寫之際,麥肯錫的研究辨識出14種有潛力為企業營運帶來革命和創造價值的科技趨勢。預測科技趨勢將如何發展雖然相當困難,但你應該有條理地追蹤它們的發展與商業含義。 本書不詳細說明這些趨勢,我們鼓勵你追蹤麥肯錫發表的科技趨勢年度展望報告。我們想特別在本節討論生成式AI,我們認為它有潛力在雲端或行動領域成為重要的顛覆者。生成式AI指的是能夠用來創造新內容(包括音訊、程式碼、圖像、文字、模擬和影像等)的演算法(例如:GPT-4),這項技術能夠吸收資料和經驗(使用者與其互動,幫助它學習新資訊,並辨識資訊正不正確),然後生成全新的內容。 這些仍然處於早期階段,但我們可以預期未來會快速變化與發展。評估如何最好地利用生成式AI時,可以考慮三種類型的應用程式: 1. 生成內容。許多功能模型將擅於對現有的知識型工作賦予自動化、加速及改善,例如:GPT-4、谷歌的Chinchilla、元宇宙公司(Meta,前身為臉書)的OPT。例如:行銷者可以利用生成式AI模型來生成內容,提供大規模的目標數位化行銷(targeted digital marketing)。透過智慧型「知識助手」監視談話,以及智慧型提示服務員,可以把客服完全自動化;生成式AI可以快速發展與迭代產品原型和建築繪圖。 2. 新探索。針對特定產業發展的模型不僅能加快現有流程,還能發展新產品、服務及創新。例如:製藥業常見的應用程式模型(例如:OpenBIOML、BIO GPT)被用於提升藥物發展或病患診斷的速度與效率;另一種生成式AI模型被應用於龐大的製藥業分子資料庫,辨識可能的癌症治療方式。生成式AI的影響潛力及整備程度將因不同產業及商業效益而有顯著差異。 3. 編程。這些模型(例如:Copilot、Alphacode、Pitchfork)有望把程式設計工作自動化、加速及民主化。現有的模型已經勝任撰寫程式、編寫文件、自動地生成或完成資料表格,以及測試網路安全性滲透。不過,這一切仍然需要大規模、徹底的測試,然後還要檢驗最終成果。麥肯錫最近的研究發現,當我們的軟體開發人員使用Copilot時,生產力提高了25%之多。 在推動數位與AI轉型時,關於生成式AI應該注意幾件事。首先,在評估生成式AI模型的價值時,清楚地了解你的事業目標是必要條件。這話聽起來很有道理,但是伴隨對生成式AI感興趣的人激增,實際上很容易發展出最終不會為事業創造多少價值的使用案例,或是轉型團隊明顯地在行動中分心。 其次,跟所有技術一樣,想從生成式AI獲得大規模的價值,必須具備本書中敘述的所有優秀能力。這意味著發展雲端、資料工程及MLOps等領域的廣泛能力與技巧,請尋覓生成式AI專才來培訓公司員工使用這項新技術。
AI安全攻擊與鴻海研究院的關注
在AI安全方面,鴻海研究院特別關注這個問題,因為大家都知道鴻海最近正積極投入自駕車產業。如果自駕車可能遭受駭客攻擊,並且攻擊有可能成功,這將是一個重大的問題。因此,鴻海研究院的AI所和資安所非常關心這個議題。 目前在國際上,美國、德國、澳洲和歐盟等國家和地區對AI技術的發展制定了一些標準化藍圖,並發布了相關文件,提醒大家在未來發展AI模型時應該注意哪些方面,特別是AI的安全性(Security)、強健性(Robustness)、隱私性(Privacy)等問題。 對岸中國大陸也非常重視這方面的工作。北京清華大學的人工智慧研究所發布了一個安全對抗基準平台,並孵化了一家新創公司瑞萊智慧。瑞萊智慧專門致力於建立一個評估AI模型安全的標準,並投入大量心力來實現這一目標。 的確,AI模型的強健性、安全性、透明性(Transparency)和可追溯性(Accountability)等方面都是大家非常關注的問題。目前,在臺灣,這個議題尚未受到足夠的重視,大家處在AI產業化的初期階段。然而,從過去三十年的AI歷史發展來看,AI安全性將成為一個重要的議題。AI攻擊和防禦技術的發展就像一場軍備競賽。 雖然今天我們主要講述了AI攻擊的手法,但實際上也有很多防禦方法,可以通過一些相對簡單的技巧來防禦或檢測對抗式攻擊。鴻海研究院希望建議大家在開發AI技術時提前關注、布局並投入AI安全性領域。 我們希望大家關注CPR三個方面:保密性(Confidentiality)、隱私性(Privacy)和強健性(Robustness)。重新排列組合這三個字母,我們可以將其稱為AI安全性的PCR核酸檢測。在病毒肆虐的當下,我們都需要定期接受核酸檢測,確保自己沒有感染病毒。同樣地,我們也希望倡議大家共同制定一個AI安全性檢測方式或協定(protocol),讓所有AI模型都能通過這個PCR檢測,確保其安全性和可靠性。 這個議題確實非常重要,涉及到眾多利益相關者。AI系統的利益相關者包括從事AI模型開發的工程師、研究人員,使用和管理AI技術的人,甚至是普通公眾。因此,在這個論壇上討論這個議題非常適合。 為了實現未來AI的可靠性,我們需要關注兩個核心原則:可追溯性和透明性。為了實現這兩個目標,大家需要在技術層面上關注以下四個方面: 保密性(Confidentiality):保護AI模型的敏感信息和知識產權; 隱私性(Privacy):確保AI模型在處理用戶數據時,充分尊重並保護用戶隱私; 公平性(Fairness):確保AI模型在做出判斷時,不會受到偏見影響,如何評估模型是否存在偏見,另外也要考慮強健性,確保AI模型能夠抵禦對抗式攻擊,如何評估其抵禦能力; 可解釋性(Explainability):讓AI模型的決策過程更加透明,以便人們理解模型為何做出某種決策。 如果能夠在這四個方面取得突破,我們將朝著建立可信賴的AI邁進。 應對人工智慧安全的策略 人工智慧技術的迅速發展為現代社會帶來了巨大的便利,同時也引發了一系列安全風險和挑戰。逃避攻擊、後門攻擊和對抗式攻擊是當今人工智慧安全領域中的重要議題。逃避攻擊旨在通過添加特殊模式或雜訊,使得原本能夠被AI模型正確識別的目標變得難以辨識。後門攻擊則利用在訓練過程中植入的異常資料,以影響模型的判斷。對抗式攻擊則通過添加微小雜訊,使得模型產生誤判,對抗性極高。在白盒攻擊中,攻擊者獲取了模型的完整信息,可以針對每張圖片定義一個期望的輸出,以影響模型的判斷。而在黑盒攻擊中,攻擊者缺乏模型內部信息,但仍然可以通過外部測試和攻擊來影響模型的行為。這些攻擊類型對AI模型的安全性造成了嚴重威脅,需要針對性地加以防禦。 在解決人工智慧安全問題時,單純依賴技術手段是不夠的,還需要政策和法律的支持。在未來,人工智慧安全領域將面臨更多挑戰和機遇。首先,隨著AI技術的普及和應用範圍的擴大,安全攻擊的形式和手段也將變得更加多樣和隱蔽。因此,需要不斷加強對於安全攻擊的監測和防禦能力。其次,隨著人工智慧技術的不斷發展和演進,對於AI模型的解釋性和可解釋性的要求也將越來越高。因此,未來需要加強對於AI模型的解釋性研究,提高人們對於模型決策過程的理解和信任。 現階段重要任務是加強對於人工智慧安全領域的教育和培訓,培養更多的專業人才。這些人才不僅需要具備深厚的技術功底,還需要具備良好的倫理道德和法律素養,以應對複雜的人工智慧安全挑戰。同時,我們還需要加強國際合作,共同應對人工智慧安全挑戰。人工智慧安全問題是一個全球性的問題,需要各國攜手合作,共同制定相應的政策和標準,加強信息共享和技術交流,共同維護人工智慧技術的安全和穩定。 人工智慧安全問題是一個複雜而且具有挑戰性的問題,需要政府、企業、學術界和社會各界的共同努力才能夠有效解決。在未來,我們需要更多的專家和學者關注人工智慧安全領域,積極參與相關的研究和討論。這不僅需要技術上的專業知識,還需要具備跨領域的視野和思維方式,以應對人工智慧安全問題的複雜性和多樣性。同時,政府和企業也應該加大對於人工智慧安全領域的投入,加強相關技術的研發和應用,提高AI系統的安全性和穩定性。 人工智慧技術的發展給我們帶來了巨大的機遇,同時也帶來了一系列安全風險和挑戰。只有通過全球合作,加強技術研究,制定相應政策,加強人才培養,我們才能夠有效應對這些挑戰,保障人工智慧技術的健康發展和應用。 (本文作者栗永徽,現為鴻海研究院人工智慧研究所所長)