少年報導者 The Reporter for Kids
前往專題
Podcast

法律白話文運動的AI關鍵字:生成式AI會取代人類創意嗎?深偽技術下如何分辨假訊息?各國如何為AI制訂新規範?








我目前在法律白話文運動的工作,主要是希望能把困難的法律、人權,甚至是轉型正義、民主政治相關的知識,轉化成一般人比較好理解、甚至覺得有趣、可以進一步思考的內容跟數位溝通的方式。
同時,我也關注新科技下,特殊的新興法律問題。因此,這次由我跟大家分享關於AI的關鍵字,一起思考人工智慧這項新科技,到底對於我們的生活可能會有什麼樣的影響?對於人類的經濟會帶來什麼樣的衝擊?以及在新型態的犯罪問題中,AI是怎麼樣被不當使用的?

#深度學習(Deep Learning)

2016年,英國AI科技公司Google DeepMind開發出一個人工智慧的圍棋棋手軟體程式「AlphaGo」,它擊敗了當時世界上頂尖的圍棋高手李世乭,成為第一個不需要讓子,也能夠擊敗職業九段圍棋棋手的人工智慧。大家認為這場世紀對決,其實是畫下了一個人工智慧的里程碑,後來也有被拍成紀錄片《AlphaGo世紀對決》,有興趣的大家也可以去找來看看。
AlphaGo是將人類歷史上數萬次的棋局融入它的機器學習過程中,並且在對弈開始的時候模仿、學習對手的棋路,背後其實也就是「深度學習」(Deep Learning)的能力。
當我們提到AI的時候,通常是非常多技術的統稱,指的就是機器能夠模擬人類用智慧思考,並執行任務。所以,我們剛剛提到的機器學習,也就是AI其中的一個領域。這個領域專注在演算法的開發,希望能夠讓人工智慧系統從眾多收集而來的數據裡面學習,並自己改進,不需要再給予它明確的指令,就能夠辨別種種行為模式,更進一步做出預測。
深度學習跟機器學習的差異在於能夠使用人工類神經網路,而不是其他的統計模型,加以模仿人類大腦的結構與運作。而人工類神經網路能夠處理的資料跟分層愈多,就像蓋房子一樣,慢慢累積,蓋了好多層,讓我們提到這個關鍵字裡面的「深度」能夠被體現出來。

#生成式AI

機器學習、深度學習這些人工智慧學習的方式,在AI人工智慧發展領域裡面已經有存在一陣子了,包含對著手機裡面的Siri說話,問它天氣等簡單的指令,或是YouTube自動推薦給你的影片、Line聊天機器人、自動駕駛的公車和汽車,還有醫學上一些疾病辨識的診斷等,都是AI人工智慧的應用。
這些領域還是相對存在於比較專業的專門領域當中,或是大家可能已經在使用這個功能了,但不知道它跟人工智慧有關。直到2022年有一項重大的發布,改變了大家對於人工智慧的認知,也就是由美國人工智慧研究實驗室OpenAI推出的人工智慧聊天機器人程式「ChatGPT」
在ChatGPT出現之後,可以說是AI大眾普及的一個重要關鍵。它的特色就是跟它對話,真的很像在跟人對話一樣,不管你問它什麼樣的問題,它都能透過你指定的語言回答。舉凡翻譯、算術,甚至寫程式,你都可以在跟它對話的過程中,請它幫你完成。
雖然ChatGPT的答案現在還沒辦法保證完全正確,但其實它被認為大概都有6到8成的完成度。這就是因為ChatGPT背後有一個很龐大的資料庫,蒐集了天氣、程式、翻譯,甚至是數學等等資料,加上透過深度學習的過程,慢慢生成了完整的對話程式。所以,這也是為什麼ChatGPT出現之後,我們把它稱為「生成式」的人工智慧,也就是大家常聽到的生成式AI。
但隨著生成式AI技術發展,也開始有人擔憂它對於人的影響會不會過大?例如現在當任何一個人透過對話框給予生成式AI指令,就能夠產出翻譯的成果、圖片,那麼原本是靠翻譯維生的工作者,或是原本是靠畫圖維生的繪師,會不會就此失業呢?
又或者生成式AI技術背後有龐大的資料庫,所以今天你給予它要生成一張圖片的指示,它其實是從資料庫裡面把成千上萬的圖片加以組合,或是用你給予的指示生成類似的圖片,這樣會不會有所謂抄襲或是著作權的問題呢?這些爭議與討論也在這個技術愈來愈成熟的時候,開始受到大家的關注。
另外大家也在討論,當這樣的技術愈來愈成熟,大家愈來愈常使用它,等於是會提供愈來愈多的資料進到它的資料庫,讓它模仿人類生產內容的行為,或是工作的行為,這些也都會愈來愈真實,會不會在未來,大家可能沒辦法區分跟自己在對話的到底是像ChatGPT這樣的程式,還是真人呢?當人機界線模糊之後,會不會造成其他道德或是生活上的困擾?這也是專業研究者現在正在擔憂的部分。
所以我們目前在使用生成式AI時,大家也可以思考一個問題:當我們透過ChatGPT或其他生成式AI取得的成果,不管是一張圖片、一篇文章,甚至是一首音樂,它的權利到底應該屬於誰?是屬於開發出ChatGPT的實驗室?還是它是屬於給予這個對話框指示、讓它去生成指定或是類似作品的人?這類關於作品權利的歸屬也會讓傳統法律概念遇到一些衝擊。
過去我們在討論著作權,也就是一個創作者創造出一個作品享有的權利,直觀思考下,誰創造出這個作品、誰實際下去畫,或是把一首歌唱出來,這個人他就會享有創作的著作權。但當你是透過跟ChatGPT這樣的機器互動產生成果,到底該由誰去享有後續的權利?例如能夠授權取得經濟利益的權利等。
此外,如果在給予指示的過程中,這個機器在未經他人同意的情況下,使用了他人的資料與圖片來幫助你產生成果,會不會有侵權的疑慮 ?而且如果真的有侵權的問題發生,是開發工程師要負責?還是是給予指示的這個人要負責?這些都會是當法律上遇到生成式AI之後可能會面臨的挑戰。
這些問題在各國的法律裡面目前都還沒有定論。有的人認為我們應該要鼓勵這個技術更進一步的發展,所以希望把對於生成式AI的法規訂定得較為寬鬆,讓大家可以盡情利用各式各樣不同的資料訓練各自的生成式AI機器人。像是日本政府就是採取這樣子比較開放的模式,即便這個資料庫真的被發現可能利用沒有取得授權的資料來訓練生成式AI模型,可能也不會因此被司法起訴,或是面臨賠償責任。
但反過來說,也有滿多國家採取比較保守的模式。因為他們很擔心特別是勞動權益,包含人類的工作會不會因為有了這些程式以後,公司就大量裁員,像是中國就發生滿多遊戲裡面的美術設計師跟繪師被大量裁員的事件。
近期還有一件事是大家覺得更大的爭議,那就是從2022~2023年一直有在進行跟討論的「美國好萊塢大罷工事件」,美國編劇工會(Writers Guild of America, WGA)用罷工跟製片公司、電影公司進一步爭取勞動權益。他們指出,確實會因為有了生成式AI,大家產出腳本的時間大幅縮短,或是很多公司想要節省人力成本,先使用生成式AI產生初稿,再要求這些編劇、工作人員等修改。在這個過程中,編劇們認為會嚴重影響他們的工作價值,甚至是影響他們工作的時數,以及能取得的報酬。
所以協議到最後,編劇工會其實還是回到比較偏向勞動權益保護的這一方,也就是他們對於影視產業裡面AI的使用設下了滿多限制,例如不能使用AI生成核心的關鍵內容,或是使用AI的內容部分,必須要揭露使用什麼樣的AI、讓AI做什麼樣的事情。
開放或保守的兩種不同模式,帶來的影響也不同。當我們面臨一項對人類生活一定會產生很大影響的科技發展時,我們應該要採取什麼樣的模式,才能讓這個工具是幫助到社會人民呢?我覺得這會是現階段大家可以進一步思考的問題。

#深偽技術(Deepfake)

2023年4月,加拿大歌手Drake和The Weeknd突然共同發行了一首新歌,在Tiktok跟YouTube上廣受大家好評,可是後來大家才發現,他們根本沒有一起出這首新歌;在差不多的時期,社群平台上也開始一直在流傳教宗方濟各(Pope Francis)穿著時尚名牌羽絨外套的影像,後來也被大家發現這個其實是假的,這兩個案例都是有人用AI的繪圖工具完成的。
以上這些狀況就是深偽技術(Deepfake)。為什麼叫做「深偽」?是因為它的原文Deepfake是Deep Learning(深度學習)加上Fake(偽造)這兩個字的組合。它主要是在指像剛剛提到的教宗或是Drake的情況下,有人應用人工智慧的深度學習技術,合成某一個可能真實存在的人、或是不一定存在的人的圖像、聲音等,做出某人本身其實在真實世界裡面並沒有做的事情。
在台灣的報導裡面可能比較常聽見的說法是「換臉」,把一個名人的臉放在另外一個身體上面,或是把另外一個名人的臉換到這個名人的臉上面,讓這個名人的臉跟這個被放上臉的指定人物在影片中做出他們自己其實沒有做過或是說過的事情。
在今年(2024)1月的時候,美國流行音樂天后泰勒斯(Taylor Swift)也成為深偽技術最新、最大咖的受害者。因為有網友透過深偽技術,把泰勒斯的臉換到一些不雅的照片裡面,這些不雅的照片已經有超過千萬次的點閱次數,且在10幾個小時之後,才被社群平台刪除,PO出這些照片的帳號也才被停權。
因此,種種案例出現之後,許多專家都擔心,AI也可能被不當使用,造成很嚴重的犯罪問題,特別是深偽技術的特性就是「真假難辨」,它很可能會導致一般的民眾,或是像泰勒斯這樣的名人成為新型犯罪行為的受害者。
過去台灣的YouTuber小玉也是利用深偽技術,把很多名人的臉製作成他們根本沒有做或沒有拍攝的色情影片,還販售這些影片來謀取暴力,因此也在這兩年被偵訊、偵辦,被判處有罪。
所以大家可以思考看看,這樣不當運用他人的臉,或是不當運用深偽技術,它對於大家的生活影響是什麼?或是回到犯罪的領域,大家也可以想想看,如果今天你接到的詐欺電話裡,傳出你熟悉的家人的聲音,或是熟悉的同事的聲音,會不會導致大家更容易被詐騙電話,或甚至是詐騙視訊欺騙,進而付出金錢款項?這些都會是未來在運用生成式AI以及深偽技術時,可能對社會造成的隱憂。
接下來,我也來回答同學們對於AI好奇的問題:

Q1:我沒有使用AI的經驗,但是我對AI很好奇也有點擔心。我想知道AI繼續發展下去,會取代人的創意,以及人和人之間的情感交流嗎?

提問者:台北市志清國小游品謙 這是大家看到特別是ChatGPT這樣的生成式AI技術出現以後,都會有點擔心、焦慮的一個大問題。其實我們的政府也有發現到這件事,或是世界各國的政府都正在思考,既然技術已經發展到這個程度了,它對於我們的創意、人跟人之間的關係會造成什麼樣的影響?有沒有一些風險需要透過政府、法律規範?讓大家最在乎的智慧發展,或是情感表現不會被掩蓋過去。
以台灣來說,已經進入《人工智慧基本法》草案討論,基本法對一個國家來說,其實就是想要告訴國民,以及告訴世界,我們這個國家怎麼看待這個新的技術。
《人工智慧基本法》可以回應小朋友問的這個問題,當人類的創意萬一已經有可能被生成式AI取代的時候,我們這個國家要設定何種界線去規範生成式AI的使用?以及要怎麼樣保障人類自己創意的產出不會因為AI的出現,而無法享有自己應該獲得的權利以及利益?甚至是當人跟人之間的關係、情感受到科技影響或限制的時候,我們國家該有什麼樣的規則來協助社會大眾適應這件事情?這些都是這部法律裡面其中一個想要處理的部分。
所以我覺得AI繼續發展下去,如果我們能夠給予它適當的限制或發展方向的話,其實是可以不用擔心人在短期內會被AI取代。

Q2:有些人會使用AI模仿專家的聲音、長相,以此傳播一些假的訊息,我們要如何分辨影片的真實性?

提問者:新北市北大高中國中部徐翊喆
要怎麼辨識真偽呢?其實很多一樣是AI的科學家、AI的工程師開發出不同的AI機器人模式,想要來協助大家透過他們開發出來的AI,辨識其他AI做出來的假影片、假音檔等等。但是,大家可以想像,你如果是一般生活中,你接到一通AI深偽技術做成的電話,或是看到一個AI深偽技術做成的影片,你很難隨手運用另外一個AI程式去查它到底是不是真的,或是要怎麼確定這個AI程式真的能辨認出影片真假。
所以其實當討論到這個問題,應該是大家要培養多元的資訊來源管道,例如今天在Facebook上面看到一個影片,一個重要的世界大人物發表了某一個言論,但是你想知道這個人到底有沒有真的講過這句話,其實你可以透過網路的其他資源,查查各家媒體的新聞報導,或是查其他關注這個議題的評論家有沒有發布這樣類似的消息等。
透過這樣多元的資訊來源管道培養,其實就可以訓練自己的思辨能力,你就會漸漸地養成一套你自己的方法論,當你接觸到一個你不確定真假的資訊來源時,你會有其他多重來源驗證,確認他是不是真的有講過這句話,或是這個影片是不是真的拍攝出來的。

Q3:如果AI進步到有自主行為能力時,有沒有可能會違背我們的倫理道德,做出毀滅人類社會的行為?

提問者:新北市北大高中國中部林宇鴻 我覺得在討論這個問題的時候,其實要先點出一個很重要的前提,當我們在討論AI對人的影響時,所謂人工智慧指的到底是什麼樣程度的人工智慧?是它已經可以完全不用像現在透過一個對話框、電腦給它指示,它就能像人一樣自己做決定、自己跟你聊天,甚至是有人的情感跟表情嗎?就像是大家以為只會發生在電影中的人工智慧;還是我們指的是現在的技術已經可以達到的生成式AI呢?
如果我們討論的是生成式人工智慧,或是甚至更進階、更便利的這些機器人程式的話,我覺得倒還不用太擔心會產生所謂的自主行為能力,甚至是進而傷害人類或毀滅人類。因為大家都可以發現,目前我們在使用跟討論這些技術的時候,大部分都還要有人的參與,透過我們幫它的資料庫更新資料。
但是如果它進展到剛剛提到它真的已經有所謂的自主意識,變得跟人更像的時候,我覺得到那時,或許它對於人類就有更多不可控的因素,人類有時候就是會互相傷害、互相攻擊。
不過,又回到剛剛提到的政府,以及很多民間單位、個人也都擔心這件事情發生,所以透過包含各國《人工智慧基本法》的制定、各國不同規範的限制,都已經開始跟這些積極開發人工智慧技術的公司、實驗室對話,希望他們在開發技術的過程中,能把人類社會的道德風險,或是那些到某一個程度人類就無法掌控的技術慢慢限縮,至少限定在一個可控的範圍內,在一邊發展的過程中,一邊思考我們是不是真的需要這樣的技術幫助人類?
所以這個部分,我覺得大家可以慢慢地觀察看看,未來有什麼樣的新人工智慧技術發展,以及各國的政府及民間社會的聲音,大家會覺得該如何加以規範,這可能就會是我們能夠阻止人類被人工智慧毀滅的一個重要關鍵。

Q4:如果以後所有事情都給AI做,人類就會變得一無是處。我們該如何證明自己的價值和應對呢?

提問者:新北市北大高中國中部王思云、劉冠霆
這是一個好問題,我自己也會有一點擔心。例如現在我們常拍的短影片、寫訪綱的工作,萬一都可以被人工智慧取代的話,我會不會就會失業?但其實我覺得大家不需要這麼灰心,或是不需要這麼焦慮。至少在目前這個技術發展的狀況之下,大家都還是有機會透過跟政府發表我們對於這個技術的看法,甚至是科學家們開發這個技術自律規範,慢慢設計出真的對人類社會有幫助的技術,而不是無止境地讓人工智慧在沒有任何限制的情況下,一直開發下去。
而且我覺得大家應該對人類多一點點信心,因為我覺得人類的創意,或是人跟人之間的相處激發出的靈感,或是交往間的應對進退,這些比較細微的、很難具體描述的一些互動方式等,以及整體的人類社會運作,其實還是很難在短期、或者是在各位有生之年內,被一個人工智慧機器人完全取代。
所以,在當代,我覺得我們反而更應該進一步思考,當我們有了這些便利的新技術之後,人類比較難被取代的核心價值到底是什麼?以及我們可以怎麼運用它?我們是不是就不要去做這些生成式AI已經可以做到的事情?或是反而培養使用這些生成式AI協助完成作業的能力?又或是說專注發展那些生成式AI無法企及的工作,這可能就會是未來就業市場比較有潛力的一塊。
像是滿多大學科系已經慢慢想要因應這樣的發展,花更多時間再去投入現在我們認為AI難以達成的事情,例如目前普遍認為AI比較難快速發展人文情懷相關的領域,這些不是那麼科技或程式面的學門,在未來或許就有它獨特、難以被取代,且有機會發揮的面向。

訂閱《誰來讀新聞》

感謝你的收聽!邀請你透過Apple Podcast、Spotify或其他收聽平台免費訂閱少年報導者的Podcast《誰來讀新聞》,及早接收更新通知,最新一集上線就會通知你唷!
黃色報導仔

誰幫我們完成這篇文章

編輯部
編輯部
文字
《少年報導者》是由非營利媒體《報導者》針對兒少打造的深度新聞報導品牌,與兒童和少年一起理解世界,參與未來。

你的參與,可以讓報導點亮世界

一篇豐富、精彩和專業的報導,要經過記者、攝影、設計師、編輯,還有許多專家才能完成,完成後還要靠著社群編輯、行銷企劃,才能送到你的眼前。我們所有的努力,都希望能幫助你更了解這個世界,更希望你對這個世界發出提問。讓每一篇報導點亮世界,訂閱我們、歡迎投稿。

嗨~我是「報導仔」,陪你讀新聞的好朋友!讓我為你介紹《少年報導者》閱讀探索功能吧!