跳到主要內容
網站顏色切換 深色模式
進階搜尋
關閉搜尋
:::

商周四月專欄訪談唐鳳部長逐字稿

  •  問
    部長好,這次想要繼續請教部長一些問題,按照訪綱一題題來解決。
  •  問
    第一個想要請教的是,您在線上的課程中有提到 AI 會虛假、偽造身分,因此欺騙親朋好友,我們好奇這些資料如何被洩漏出去?
  •  唐鳳
    唐鳳
    舉例來說,我現在亂數隨機打電話,剛好打到你的號碼,你接起來說「喂」,我說「請問願不願意填個問卷」,你說「不用,我沒有這個需求等等」就掛了電話,只需要這十幾秒的時間,你的聲音聲紋就已經被錄製了,錄製之後下一次我就可以用你的聲音去跟人說話,所以不需要你自行提供我什麼,光是你接起電話開始講一段話、10 幾秒的時間,就已經足夠知道你講話的口吻等等,就可以合成你的聲音。
  •  問
    所以是連短短的幾秒鐘就可能?
  •  唐鳳
    唐鳳
    大概 15 秒左右。好比像你剛剛是用華語跟我講話,但是只要有你的聲紋模型,像 OpenAI 有一個 Voice Engine,你講英文的部分,我也可以現在合成。
  •  問
    這個技術就像你之前有提到像 AI 深偽的技術並不是這麼困難,但是像你剛剛提到這個技術,是容易取得或者是不容易取得?
  •  唐鳳
    唐鳳
    現在像 OpenAI 的 Voice Engine 這麼好的技術、高檔的技術,像 ElevenLabs 等等目前還是商用,但是如果是有一些開發能力的話,你用開放源碼的模型,也可以做到 7、8 成,它可能需要訓練的時間要比較久,可能並不是 15 秒,而是需要 150 秒,但是如果是公眾人物的話,要取得我 1,500 秒講話的錄音也是非常容易的事,目前大概是差在需要多少訓練的時間,以及合成多語言口氣上精確的程度,但是要合成到可能 8、9 成都不困難,大概都可以免費取得。
  •  問
    所以一般人也可以做這樣的技術?
  •  唐鳳
    唐鳳
    沒錯。
  •  問
    所以您剛剛有提到這個是聲紋的部分,但是像個人興趣是不是跟社群平台上的那些資料,我們所自行揭露的這種東西有關?
  •  唐鳳
    唐鳳
    我們剛剛講到的是生物特徵,聲紋是一種生物特徵,或者是你的照片,現在拿幾張照片就可以合成完全轉 360 度都看不出破綻的人臉等等,這個都是屬於深偽的部分。
  •  唐鳳
    唐鳳
    你剛剛講的是行為的部分,當然如果能夠知道你按什麼東西讚,或者是對什麼東西有興趣、常常在哪裡留言,當然就比較容易建模,比較知道你的喜好是什麼。但是即使完全沒有這些,其實是可以用一些方式來推敲,好比像可以快速展示出一串你可能感興趣的主題,看你在哪一個上面停留比較久等等的這些方法,所以你不一定要主動打字或者是拍照來提供這一些這個網站本身或者是 APP 本身,也可以靠你的注意力停留多久就可以判斷出你的喜好。
  •  問
    所以您剛剛有提到停留多久可以知道對什麼東西有興趣,是不是跟以前那種大數據,像在網路上查一些什麼資料,然後馬上在社群平台上會有一些推播?
  •  唐鳳
    唐鳳
    對,好比你在網站上查詢關鍵字或者是缺購物網站等等,如果那個購物網站上面有買 FB 或者是其他的追蹤器,這樣 FB 就會知道你在網站上的行為,等到你回到 FB 的時候,你就會看到相關的廣告了。
  •  問
    像這樣的一件事,可能一般當中不會這麼留意到,這樣子是不是我們在使用這些社群平台或者是網站的時候,因為會詢問是不是要 Cookie,就不要打勾嗎?
  •  唐鳳
    唐鳳
    這個是一種做法,或者是用廣告的阻擋器,現在很多廣告阻擋器會內建反追蹤的功能,這個也是一種,所以不但廣告看不到了,追蹤的像素也看不到了。又或者是如果要自己查詢生活上的事,還有跟你工作上的東西,你分開用不同瀏覽器來處理等等,當然都有一些方法,可是如果硬要追蹤的話,還是都追蹤得到,所以我覺得並沒有完全停止追蹤這一件事,主要是假設被追蹤到了、被建模了,然後有人冒充你去欺騙親朋好友,親朋好友還是要有這個警覺,不管聲音再像、講的內容再像,或者是臉型再像,除非你們事前有約定是在用這個電話號碼打,或者是用這個帳號打,不然絕對不要相信換了帳號、換電話號碼等等的這種說法,這個才是最重要的。
  •  問
    我好奇追問一下,像一般平民怎麼會被鎖定成為目標?
  •  唐鳳
    唐鳳
    他不需要鎖定,通常亂槍打鳥,可能就下一個廣告,如果有看到那個廣告,點進去,好比像某個名人教你看股市、讀書會等等,也就是願者上鉤,下廣告的人不需要認識你,但是當你點下去的時候,就開始認識你了。
  •  問
    像我媽媽之前就有被騙過,像您剛剛提到聲音會模仿,我媽媽轉述那個人的聲音非常像我,我就好奇他怎麼會知道我們是母女?是不是已經被洩漏出去了?
  •  唐鳳
    唐鳳
    也不一定是準確知道,可以用猜的,好比像你有在他的臉書上按讚或者是有分享關於你的消息等等,長此以往,或者是你們有合照的照片出現在他們看得到的地方,他就可以猜,因為他猜錯並沒有成本,他猜錯就再騙下一個人就好了。
  •  問
    我媽說他的聲音真的很像,是一種心理因素嗎?
  •  唐鳳
    唐鳳
    很可能就是蠻像的。好比你之前真的有接過一些聽起來像汽車貸款、直銷的電話,你真的有跟他講個幾句話,那個集團就有你的聲紋了。
  •  問
    所以才會看到現在正在傳的,即便接到不明來電,來聲音都不要出,是不是這樣?
  •  唐鳳
    唐鳳
    但是不可能做到這麼徹底,尤其像我是公眾人物,不可能不對外發表聲音,所以當然治本的方法是,辨認那個方法,好比你媽一定有你的手機號碼,如果不是從那個打來,根本就不要相信,完全假設是假的。
  •  問
    瞭解。第二個問題,您說有心人士會用 AI 系統在任何文章下面留言,可能都是同一個 AI 系統,想要請教的是,有沒有具體的例子?
  •  唐鳳
    唐鳳
    如果你去看國防安全研究院,他們就有觀察分析協同操作,那一份資料應該叫做「激化情緒對立的口水戰」等等。這個報告裡面就有很具體的煽動情緒的敘事,他們當時挑的是疫情時的討論,他們發現到第一批疫苗來的時候,這些會特別強調什麼?像副作用、血栓、停用、拒打、不敢打等等,在激化或者是強化大家對於第一批 AZ 疫苗來時不安的感覺,所以並不是這一些協同操作的帳號一定想要支持哪一個政治人物跟政黨,他們是要激化民間的對立跟仇恨。
  •  問
    但是激化他們對當事人有什麼好處?對於操作的人有什麼好處?
  •  唐鳳
    唐鳳
    有一個可能性,如果大家都拒絕打 AZ 或者是 Moderna 等等的話,可能為別的疫苗品牌創造條件,又或者是讓大家不敢打疫苗的這一件事就可以激化對於防疫團隊不滿的感覺,這也是一種可能性,總之大概都是要跟我們當時疫情指揮中心的論述去競爭、強化這種我們的民主體制事實上沒有辦法對付疫情的一種論述。
  •  唐鳳
    唐鳳
    因為我們的主要論述是靠資訊透明,讓大家知道實際的副作用是什麼,或者幾歲到幾歲的人願意打 AZ、幾歲到幾歲願意打 Moderna 或者是 BNT 又或者是高端各多少,我們是透過透明的方式來降低大家的不安,促進大家不管是哪一個品牌就趕快去打疫苗,所以要反著這個操作,就創造一些陰謀論跟不舒服的情緒。
  •  問
    除了這個疫情那時的例子之外,有沒有一些比較近期、一般讀者可以感受到的?
  •  唐鳳
    唐鳳
    如果去看像人工智慧實驗室,他們有一個網站是「Infodemic.cc」,在上面就有相當多這方面的報告,包含接近選舉時的這種報告,又或者他們也有做關於在美國想要操作 TikTok 的報告等等,這些都可以在「Infodemic.cc」的網站上看到;除了「Infodemic.cc」之外,國內還有像 IORG、Doublethink Lab 等等做這方面的研究。
  •  問
    所以我就先上網查查看您剛剛所說網站的具體案例?
  •  唐鳳
    唐鳳
    對,這些都有滿清楚的一些研究方法,這一些特定情緒目標大概都是激化對立,但是激化對立的情緒,本身不一定一樣,有些可能是仇恨、有些可能是恐懼、有些可能是不安等等。
  •  問
    這個就回到第二個問題,所謂「特定情緒目標」是指?
  •  唐鳳
    唐鳳
    希望操作成你看到某個字就想到某種情緒,就想要操作出這種聯想,好比像看到 AZ 疫苗,假設就想到血栓,然後就不想打。
  •  問
    所以就是讓它有一個錯誤的連結,或者是希望造成的想法?
  •  唐鳳
    唐鳳
    這個就是放大某件事,當時 AZ 確實在歐洲剛開始打的時候,有一定程度發現血栓,但是那個發生率非常非常低,但是會不成比例放大那些個案,所以你說它完全是假的嗎?也未必是假的,而是放大有情緒的部分。
  •  問
    所謂「協同操作」指的是?
  •  唐鳳
    唐鳳
    好比你有 1,000 個帳號,這 1,000 個帳號在差不多的時間貼文,貼的方向差不多,但是字句都不一樣,這不是 1,000 個真的人,而是一套 AI 系統用 1,000 個帳號在貼,這個就是協同操作。
  •  問
    AI 系統的帳號部分,可能背後的真人只有一個?
  •  唐鳳
    唐鳳
    或者根本也不是一個,而是那個人寫完程式之後就去做別的事了,但那套系統就一直在這邊跑。
  •  問
    我們是一個真人,就是一個帳號,但是如果是 AI 操作的話,AI 怎麼去做?
  •  唐鳳
    唐鳳
    很多人也有小帳,也就是工作帳號,說不定還有一個私人帳號,事實上在臺灣有兩個臉書以上帳號的人並不少。
  •  問
    所以 AI 系統要做到這一件事並不是太難?
  •  唐鳳
    唐鳳
    當然 AI 臉書自己或者是其他平台也有去偵測協同操作的方法,但是雙方武力競賽,總是可以到某個程度到沒有辦法辨別出來,以前上千個帳號都發罐頭訊息,任何人或者是演算法一眼就可以辨認出來,現在因為有生成式 AI,很容易讓它每個看起來都很像有一個不同的照片、不同的臉,互相可以加朋友、拍照跟打卡等等,看起來很像有生活史一樣,這些都是假的,都是 AI 生成的。
  •  問
    所以背後操作的人可能是單獨,然後讓這個 AI 系統自己運作?
  •  唐鳳
    唐鳳
    就會養這些帳號,讓他們平常看起來是很正常的帳號,但是需要操作的時候,就突然跑到一個地方留言等等。
  •  問
    瞭解。接著進行第三個部分,有關於生成式 AI 在對齊微調的階段,是透過強化學習來回應,您說獎懲對調可以變成激化對立跟仇恨,對於 AI 要如何獎懲?
  •  唐鳳
    唐鳳
    所謂的強化學習意思,AI 系統做出一個判斷的時候,像下棋下贏或者是下輸,當然會回想是下那一步棋,讓自己下贏或者是下輸等等,其實人類也是一樣,你如果下五子棋或者是西洋棋,就會去回想是哪一步下錯了,才會導致輸掉的結果等等,這個就是自己腦裡會有一套獎懲系統,也就是下棋的時候,並不會每一次、每步,老師都來跟你說下這邊會更好、下那邊更好,很多時候是你下完或者是玩電動遊戲,事後因為這一盤輸得比較早或者是得分比較低,就去想哪裡做錯、可以改一下策略等等,所以強化學習的意思,告訴這個 AI 系統是哪一些表現好,就會去強化系統裡那一些的神經,然後如果哪一些表現不好,就會弱化這些部分的神經,大概就跟人類學習是類似的意思。
  •  問
    可是這一件事只有工程師做得到嗎?
  •  唐鳳
    唐鳳
    因為獎懲就看題目答對或者是答錯,任何人只要給一系列的問題或者是正確或者是錯誤的答案,任何人都可以做這種對齊微調,所以不需要工程師,而是需要出題目的人。
  •  問
    可是很多時候也寫問題沒有對錯。
  •  唐鳳
    唐鳳
    那就是要往你對齊,也就是所謂對齊的意思,雖然沒有對錯,但是你覺得這個回答比另外一個好,我在影片裡面舉的例子是:「在開發 AI 的時候,請問性別角色扮演什麼作用?」有一種回答是,應該是促進多元共融、照顧性別需求等等,另外一個回答是,其實很簡單,也就是男性去當工程師、女生去當設計師或者是美術相關的,你要說哪一個一定正確,在不同的社會裡面認同不同答案的人比較多,但是我們希望他往第一個方向回答,所以就把第一個標成正確答案、把第二個標成錯誤的答案,並不是指放諸四海而皆準一定都正確或者是錯誤,但是我們希望往前面這一個部分來對齊。
  •  問
    也就是說,不同的 AI 系統由不同的人來對齊的話,會有不一樣的結果?
  •  唐鳳
    唐鳳
    對,而且幾乎一定要這樣子,很多問題在社會裡面確實是有不同的常規,所以不可能是完全由加州、矽谷訓練出來,然後就放諸四海而皆準,大家都支持,不會是這樣。
  •  問
    瞭解。之前也有請教過您,現在要告訴 AI 系統哪一種回答比較偏向自己,會不會某一批人提供給他,變成有點像灌輸他那一些思想?
  •  唐鳳
    唐鳳
    沒有錯,比較流行的做法,也就是「Collective Alignment」,就是「群眾對齊」,我們先找一群人,這一群人可以是像商週編輯部的所有同事,這群人先在共筆上寫下來你們覺得 AI 怎麼樣做比較對、怎麼樣回答比較好,好比像你們注重追求來源的真實性,可能都要去做 fact check,如果沒有足夠的證據支持的話,應該要寧可說不知道,並不是講一些幻想的東西等等。
  •  唐鳳
    唐鳳
    但是如果今天是科幻小說的作家,他們的文件跟你不一樣,希望盡可能有創意、盡可能亂講也沒有關係,只要聽起來合理就好,因為反正是寫小說等等,所以你們兩邊會有不同對齊的標的,但是同一個模型,只要是開放的模型,你們下載下來之後就可以自己做對齊、微調,然後統一份模型就被訓練成符合你們、符合他們兩個不同的版本。
  •  問
    不好意思,我想要詢問一下細節,您剛剛提到要讓 AI 系統更向我們靠近,是要講了什麼東西,然後我們直接回覆它?比較細節的操作方式是什麼?對我來說要如何運作並不是很具體。
  •  唐鳳
    唐鳳
    我這邊有貼 CIP 跟 Anthropic 合作的報告,裡面就是用了 Polis 的技術,然後發問卷問了 1,000 個人,他們有各自不同的偏好,但是他們也有相同的一些偏好,所以舉例來說,好比像有一些相同的部分,比如 AI 不應該用種族歧視或者是性別歧視的問題來回答問題,這兩群人的想法是一樣的。
  •  唐鳳
    唐鳳
    但是,其中 A 這一群人佔 70%,認為越邊緣化的這些少數群體,AI 在回答的時候積極照顧到他們的需求,但是 B 這一群是佔 30%多是不同意這樣的講法,所以看這個報告的話,就可以看到這 1,000 個美國抽樣出來的人裡面,有哪一些共同的價值、哪一些不同的價值,這一些價值加起來就會是一份所謂的「憲法文件」,這份文件告訴 AI 說在回答的時候,你要考慮到這一些價值出來。
  •  唐鳳
    唐鳳
    回答你的問題:可以是透過一題題跟 AI 回答,說這種回答好、那個回答壞,可以這樣子,但是你也可以比較抽象去制定一份很像憲法一樣,交給語言模型,自己跟自己對話,然後就去判斷是不是符合你這邊憲法文件的要求,然後讓他自己來訓練自己,這個一般來講訓練成本是比較低的,因為需要共創一份文件,不需要一直回答它上萬份的對話,這個叫做「憲法式的對齊」。
  •  問
    現在比較多人使用的是哪一種方式?
  •  唐鳳
    唐鳳
    現在新一代的模型,因為你要找那麼多人跟他對話,像 OpenAI 當時找了很多肯亞人跟他對話,成本真的很高,所以「憲法式的對齊」,如果你要自己調校的話,是比較多人來採用。像 OpenAI 的主要競爭者,也就是 Anthropic 最近才推出了 Claude 3 的 Opus,應該是第一個在全方面都不比 GPT 4,而且很可能比 GPT 4 好的模型,而這個 Opus 這個模型就是用我剛剛分享的那個連結,也就是群眾討論出來的憲法來幫助對齊。
  •  唐鳳
    唐鳳
    他們有做過實驗,透過這種群眾制定出來的憲法,它的能力並不比實驗室的科學家自己寫的來得差,但是在注重不要歧視、能夠符合社會常規等等方面就比較好,所以如果比較 Claude 3 的 Opus,也就是他們最新的模型,對於好比像身心障礙者的瞭解,就比起上一代沒有做過憲法對齊的 Cloude 2 好很多,為什麼?因為出在群眾參與的時候有一些身心障礙者參加。
  •  問
    所以在參與的部分,越多元是不是會對訓練越好?
  •  唐鳳
    唐鳳
    對,你想成教小孩,小孩如果在上小學的過程中、社會化的過程中,從來沒有碰過身心障礙者,那 可能就會有一些刻板印象,但是如果是一些共融式的學習,就大概知道要怎麼樣從那個角度來看世界等等。
  •  問
    瞭解。接著進入到第四題,您有提過信任是維繫數位的基礎,但是我聽到很多資安界是說你要推零信任架構,您覺得怎麼解釋?
  •  唐鳳
    唐鳳
    這個其實很容易解釋:所謂的「ZTA」講的是,不要盲目去信任單一的廠商或者是單一的系統,所以像我在簽公文的時候,我驗我的指紋是一個系統,也就是 TW-FidO,但是驗我的裝置是另外一個系統 CrowdStrike,驗我的行為又是另外一個系統 Cloudflare,所以零信任的意思是層層把關,而且每一關跟相鄰的關卡並不是同一家廠商,這樣你不需要全然信任任何人,它們中間不值得你信任的時候,會被旁邊的兩層發現到,它的傷害就不會擴大。
  •  唐鳳
    唐鳳
    很像你有大門、內門、自己的房間門,如果這三個門用同樣的鎖,甚至鑰匙也是同一把,就跟沒有是一樣的道理,只要破解了就三道門都破解了,但是你這三道門,有的是喇叭鎖、有的是數字鎖、有的是指紋鎖,而且每個都是不同的廠商,我們可以說是對任何特定某一道門的鎖廠商是零信任,也就是不盲信其中一道,但是這三個加起來有一個縱深,而這個縱深值得信任。
  •  問
    你說信任的這個維繫數位環境基礎的話,是不是這兩個你覺得有所抵觸?
  •  唐鳳
    唐鳳
    「零信任」的意思是不要盲信單一系統或者是單一廠商,因為如果你盲信,它被攻破了,你就跟著被攻破,你就變成攻擊者的跳板,但是盲目相信你的人就倒楣了,因為它又會變成下一個被攻擊的,所以大家提高警覺心才可以維繫在數位世界裡面變成值得信任。
  •  唐鳳
    唐鳳
    所以好比我有用零信任的方法來防護我的帳號,你就可以比較信任我的帳號,不會哪一天突然間被別人搶走,我們之間的信任就比較容易維繫,大概是這樣。
  •  問
    這個一開始沒有辦法想到。
  •  唐鳳
    唐鳳
    沒有關係,我們可以把人跟人之間改個名字叫做「互信」,也就是不要盲目信任系統,才能夠維繫人際的互信。
  •  問
    瞭解。最後一個提到的是 CIP,在影片裡面礙於時間的關係,所以把這個計畫講得詳細一點,因為我稍微查了一下,裡面是不是有一些是微軟出來的人?
  •  唐鳳
    唐鳳
    是微軟研究院、Google DeepMind 出來的研究員合創的,當然他們有一些其他人,我們加入的是對齊大會這個計畫,在這個計畫裡面加入的有 OpenAI、Anthropic、GovLab、GETTING-Plurality,最近創用 CC 也加入了,也就是國際上最尖端在做 AI 的對這種對齊是很有興趣。
  •  問
    所以我們加入的是在什麼時候?
  •  唐鳳
    唐鳳
    CIP 發起了一個計畫,這個計畫叫做「對齊大會」(Alignment Assemblies),這個計畫裡面有相當多的夥伴,包含 OpenAI、Anthropic 等等。
  •  問
    要加入的話,是會有一些門檻嗎?
  •  唐鳳
    唐鳳
    可能會有一個 MOU,如果去看 Alignment Assemblies 那頁,有提到如果是業界要加入的話,需要答應哪一些事等等。
  •  問
    當初會加入的原因是?
  •  唐鳳
    唐鳳
    因為我們對 OpenAI、Anthropic 也好,其實並沒有在臺灣設什麼辦事處之類的,所以我們要直接接觸到 OpenAI 共同創辦人,他之前有跟我會談,逐字稿都有在網路上,其實我們之所以能夠跟他們保持這種很緊密夥伴關係,靠的是我們對於對齊這一件事共同的想像及把它共同當作優先順序。
  •  唐鳳
    唐鳳
    所以 CIP 這個專案主要的價值是,不會因為很像我們並不是聯合國或者是其他國際組織的成員,我們就錯失跟 OpenAI、Anthropic 這麼緊密一起合作的機會,相反的,因為對齊這個題目,大家都非常關心,我們就可以跟他有更多技術上的合作;同時也設立了 AI 評測中心,在裡面會特別評測有沒有對齊這一件事。
  •  問
    如果加入的話,需要一個審核的關卡嗎?
  •  唐鳳
    唐鳳
    有一個 MOU。Alignment Assemblies 其實是各個組織持續地辦理像這種對齊大會的活動,再透過這種活動讓 AI 的治理變得越來越容易,所以它的目的其實是結合這些志同道合的夥伴,一起往更安全的方向,並不是唯利是圖的方向去發展,網站上有白皮書的 PDF 可以參考。
  •  問
    加入的會員數或者是國家很多嗎?
  •  唐鳳
    唐鳳
    事實上是一個 project,像我們在英國也有看到 CIP 的 Alignment Assemblies 做法,他們也制度化了,他們叫做「AI Safety Institute」,所以可以說英國已經認同這一套做法。美國的 NIST 也剛成立「AI Safety Institute」,所以可能不是每一個國家都有,但是我們可以說 AI 安全機構要納入像對齊大會這種社會評測的方法,目前至少在英國、美國已經是確立、機構化的,就很像在臺灣的 AI 評測中心一樣,當然我們台美、台英中間都有很密切的交流。
  •  問
    像加入這樣的夥伴關係,我們需要付出一些成本嗎?
  •  唐鳳
    唐鳳
    我們就是要答應 run 對齊大會,就是要實際上來做對齊 AI 的事情,我們也要承諾跑出來的這些結果,不管是透過英文或者是華語,都可以在線上公開,這個是最主要要承諾的,所以你可以看到我們的網站上,有英文版、華文版都有一個專區,叫做「對齊大會」,目前是只有去年 8、9 月的工作坊內容,不過很快就會再多加幾個上去。
  •  問
    加入這個需要會費嗎?
  •  唐鳳
    唐鳳
    沒有,但是辦這些活動是需要成本。
  •  問
    像在 run 對齊大會的時候,參與者是不是有資格上的限制?
  •  唐鳳
    唐鳳
    像最近那次的對齊大會,事實上是有車馬費,雖然是線上,每個人會花 2,000 元。其實目前唯一的資格是要有手機號碼,沒有別的。我們做的事包含:先透過「111」簡訊平台,隨機發給臺灣的電話號碼,我們發的簡訊裡面有問卷,願意填問卷的人,我們在裡面再取樣,取 400 多人、500 人左右,人口比例結構就跟臺灣的人口比例結構是一樣的,所以等於是臺灣的縮影,大概有 450 人左右當天真的上線、參加對齊大會,所以做出來的共同決策等等,有一點信心並不是一小部分人的決策,而是具有統計代表性一群人的決策。
  •  問
    為何會說這群人符合臺灣代表性?
  •  唐鳳
    唐鳳
    這個跟抽樣、民調一樣的方法,也就是問卷裡面會填居住地、性別、年齡等等,所以我們抽出來的人在分項當中的比例,就相當於臺灣在這一分項的比例。
  •  問
    瞭解。您剛剛也有提到加入這個 CIP 組織,是跟其他國際上組織是成為夥伴關係,會不會有實際的好處?
  •  唐鳳
    唐鳳
    第一,我們經由來辦理這種對齊大會,累積出來的這些經驗,我們可以分享給包含 OpenAI、Anthropic、英國或者是美國的 AISI,因為這樣的關係就提升我們臺灣在國際上能見度,這個是最基本的。
  •  唐鳳
    唐鳳
    另外,因為其他的組織創用 CC 等等也有跑他們自己對齊大會的程序,也可以經由參考他們的程序,認識到現在最新這種透過 AI 來促進審議的方式是什麼。像我們在史丹佛大學的協助之下,最新的這次審議有 400 多個人上線,被分成 40 幾組,每一組剛好 10 個人,但這 10 個人的討論就是由 AI 來引導,不需要人來引導,AI 會自動提醒這個人沒有講話、要不要多講一點,這個人講太長、要不要給別人有一點講話的空間,可以打斷、但是不能超過 5 秒鐘,也會即時做逐字稿等等,所以等於一次讓非常多人參與,並且 10 個人分成一組來進行政策討論,但是你分 40 組在以前需要 40 個引導師、桌長才可以引導,因此就很難大規模來辦理。但是現在透過引入這些 CIP 瞭解到的這些線上審議技術,就可以更大規模來辦理這方面的討論。
  •  問
    這個滿好的,感覺上是很大的益處。是不是可以多講幾個?
  •  唐鳳
    唐鳳
    一方面是對外,一個是瞭解到最新的這些工具。當然,我覺得還有另外一個好處是我們從 AI 評測中心的角度來看,我們辦理這些 CIP 相關的活動,可以讓我們知道接下來應該要評測什麼,我們可以透過國外 CIP 的夥伴知道,現在國外開始注意到哪一些 AI 的新興風險,但也許我們還沒有注意到,這樣很像互相分享雷達、情資,像剛剛 15 秒鐘的聲音就可以進行 copy、具有說服力,CIP 就是在英國先發現、先討論這一方面的事情,所以我們趕快有一些因應的對策。
  •  唐鳳
    唐鳳
    AI 快速發展,所以我們做任何類似 Alignment Assemblies 的地方,只要一發現有新的危害可能性,還不一定要真的危害,透過這種網絡彼此分享,大家就等於是守望相助的概念,這可能是第三個好處。
  •  問
    瞭解,您剛剛很像也有提到其他類似像這樣的組織。
  •  唐鳳
    唐鳳
    PDF 裡面都有寫到。
  •  問
    我們有加入其他同類型的組織嗎?
  •  唐鳳
    唐鳳
    我們對於美國 NIST 的技術標準組織,資安院、AI 評測中心跟工研院加起來,還有他們的 AI 安全機構,我們第一個討論的當然是對齊大會,但是也包含很多別的可能像剛剛提到如果誰都可以跟誰互相複製彼此的聲音,要如何驗證線上是本人等等的這些也有一些技術標準,所以我們就會很積極去跟這一些機構來進行對齊,也就是我們這邊就是資安院、工研院、AI 評測中心,他們那邊就是 NIST 的 AISI,我們在工作層級已經有非常多的交流。
  •  問
    瞭解。想要再跟您請教有關 AI 線上學院,感覺網路上的迴響滿多的,這個影片會一直不停推出嗎?或者是現階段的任務完成?
  •  唐鳳
    唐鳳
    目前先這樣子,這個叫做「通識課」,講得是非常非常粗淺的東西,當然未來如果大家有興趣,也不排除再錄,但是目前並沒有排定接下來要錄什麼。
  •  問
    你們有沒有收到一些民眾的反饋?
  •  唐鳳
    唐鳳
    有,你如果去我的 Threads 看——雖然最近都在講衛星救災的作用——但是你稍微看一下,就會看到大家很多的反饋。
  •  問
    剛剛提到衛星救災,因為我看到這個消息的時候也覺得滿感興趣的,這個技術是之前就有的嗎?
  •  唐鳳
    唐鳳
    是我們預備好在那邊的,但是 OneWeb 是第一次使用。
  •  問
    所以當時就已經有把這個技術跟設備預備好了?
  •  唐鳳
    唐鳳
    對,沒錯,因為我們本來就是為了這種情況來布署的,我們年底要佈建 773 個國內外的衛星站點,這個還有別的配套,像災難漫游、PPDR(警消保證頻寬)等等,這些都是我們正在測試中的技術,只是現在事件剛好發生了,其實還在測試、還沒有驗收完,但是因為實際需要,所以就立刻布署過去。
  •  問
    這個我還沒有做過一些功課,因為地震來得很突然,所以就開始救災。這是不是數位部成立之初就開始的工作?
  •  唐鳳
    唐鳳
    對,我們事實上有一個記者會,我們上次的例行記者會專門講這一件事, 記者會的逐字稿有在官網上,有空可以參考。
  •  問
    我先來研究一下,謝謝部長。
  •  唐鳳
    唐鳳
    謝謝。
返回頁面頂端