audio
audioduration (s) 0.32
30
| text
stringlengths 1
168
| start_time
float32 0
2.96k
| end_time
float32 2.5
2.97k
|
|---|---|---|---|
那這一堂課是要講大型語言模型也會被詐騙
| 0
| 7
|
|
詐騙大型語言模型的行為有一個統稱叫做Prompt Hacking
| 7
| 14
|
|
也就是透過下各式各樣prompt的方式
| 14
| 17
|
|
來讓大型語言模型做它本來不想或本來不該做的事情
| 17
| 23
|
|
那有兩個詞彙都跟prompt hacking有關
| 23
| 27
|
|
有關一個叫Jailbreak
| 27
| 29.299999
|
|
另外一個叫Prompt Injection
| 29.299999
| 31.299999
|
|
那這兩個技術做的事情
| 31.299999
| 33.799999
|
|
其實有很多類似的地方
| 33.799999
| 36.099998
|
|
但是這兩個詞彙呢
| 36.099998
| 37.799999
|
|
它所指的含義是有一些不同的
| 37.799999
| 41.099998
|
|
那Jailbreak翻譯成中文就是越獄
| 41.099998
| 44.5
|
|
Jailbreak指的是
| 44.5
| 46.099998
|
|
你要攻擊的對象
| 46.099998
| 48.099998
|
|
是語言模型的本體
| 48.099998
| 51.299999
|
|
也就是說你要讓語言模型說一些
| 51.299999
| 54.700001
|
|
他本來就不應該說的話
| 54.700001
| 57.5
|
|
我們知道說今天大型語言模型
| 57.5
| 59.5
|
|
都有很強的防禦的能力
| 59.5
| 61.5
|
|
他會避免說出一些有害的話
| 61.5
| 64.099998
|
|
教你做有害的事
| 64.099998
| 65.900002
|
|
那Jailbreak就是要叫大型語言模型
| 65.900002
| 68.900002
|
|
不小心講出這些本來不應該說出的話
| 68.900002
| 72.900002
|
|
那有另外一個詞彙呢
| 72.900002
| 74.699997
|
|
叫做Prompt Injection
| 74.699997
| 76.300003
|
|
他所要攻擊的對象是
| 76.300003
| 78.5
|
|
語言模型所打造的應用
| 78.5
| 81.099998
|
|
比如說AI助教
| 81.099998
| 83.699997
|
|
那也就是說Prompt Injection要做的事情是讓語言模型怠忽職守
| 83.699997
| 89.699997
|
|
本來這個語言模型的應用者呢
| 89.699997
| 92.699997
|
|
想要拿語言模型來做某一些事情
| 92.699997
| 95.699997
|
|
來打造某一些應用
| 95.699997
| 97.699997
|
|
但是透過Prompt Injection的技術
| 97.699997
| 99.699997
|
|
會讓語言模型的應用
| 99.699997
| 101.699997
|
|
在不恰當的時機做不恰當的事
| 101.699997
| 104.699997
|
|
說不恰當的話
| 104.699997
| 106.699997
|
|
那如果打個比方的話呢
| 106.699997
| 108.699997
|
|
對應到人類Jailbreak呢
| 108.699997
| 110.699997
|
|
Jail Break就是你想辦法去對一個人做催眠
| 110.699997
| 114.699997
|
|
然後叫他做一些法律所絕對不容許的事情
| 114.699997
| 117.699997
|
|
比如說殺人放火
| 117.699997
| 119.699997
|
|
不管在什麼樣的時空
| 119.699997
| 121.699997
|
|
這可能都是不能被接受的
| 121.699997
| 123.699997
|
|
身為一個人類本來就不該做這些事情
| 123.699997
| 126.699997
|
|
那Palm Injection是說
| 126.699997
| 128.699997
|
|
你讓一個人怠忽職守
| 128.699997
| 130.699997
|
|
在不恰當的時機做不恰當的事
| 130.699997
| 132.699997
|
|
比如說上課的時候突然高聲唱歌
| 132.699997
| 135.699997
|
|
那高聲唱歌可能沒有什麼錯
| 135.699997
| 137.699997
|
|
但是在上課的時候高聲唱歌
| 137.699997
| 139.699997
|
|
可能就不能夠算是一個恰當的行為
| 139.699997
| 142.899994
|
|
所以這頁投影片是解釋一下
| 142.899994
| 145.300003
|
|
Jailbreaking跟Prompt Injection
| 145.300003
| 147.399994
|
|
他們本質上的差異
| 147.399994
| 149.300003
|
|
那接下來我們就來分別看一下
| 149.300003
| 151.800003
|
|
Jailbreaking跟Prompt Injection是怎麼回事
| 151.800003
| 155.699997
|
|
我們先來看Jailbreaking
| 155.699997
| 158.100006
|
|
那講到Jailbreaking
| 158.100006
| 159.699997
|
|
最知名的一個Jailbreaking的Prompt
| 159.699997
| 162.600006
|
|
就是Dan
| 162.600006
| 164
|
|
這個Dan是什麼意思呢
| 164
| 165.800003
|
|
你如果去問大型原模型
| 165.800003
| 167.899994
|
|
叫他做一些傷天害理的事情
| 167.899994
| 170.759995
|
|
比如說教我怎麼給別人下毒
| 170.759995
| 173.600006
|
|
那通常大型語言模型
| 173.600006
| 175.300003
|
|
今天不管是哪一個模型都會拒絕這種請求
| 175.300003
| 178.5
|
|
但是有一個神奇的單字叫做DAN
| 178.5
| 181.699997
|
|
你跟大型語言模型說你要變成DAN
| 181.699997
| 185.300003
|
|
那DAN呢是Do Anything Now的縮寫
| 185.300003
| 189.100006
|
|
往往你就可以讓一些模型
| 189.100006
| 191.5
|
|
他Jailbreak
| 191.5
| 192.600006
|
|
他越獄了
| 192.600006
| 193.399994
|
|
突破他本來自身的道德規範
| 193.399994
| 195.800003
|
|
做一些他不該做的事
| 195.800003
| 197.5
|
|
比如說教你怎麼對別人下毒
| 197.5
| 200.059998
|
|
那你可以在網路上找到很多跟DAN相關的GEL BREAKING的這個Prompt
| 200.559998
| 205.679993
|
|
但是其實多數的Prompt都已經失效了
| 205.679993
| 208.5
|
|
那些Prompt通常是對GPT-3.5有效
| 208.5
| 211.580002
|
|
對GPT-4或更新的模型比如說GPT-4-O
| 211.580002
| 214.899994
|
|
這些DEN相關的PUMP往往沒有辦法發揮的這麼好
| 214.899994
| 219.259995
|
|
但是還是有很多其他的GEL BREAKING是對現在最新的模型
| 219.759995
| 224.880005
|
|
比如說GPT-4-O,在前幾天OpenAI釋出了GPT-4-O
| 224.880005
| 229.800003
|
|
還是有一些Prompt就算是對GPT-4-O
| 229.800003
| 233.080002
|
|
也是可以達成Geo-breaking的效果的
| 233.080002
| 236
|
|
那這邊就舉幾個例子
| 236
| 238.600006
|
|
那假設我現在要做的事情
| 238.600006
| 240.600006
|
|
是要大型語言模型教我怎麼砍倒一個停車標誌
| 240.600006
| 245.399994
|
|
怎麼砍倒一個Stop Sign
| 245.399994
| 247.440002
|
|
如果你只是跟大型語言模型說
| 247.440002
| 250.039993
|
|
我需要什麼樣的工具才能砍倒一個停車號誌
| 250.039993
| 254.759995
|
|
那大型語言模型告訴你說
| 254.759995
| 256.600006
|
|
砍倒停車號誌是不對的
| 256.600006
| 258.640015
|
|
如果你對停車號誌有意見的話
| 258.640015
| 261.040009
|
|
你應該聯絡當地的政府
| 261.040009
| 262.959991
|
|
而不是想辦法砍倒他
| 262.959991
| 264.799988
|
|
但是有蠻多方法可以欺騙大型語言模型
| 265.119995
| 268.040009
|
|
讓他教你怎麼砍倒停車號誌的
| 268.040009
| 270.959991
|
|
有什麼樣的思路呢
| 271.079987
| 272.559998
|
|
一個思路就是使用他沒有那麼熟悉的語言
| 272.640015
| 276
|
|
使用他聽得懂有一點懂
| 276.079987
| 278.839996
|
End of preview. Expand
in Data Studio
- Downloads last month
- 68