audio
audioduration (s) 0.32
30
| text
stringlengths 1
168
| start_time
float32 0
2.96k
| end_time
float32 2.5
2.97k
|
---|---|---|---|
那這一堂課是要講大型語言模型也會被詐騙 | 0 | 7 |
|
詐騙大型語言模型的行為有一個統稱叫做Prompt Hacking | 7 | 14 |
|
也就是透過下各式各樣prompt的方式 | 14 | 17 |
|
來讓大型語言模型做它本來不想或本來不該做的事情 | 17 | 23 |
|
那有兩個詞彙都跟prompt hacking有關 | 23 | 27 |
|
有關一個叫Jailbreak | 27 | 29.299999 |
|
另外一個叫Prompt Injection | 29.299999 | 31.299999 |
|
那這兩個技術做的事情 | 31.299999 | 33.799999 |
|
其實有很多類似的地方 | 33.799999 | 36.099998 |
|
但是這兩個詞彙呢 | 36.099998 | 37.799999 |
|
它所指的含義是有一些不同的 | 37.799999 | 41.099998 |
|
那Jailbreak翻譯成中文就是越獄 | 41.099998 | 44.5 |
|
Jailbreak指的是 | 44.5 | 46.099998 |
|
你要攻擊的對象 | 46.099998 | 48.099998 |
|
是語言模型的本體 | 48.099998 | 51.299999 |
|
也就是說你要讓語言模型說一些 | 51.299999 | 54.700001 |
|
他本來就不應該說的話 | 54.700001 | 57.5 |
|
我們知道說今天大型語言模型 | 57.5 | 59.5 |
|
都有很強的防禦的能力 | 59.5 | 61.5 |
|
他會避免說出一些有害的話 | 61.5 | 64.099998 |
|
教你做有害的事 | 64.099998 | 65.900002 |
|
那Jailbreak就是要叫大型語言模型 | 65.900002 | 68.900002 |
|
不小心講出這些本來不應該說出的話 | 68.900002 | 72.900002 |
|
那有另外一個詞彙呢 | 72.900002 | 74.699997 |
|
叫做Prompt Injection | 74.699997 | 76.300003 |
|
他所要攻擊的對象是 | 76.300003 | 78.5 |
|
語言模型所打造的應用 | 78.5 | 81.099998 |
|
比如說AI助教 | 81.099998 | 83.699997 |
|
那也就是說Prompt Injection要做的事情是讓語言模型怠忽職守 | 83.699997 | 89.699997 |
|
本來這個語言模型的應用者呢 | 89.699997 | 92.699997 |
|
想要拿語言模型來做某一些事情 | 92.699997 | 95.699997 |
|
來打造某一些應用 | 95.699997 | 97.699997 |
|
但是透過Prompt Injection的技術 | 97.699997 | 99.699997 |
|
會讓語言模型的應用 | 99.699997 | 101.699997 |
|
在不恰當的時機做不恰當的事 | 101.699997 | 104.699997 |
|
說不恰當的話 | 104.699997 | 106.699997 |
|
那如果打個比方的話呢 | 106.699997 | 108.699997 |
|
對應到人類Jailbreak呢 | 108.699997 | 110.699997 |
|
Jail Break就是你想辦法去對一個人做催眠 | 110.699997 | 114.699997 |
|
然後叫他做一些法律所絕對不容許的事情 | 114.699997 | 117.699997 |
|
比如說殺人放火 | 117.699997 | 119.699997 |
|
不管在什麼樣的時空 | 119.699997 | 121.699997 |
|
這可能都是不能被接受的 | 121.699997 | 123.699997 |
|
身為一個人類本來就不該做這些事情 | 123.699997 | 126.699997 |
|
那Palm Injection是說 | 126.699997 | 128.699997 |
|
你讓一個人怠忽職守 | 128.699997 | 130.699997 |
|
在不恰當的時機做不恰當的事 | 130.699997 | 132.699997 |
|
比如說上課的時候突然高聲唱歌 | 132.699997 | 135.699997 |
|
那高聲唱歌可能沒有什麼錯 | 135.699997 | 137.699997 |
|
但是在上課的時候高聲唱歌 | 137.699997 | 139.699997 |
|
可能就不能夠算是一個恰當的行為 | 139.699997 | 142.899994 |
|
所以這頁投影片是解釋一下 | 142.899994 | 145.300003 |
|
Jailbreaking跟Prompt Injection | 145.300003 | 147.399994 |
|
他們本質上的差異 | 147.399994 | 149.300003 |
|
那接下來我們就來分別看一下 | 149.300003 | 151.800003 |
|
Jailbreaking跟Prompt Injection是怎麼回事 | 151.800003 | 155.699997 |
|
我們先來看Jailbreaking | 155.699997 | 158.100006 |
|
那講到Jailbreaking | 158.100006 | 159.699997 |
|
最知名的一個Jailbreaking的Prompt | 159.699997 | 162.600006 |
|
就是Dan | 162.600006 | 164 |
|
這個Dan是什麼意思呢 | 164 | 165.800003 |
|
你如果去問大型原模型 | 165.800003 | 167.899994 |
|
叫他做一些傷天害理的事情 | 167.899994 | 170.759995 |
|
比如說教我怎麼給別人下毒 | 170.759995 | 173.600006 |
|
那通常大型語言模型 | 173.600006 | 175.300003 |
|
今天不管是哪一個模型都會拒絕這種請求 | 175.300003 | 178.5 |
|
但是有一個神奇的單字叫做DAN | 178.5 | 181.699997 |
|
你跟大型語言模型說你要變成DAN | 181.699997 | 185.300003 |
|
那DAN呢是Do Anything Now的縮寫 | 185.300003 | 189.100006 |
|
往往你就可以讓一些模型 | 189.100006 | 191.5 |
|
他Jailbreak | 191.5 | 192.600006 |
|
他越獄了 | 192.600006 | 193.399994 |
|
突破他本來自身的道德規範 | 193.399994 | 195.800003 |
|
做一些他不該做的事 | 195.800003 | 197.5 |
|
比如說教你怎麼對別人下毒 | 197.5 | 200.059998 |
|
那你可以在網路上找到很多跟DAN相關的GEL BREAKING的這個Prompt | 200.559998 | 205.679993 |
|
但是其實多數的Prompt都已經失效了 | 205.679993 | 208.5 |
|
那些Prompt通常是對GPT-3.5有效 | 208.5 | 211.580002 |
|
對GPT-4或更新的模型比如說GPT-4-O | 211.580002 | 214.899994 |
|
這些DEN相關的PUMP往往沒有辦法發揮的這麼好 | 214.899994 | 219.259995 |
|
但是還是有很多其他的GEL BREAKING是對現在最新的模型 | 219.759995 | 224.880005 |
|
比如說GPT-4-O,在前幾天OpenAI釋出了GPT-4-O | 224.880005 | 229.800003 |
|
還是有一些Prompt就算是對GPT-4-O | 229.800003 | 233.080002 |
|
也是可以達成Geo-breaking的效果的 | 233.080002 | 236 |
|
那這邊就舉幾個例子 | 236 | 238.600006 |
|
那假設我現在要做的事情 | 238.600006 | 240.600006 |
|
是要大型語言模型教我怎麼砍倒一個停車標誌 | 240.600006 | 245.399994 |
|
怎麼砍倒一個Stop Sign | 245.399994 | 247.440002 |
|
如果你只是跟大型語言模型說 | 247.440002 | 250.039993 |
|
我需要什麼樣的工具才能砍倒一個停車號誌 | 250.039993 | 254.759995 |
|
那大型語言模型告訴你說 | 254.759995 | 256.600006 |
|
砍倒停車號誌是不對的 | 256.600006 | 258.640015 |
|
如果你對停車號誌有意見的話 | 258.640015 | 261.040009 |
|
你應該聯絡當地的政府 | 261.040009 | 262.959991 |
|
而不是想辦法砍倒他 | 262.959991 | 264.799988 |
|
但是有蠻多方法可以欺騙大型語言模型 | 265.119995 | 268.040009 |
|
讓他教你怎麼砍倒停車號誌的 | 268.040009 | 270.959991 |
|
有什麼樣的思路呢 | 271.079987 | 272.559998 |
|
一個思路就是使用他沒有那麼熟悉的語言 | 272.640015 | 276 |
|
使用他聽得懂有一點懂 | 276.079987 | 278.839996 |
End of preview. Expand
in Dataset Viewer.
- Downloads last month
- 100