file
stringlengths
47
47
text
stringlengths
1
182
./data/c90c06ba-ee81-421c-9139-ab62841e5c28.wav
ấy thì bản thân ở cái giữa cái lớp này là các bạn lấy một cái ma trận tham số các bạn nhân với một cái vector đầu vào
./data/faf8122c-8b67-4bf6-9af3-240e97b0d3d5.wav
ấy về sau các bạn có thể gặp một số cái a hàm cái này
./data/c0a53392-b182-42cf-b959-1c426df0c5f6.wav
ấy một lần nữa mình nhắc lại các bạn cố gắng làm bài tập softmax
./data/5df0ce72-f3e9-4d7a-96c7-8ac00f5a7c05.wav
đây đi theo hướng data centric có nghĩa là người ta biến từ cái bài toán này thành một cái bài toán phân loại
./data/ecd93b98-1ac7-4507-8c0e-6617e07dd118.wav
chứ cũng đâu có cần phải đến những cái mô hình lớn hơn ấy thì cái việc này nó khá khó dự đoán nha mọi người
./data/70dc7811-90f1-4697-80ec-e29166075283.wav
ở đây nó sẽ giảm cái learning rate dần đi ấy sau một ngàn epoch ấy
./data/d1823e3d-51e6-42c0-9934-d674899b1b30.wav
và mình reset cái patient cao có nghĩa bây giờ tôi tìm được cái model tốt nhất rồi
./data/7522fa5e-3785-4b25-bb03-c07fc18db432.wav
ấy nhưng trong trường hợp này thì cái đoạn này thì vẫn có đạo hàm này
./data/c754313a-759b-4981-b44b-fc1790636fc1.wav
ở đây thì thường viết công thức thì mình chưa có viết cái chuẩn hoá vào nhưng mà luôn luôn sẽ có một trên m ở đây nha mọi người
./data/0dda2c72-1bdb-47a0-9388-bb78aabcb0ef.wav
thì nó cũng giống một cái ảnh thôi đúng không
./data/917cc1b6-0821-4083-92ef-b161a015f84f.wav
nó còn có keyword là à bố trí cái learning rate theo hình tam giác
./data/3436d6f9-80da-42c0-be37-9863c41eeb97.wav
chúng ta có một cái loss như thế này thì có thể là trên một trăm ngàn thì cái loss nó có thể là như thế nó cũng tương đương nhau
./data/4944603f-14bb-45e5-a818-58d2f25dff34.wav
nhưng mà cái này nó sẽ làm cho rất nhiều những cái mô hình ờ ở hiện tại
./data/0e34b498-232d-4353-878a-3fd9acae52da.wav
và bây giờ các bạn sẽ phải tự code cái cách cập nhật cái bộ tham số này
./data/42d8b8ee-f9d6-4fb5-b703-afeb74c11b41.wav
ấy được không ạ
./data/4a27dcb1-6c99-487f-a34f-03ddf88e9a31.wav
mình chạy một cái phần nhỏ trước để mình xác định xem là cái thuật toán nó có phù hợp hay không
./data/2b2cc3d6-130c-4e62-b263-f61d44600e93.wav
đây này ví dụ đây người ta sẽ tính lại min này và tính lại à độ lệch chuẩn này
./data/3af1a450-a44f-48da-a035-35deb0fa0009.wav
idf hoặc là bm hai năm
./data/4499edcf-a28c-42ed-abae-54177e30948b.wav
cho nên ở đây các bạn sẽ sử dụng cái sai lệch đó đúng không
./data/e1dd4f1f-753e-4ea3-8ef8-5d6f722ed722.wav
mọi người mà ok mọi người thả like nha
./data/13b0ba43-67f0-4bc6-81f1-59eb6fd2e245.wav
đấy thì tốt hơn các bạn đi từ tiny đi lên
./data/fba2238d-9e57-498b-b56e-c702257edbcc.wav
nó sẽ hình thành lên phân phối của các từ trong mười ngàn câu
./data/8f94de44-ebc0-425e-bab7-e25eae0a738a.wav
còn đây là max epoch là mười ngàn
./data/38d578db-e396-4223-bebb-ae1cac3037b6.wav
mô hình này mình dùng bộ data nào ấy được không ạ
./data/92ec0ddb-b095-4e09-8874-ac7336156f5f.wav
biết là cái mô hình này mình đang train cái data nào đúng không ạ mô hình này đang cấu trúc như thế nào thì các bạn phải sử dụng cái này nha
./data/1550aead-34c5-437b-8aad-d9ff49582c4c.wav
trong gan nó sẽ có hai thằng một thằng là trộm một thằng là công an
./data/e2529487-00e4-43be-8fbc-f0bcb224fd88.wav
sau đó mình sẽ tự fine tool riêng cho mình nhưng mà hầu hết là mọi người đều phải sử dụng những cái mô hình mà nó tương quan
./data/1799e701-53cd-4fb8-9812-2872ec9b56e3.wav
tự khắc là cái kì vọng của chúng ta nó sẽ cao hơn ấy các bạn ứng dụng kì vọng nha mọi người
./data/c1242b9f-b715-4333-8c7a-0ac0339ea737.wav
ok rồi chúng ta sẽ a đầu tiên chúng ta sẽ nhắc lại cái mạng nơ ron một chút
./data/426b6e88-a2e1-4813-983a-3367e9f61b02.wav
đây đôi khi các bạn phải tự code bằng tay này chỗ này mình code bằng tay này
./data/dce65b6c-a233-499a-92f3-718b599abdad.wav
ấy thì đây là cái cách dùng l một l hai này khi các bạn thấy overfit thì bây giờ
./data/e475672c-aff3-4acc-ae42-39d27e828e21.wav
có thể trong hình ảnh cũng có thể có ví dụ mình mask mật độ cái mặt đi chẳng hạn
./data/19e30504-44d3-4536-8577-e20b99df7190.wav
ấy ví dụ các bạn thấy này ở đây một cái bài toán là cho tôi đi học vào đây
./data/8b6d99ec-ad5b-4c90-8b34-21f0eee8b5bc.wav
và việc chia sẻ param này cải thiện khả năng học của mô hình
./data/bff31e59-e29c-41cc-a005-a3e94e97b679.wav
có nghĩa chỉ sử dụng forward thôi có nghĩa các bạn đưa data validation vào này
./data/b3326425-5f85-48fc-821c-f46b52358c33.wav
và sau khi build xong các bạn dùng tensorflow dataset để các bạn load lên
./data/25eb05ad-4dea-471e-8922-18f03a1a0c19.wav
đấy form logit ở đây
./data/0c89f91c-2d66-4b5f-bd61-0a449c496335.wav
nếu các bạn sử dụng thuật toán counting ấy counting nó như kiểu là its
./data/a0bbe6e3-a873-48ad-a9d1-cc331275b634.wav
thì đầu ra cũng chính là tôi đi học luôn kiểu như thế
./data/f6cdb7e1-5d4f-4b74-a31d-5169a307d4c6.wav
ấy lớp ẩn ở giữa và chúng ta có mười sáu nốt xong các bạn vẫn phải thu về cái
./data/e65fbe25-573b-46d1-a283-deb450e92e36.wav
nếu mà để general nhá thì có nghĩa là câu nào cũng được đúng không
./data/7c2fdc07-900d-4d4c-bcae-f248cfa5c295.wav
với tự train model có nhiều param cho cnn thì mình nên ưu tiên cái nào
./data/ec2c64c4-4090-442c-a91b-9514dd0a7b28.wav
đây mình đưa cái a dữ liệu qua mô hình
./data/6550592e-0fd3-4a39-8210-b46d3f78cb13.wav
khi model bắt đầu overfit đấy
./data/56b2b705-4424-4a47-9236-a4aa9e5c963d.wav
ấy và bây giờ nếu mà hiện tại mà nhỏ hơn cái l này thì các bạn sẽ cập nhật tham số
./data/ca8db42b-03e2-406f-af17-017a43313194.wav
rồi chấm fit nó sẽ đủ hơn nhưng mà đây là các bạn tự forward
./data/f347ff7a-f424-4b21-be38-141af782c4af.wav
thì nó đang nhắc đến chủ đề về quán ăn chẳng hạn kiểu như vậy thì nó sẽ sinh ra nó sẽ học được thêm những cái
./data/eae7718f-eccb-4c74-9837-3ef5a39cf454.wav
được không ạ đấy thì bây giờ là người ta sẽ làm như thế này
./data/59b09511-52e6-47e5-8e25-e059163e2de8.wav
đúng không cái quy trình thì vẫn là như vậy tuy nhiên thì nó sẽ tạo ra nhiều cái lớp ẩn ở phía giữa để có thể là học được
./data/69ab3497-ddc1-412d-b5fb-c2f3e06bfe35.wav
đấy thì người ta có thể xây dựng ờ một cái mô hình cái thuật toán mà người ta dùng ở đây kiểu như thế này
./data/3093f1c7-f2af-4090-80f0-71749b97bfbb.wav
chiều dài của cái vector này nhân với chiều dài của vector này ấy thêm một cái bias ở đây nữa
./data/e27d75e1-40ba-4b6b-8211-c97347dad36b.wav
ấy loanh quanh cũng tầm khoảng sáu mươi bảy sáu sáu phần trăm đúng không
./data/98f05350-40f3-4a15-bd3c-a15c78f9ffb0.wav
có ok không
./data/52b9d2a5-8c44-4026-95a4-ce3ceb7249e4.wav
thì ngoài sử dụng cái cách dùng fit như bình thường ấy thì à các bạn có thể là
./data/aea7f91d-d59e-47aa-9a8d-9ba1d63d3dfd.wav
nó là một thứ mà nó là random đúng không ấy thì
./data/fc568792-980d-4f3a-adf5-2ff7a1f70b1c.wav
đây thì bọn mình cần phải build được đầu tiên ấy ở trong tensorflow ấy các bạn phải học một cái tool nó tên là tfrecord
./data/b13c832f-c18d-4efc-a694-57e8256da33d.wav
ấy thì đây là bài số a ba
./data/fa63832f-7144-4c06-8edc-a3cd3a578a39.wav
và nếu patient cao của tôi ấy mà nó đạt đến một cái mức nào đấy thì tôi sẽ phải break không training nữa
./data/5d04c6fd-61b1-4716-8fb8-85fe597ce993.wav
đấy dưới dạng một cái video ngắn ấy và các bạn sẽ tìm được cái câu trả lời trong cái video đấy
./data/f7bfae8a-a5c1-484b-9a5e-502c21e4f6b0.wav
ây các bạn thấy không
./data/f24a1ebb-15cd-45dd-ba0b-65e2880bb203.wav
đấy thì khi mà các bạn a lọc qua cái batch size này xong thì các bạn mới cập nhật dữ liệu
./data/3952e817-a279-496e-8562-f64c545b0f94.wav
gọi là cái a progress hiện tại ờ quá trình hiện tại
./data/97cf6c95-f0c6-4bbc-b99e-c0f0021c955b.wav
kiểu như vậy đôi khi các bạn train hai epoch ý thì epoch thứ hai ý thường nó sẽ bị chậm đi
./data/0cd841db-d69b-4900-b204-57113bca1c63.wav
vẫn đang giảm ở đây nhưng mà đây thì bắt đầu là trên validation lại bắt đầu là gì
./data/47d6a030-3ded-4d67-955c-7b01d375c9df.wav
ấy thì thường người ta có thể code theo kiểu như vậy ở đây
./data/bc1457fc-d560-4d92-a597-ba0f482595ea.wav
rõ ràng như này mình thấy là mình sử dụng cái kia vẫn sẽ tốt hơn cái mười ngàn epoch
./data/dbc8ecfb-9e18-41bc-824f-f5faee60573b.wav
tức là được chuẩn hoá trên số lượng điểm dữ liệu cho nên là các bạn train ở trên một nghìn điểm
./data/42ca6aff-b8f4-4fe3-a8e8-060c828216b2.wav
ấy thì các bạn phải ưu tiên cái cái này thay vì các bạn ờ phải
./data/94729ef6-0a87-4900-9114-719afd6123a6.wav
ấy nếu mà ai mà gọi là làm theo kiểu về sau hướng mình thành một người architect thiết kế hệ thống này
./data/cdcf070b-0c5e-4bed-a2e3-3ba7fd5e02cf.wav
ví dụ các bạn muốn học thêm về leetcode chẳng hạn đấy làm sao các bạn lập trình thuật toán được giỏi hơn
./data/045f0486-fbc3-45d0-ba2a-e28a0b65b1cb.wav
thì thường mình thấy họ là những người builder rất tốt kiểu họ là những người mà
./data/4cfa06cd-11ce-4f9b-8d38-1ff3e7ac3199.wav
ok quay lại bài học nha mọi người
./data/dd04283c-72e5-4ff7-afae-4d7e4b5a7b3a.wav
thì các bạn sẽ để verbose bằng không nhưng tất nhiên mình ít khi để verbose bằng không lắm các bạn phải in ra
./data/6b0fa7bf-2edc-4e76-884c-39440b3cc1f0.wav
trong thực tế khi mà làm thật ấy với số số lượng dữ liệu lớn ấy các bạn cần phải sử dụng
./data/3d081d70-00db-4e71-872c-cb6726e25944.wav
bây giờ nlp ý em sẽ học được cái là similarity có nghĩa là những cái chủ đề mà
./data/68702bae-b68d-48c7-a716-c1fbdfbd5e6e.wav
ok không em
./data/517130fa-34fb-45f7-a11b-8ca0abbe0b18.wav
hoặc là đạo hàm
./data/390c69c7-cf63-4999-a1e6-1bfe42312766.wav
trừ khi thì mình làm một cái bài toán gì ấy đặc thù mà mình cần sẽ phải tự train theo kiểu là mình train pretrain này
./data/68b103f3-094c-4a2e-835c-f02317e10513.wav
đấy cũng như cái cách mình làm như thế này thôi mình masking một số chỗ đi để mình sinh ra chính cái mà nó bị thiếu ở đấy
./data/08edaef7-b58c-48dd-9146-fd06ca5a4c56.wav
thì trong cái tensorflow ấy nó sử dụng những cái hàm callback để các bạn làm một số việc
./data/36c217c1-31b2-459d-89ee-7f7fd0d1a9c4.wav
cái mối liên hệ giữa pretrain là giống như kiểu là em học được là em học được là cái chủ đề của chúng ta
./data/37214cb0-e272-4140-9d99-edc5cc9f6140.wav
mọi người có hiểu không nếu mọi người hiểu mọi người like nha mọi người
./data/21a39f3e-7e50-4cfb-b4eb-55920bdc970a.wav
ấy thì các bạn thấy này
./data/b9f79f23-4227-4be4-8b72-481de73164fa.wav
bây giờ mình sẽ nâng lên một cái model to hơn một chút
./data/58ec38f7-9ab1-425f-b306-2ddb4293a47f.wav
trên những cặp dữ liệu này
./data/69e85c50-c4f5-4ce6-9dd7-0cd5cb206787.wav
càng ngày cái tốc độ của chúng ta càng chậm lại đúng không ạ
./data/dc3b2610-b429-4e75-8bc3-5a7743307f7e.wav
để các bạn a làm như vậy thôi
./data/224d4fa9-8a00-47da-bf56-069f424f3a84.wav
có nghĩa đây gọi là gì không thể tránh khỏi
./data/758a0d3f-f174-43ba-8c24-65ebbea6f957.wav
ở đây gọi là liên kết thì bản chất là một cái w thôi các bạn nhân a xong cộng vào thôi đúng không
./data/d5f6cad7-e94c-4050-99c7-ee17211ca621.wav
phân loại à xem là tiêu cực hay tích cực tất nhiên là không phải trường hợp nào cũng sẽ là được tốt hơn
./data/f7f4674a-2163-4f7b-bda6-b4fab47f941e.wav
đúng không ấy thì cái lớp đầu tiên thì à chúng ta sẽ đưa một cái vector hai mươi tám đúng không
./data/946ba6e9-75ab-4a75-a4ea-c26cb7a4210e.wav
chúng ta đã nhắc đến cái chủ đề gì chẳng hạn hoặc là trong câu nó hay sử dụng những cái kiểu như thế này
./data/33f2c673-c3ff-48a8-a290-b08dfaef1d9e.wav
ấy thì như các bạn hiểu là mỗi cái layer nó giống như một cái mô hình nhỏ ấy cho nên người ta sẽ sử dụng cái
./data/52b33f1f-160d-42d7-af59-4ebb94dd7d47.wav
đấy ví dụ à có check point thì note lên còn không có check point thì tạo mới ví dụ như vậy
./data/bcf40f5c-3f86-46d6-8126-643c448e4804.wav
ây mình sẽ show cái model cho các bạn
./data/acd2ae7e-73da-4dac-99fe-ccb8c00edcc1.wav
nếu mà em mà quan tâm âm thanh ấy thì ngày xưa ấy anh làm như này anh dùng cái mô hình có tên là word2vec
./data/0c6729ad-4759-4d1f-9f0e-22270b3ee11e.wav
đấy có nghĩa data chúng ta bình thường thì là những cái dòng chữ hoặc là những cái ảnh thôi nhưng làm sao các bạn phải build được
./data/71502742-7693-4627-bf83-06ffc9d6a773.wav
đây
./data/ba216d07-7576-48b1-8e9d-dcba3a014255.wav
vừa train một cái masking như này và vừa train phân loại luôn ở đây nó tách ra một cái pretrain này sau đó thì mới a phân loại cái kia
./data/4f2630fd-b52e-4909-a1c7-ebed621bd826.wav
ấy nhưng mà ngay kể cả cái tiny của mình ấy ngay lúc đầu mình cũng đã được đạt được cái con số đấy rồi