File size: 37,702 Bytes
97e683e |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049 1050 1051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061 1062 1063 1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084 1085 1086 1087 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 1107 1108 1109 1110 1111 1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200 1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232 1233 1234 1235 1236 1237 1238 1239 1240 1241 1242 1243 1244 1245 1246 1247 1248 1249 1250 1251 1252 1253 1254 1255 1256 1257 1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271 1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297 1298 1299 1300 1301 1302 1303 1304 1305 1306 1307 1308 1309 1310 1311 1312 1313 1314 1315 1316 1317 1318 1319 1320 1321 1322 1323 1324 1325 1326 1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346 1347 1348 1349 1350 1351 1352 1353 1354 1355 1356 1357 1358 1359 1360 1361 |
1
00:00:20,650 --> 00:00:23,110
بسم الله الرحمن الرحيم، احنا اليوم إن شاء الله بدنا
2
00:00:23,110 --> 00:00:26,450
نكمل الموضوع اللي فتحناه قبل هيك في المحاضرات
3
00:00:26,450 --> 00:00:32,610
الماضية، اللي هو الـ artificial neural networks الـ
4
00:00:32,610 --> 00:00:35,670
supervised learning باستخدام الـ artificial neural
5
00:00:35,670 --> 00:00:42,570
networks. كنا في المحاضرة الماضية حكينا عن اللي هو
6
00:00:42,570 --> 00:00:48,290
الـ Perceptron، وشوفنا آلية عمله، وآلية
7
00:00:48,290 --> 00:00:53,090
التعلم اللي هي مقصودة بالتعديل الوزني، وبعدين
8
00:00:53,090 --> 00:00:57,270
كمان أيضًا طلعنا على الـ multi-layered networks الـ
9
00:00:57,270 --> 00:01:00,270
multi-layered networks اللي هي عبارة عن شبكة من الـ
10
00:01:00,270 --> 00:01:05,850
perceptrons. الشبكة هذه مُهيكلة على أساس layers، والـ
11
00:01:05,850 --> 00:01:08,890
layers، كل layer فيها مجموعة من الـ perceptrons
12
00:01:08,890 --> 00:01:13,090
بتغذي المجموعة اللي بعدها، أو الـ layer اللي بعدها،
13
00:01:14,080 --> 00:01:18,840
وشوفنا آلية التعلم في الـ multilayer networks،
14
00:01:18,840 --> 00:01:23,080
صح، آلية التعلم المُتّبعة بها مرة أخرى، اللي هي آلية
15
00:01:23,080 --> 00:01:27,420
تعديل الأوزان، وشوفنا كيف بتختلف آلية تعديل الأوزان
16
00:01:27,420 --> 00:01:36,000
في الـ output layer عنّها في الـ hidden layer، صح الآن؟
17
00:01:36,000 --> 00:01:40,290
احنا بدنا نلقي نظرة أخيرة على الـ multilayer
18
00:01:40,290 --> 00:01:44,510
networks، بعدين بنحكي في جزئية صغيرة، اللي هي الـ
19
00:01:44,510 --> 00:01:48,610
accelerating، اللي هي النقطة هذه، ماضحة النقطة هذه،
20
00:01:48,610 --> 00:01:53,170
اللي هي accelerated learning، المقصود بها تسريع
21
00:01:53,170 --> 00:01:56,710
عملية التعلم. عملية التعلم احنا فاهمين إنها بتحصل
22
00:01:56,710 --> 00:02:04,390
على شكل ايش؟ iterations. iterations، مظبوط، وسمينا كل
23
00:02:04,390 --> 00:02:08,630
مجموعة من الـ iterations سمينها epoch، صح؟ الـ Epoch هو
24
00:02:08,630 --> 00:02:14,970
دفعة، أو short من الـ iterations. عملية التسريع هو
25
00:02:14,970 --> 00:02:21,870
تقليل عدد الـ iterations. بدل من أن الـ network تأخذ
26
00:02:21,870 --> 00:02:29,940
400 دورة، 400 iterations قبل أن تستقر الأوزان، لما
27
00:02:29,940 --> 00:02:33,020
بنقول احنا بدنا نسرّع عملية التعلم، معناه ذلك
28
00:02:33,020 --> 00:02:36,240
الـ 400 هدول بدنا نختصرهم، أو نُقلّلهم إلى 300،
29
00:02:36,240 --> 00:02:42,100
إلى 200، إلى 100 ربما، بدون أن نُنقص من دقة
30
00:02:42,100 --> 00:02:48,290
التعلم. هذه النقطة اللي هي المقصود بها اللي هو
31
00:02:48,290 --> 00:02:52,730
accelerated learning، أو ممكن نقول accelerating الـ
32
00:02:52,730 --> 00:02:55,570
learning، يعني تسريع التعلم في الـ multi neural
33
00:02:55,570 --> 00:02:59,390
networks. بعد ما نخلص النقطة هذه إن شاء الله، بنتطلع
34
00:02:59,390 --> 00:03:03,250
على الـ Hopfield network والـ BAM، اللي هي
35
00:03:03,250 --> 00:03:07,010
bidirectional associative memories. هدول نوعين من
36
00:03:07,010 --> 00:03:13,420
الـ artificial neural networks اللي بينطوروا تحت إطار
37
00:03:13,420 --> 00:03:18,200
اللي هو supervised learning. طيب، إيش قلنا بدنا
38
00:03:18,200 --> 00:03:20,640
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على الـ
39
00:03:20,640 --> 00:03:23,920
multilayer neural networks اللي كنا حكينا فيها من
40
00:03:23,920 --> 00:03:28,400
قبل. بدنا نرجع على طريقة الـ slide اللي فيها الـ
41
00:03:28,400 --> 00:03:34,040
example اللي تبعه، تتذكروا تبع إيش؟ تبع تدريب الـ
42
00:03:34,040 --> 00:03:41,100
network على اللي هو الـ XOR، الـ XOR gate أو الـ XOR
43
00:03:41,100 --> 00:03:44,900
function، ذاكرين؟
44
00:03:44,900 --> 00:03:49,700
هذا المثال. اما كنا بنحكي إنه هاي الـ neural network
45
00:03:49,700 --> 00:03:54,920
في عندنا الثلاث nodes، هدول node رقم ثلاثة ورقم
46
00:03:54,920 --> 00:03:58,020
أربعة، هدول تابعين لإيش؟ للـ layer، الـ hidden layer،
47
00:03:58,020 --> 00:04:03,460
مظبوط، الـ hidden layer، صح؟ والـ output layer إيش
48
00:04:03,460 --> 00:04:07,660
فيها؟ فيها node واحدة، اللي هي node number five، صح؟
49
00:04:07,660 --> 00:04:13,200
لأن الـ input بيدخل بـ X1 و X2 على node number one و
50
00:04:13,200 --> 00:04:16,700
node number two. ملاحظين هدول الـ two nodes شكلهم
51
00:04:16,700 --> 00:04:22,780
مربع، لتمييزهم عن من عن الـ nodes الأخرى. مميزين بإيش؟
52
00:04:22,780 --> 00:04:26,300
إيش الفرق ما بينهم؟ إن هدول ما بيعملوش أي
53
00:04:27,210 --> 00:04:31,330
calculations، ما بيعملوش أي computation، صح؟ مجرد اللي
54
00:04:31,330 --> 00:04:35,890
بيدخل عليهم بيتوزع على مين؟ على اللي بعدهم، okay؟ يبقى احنا
55
00:04:35,890 --> 00:04:39,730
عمليًا في المثال هذا، يوم ما بدنا نيجي نحسب ونعدّ
56
00:04:39,730 --> 00:04:42,990
الأوزان، ونعد الأوزان، بس ثلاثة وأربعة وخمسة،
57
00:04:42,990 --> 00:04:47,470
مظبوط، بنبدأ من مين؟ من الخمسة في الأول بالظبط، لأن
58
00:04:47,470 --> 00:04:52,080
الخمسة هي اللي عندها desired output، وهي اللي بتقدر
59
00:04:52,080 --> 00:04:55,460
تعرف الـ error أو تحسب الـ error، وبعدها بتطلع الـ
60
00:04:55,460 --> 00:04:59,420
error، بتعدّل أوزانها، وبعدها بترحل الـ error
61
00:04:59,420 --> 00:05:02,820
gradient إلى مين؟ إلى ثلاثة وأربعة، الـ error
62
00:05:02,820 --> 00:05:07,900
gradient اللي ذكرناه هو small delta، بترحل إلى ثلاثة
63
00:05:07,900 --> 00:05:10,740
وإلى أربعة، عشان كل واحدة منهم، ثلاثة وأربعة، تحسب
64
00:05:10,740 --> 00:05:15,230
الـ error تبعها، الـ error gradient تبعها، يعني عشان
65
00:05:15,230 --> 00:05:18,730
تعدّل أوزانها بناء عليه. هذا الكلام هو total طبعًا،
66
00:05:18,730 --> 00:05:22,710
هنا في الـ slide هذه، بيعطيك الـ initial values تبع
67
00:05:22,710 --> 00:05:30,390
الـ إيش؟ الأوزان،
68
00:05:30,390 --> 00:05:34,230
والـ threshold،
69
00:05:34,230 --> 00:05:41,980
that theta، صح؟ مظبوط؟ بعد ذلك، هنا بيبدأ الحساب. أول
70
00:05:41,980 --> 00:05:46,260
شيء، بيحسب الـ Y3، الـ output اللي بده يطلع من Y3،
71
00:05:46,260 --> 00:05:53,100
مظبوط، بس احنا قلنا أول حاجة، بدنا نعدّل الأوزان
72
00:05:53,100 --> 00:05:59,840
فيها على Y5. طب ليش بدأنا في Y3 و Y4؟ لأن Y5
73
00:06:01,600 --> 00:06:05,000
بتعرف كيف تحسب الـ output تبعها، لازم يجيها input من
74
00:06:05,000 --> 00:06:09,120
وين؟ بتجيها الـ input من Y3 و Y4. يبقى لازم أحسب Y3 و
75
00:06:09,120 --> 00:06:13,800
Y4، ليش؟ بدهم يطلعوا عشان نُسَلّم لـ Y5، عشان Y5 تحسب
76
00:06:13,800 --> 00:06:16,580
الـ output تبعها. تبعها، دلوقت، لأن شوف إيش فيه error،
77
00:06:16,580 --> 00:06:22,180
ويتراح تاني، يعني احنا forward propagation
78
00:06:22,180 --> 00:06:26,140
of data، و backward propagation of error
79
00:06:26,140 --> 00:06:31,070
information، صح؟ okay، هي الآن، بعد ما طلعنا ...
80
00:06:31,070 --> 00:06:34,050
من حسبنا، وطبعًا حسبنا الـ activation
81
00:06:34,050 --> 00:06:37,870
function، استخدمنا اللي هي الـ sigmoid، الـ sigmoid،
82
00:06:37,870 --> 00:06:41,270
طبعًا، يوم ما يكون في عندك مثال أو امتحان أو كده، الـ
83
00:06:41,270 --> 00:06:44,830
formula حتبدو مألوفة لك أنت، بس مجرد إيش؟ بتاخد
84
00:06:44,830 --> 00:06:48,110
الأرقام وبتطلع الـ output. الـ output، لأن الـ sigmoid
85
00:06:48,110 --> 00:06:51,330
بتطلع continuous values، يعني إيش؟ يعني أرقام عشرية،
86
00:06:51,330 --> 00:06:58,750
مش binary زي مين؟ زي الـ step function، و ليش؟ بالـ pulse
87
00:06:58,750 --> 00:07:04,010
function، صح؟ okay، فَالآن هذه الـ continuous values،
88
00:07:04,010 --> 00:07:07,870
أو الـ real values، أو الـ float values، بتدخل على مين؟
89
00:07:07,870 --> 00:07:12,350
على Y5، تنضرب في الأوزان تبعها، وتُؤخذ مع الـ
90
00:07:12,350 --> 00:07:16,750
threshold عشان تطلع الـ output تبع Y5. من هنا الآن،
91
00:07:16,750 --> 00:07:20,610
نبدأ نشوف ليش الـ error، الـ error اللي أنا بحسبه هو
92
00:07:20,610 --> 00:07:24,610
عبارة عن ببساطة الـ difference ما بين الـ desired، الـ
93
00:07:24,610 --> 00:07:32,080
desired، لما يكون عندي أنا الـ X واحد، X واحد،
94
00:07:32,080 --> 00:07:36,240
أنا بقصد هنا X واحد و X اثنين، الاثنين الـ input، الـ
95
00:07:36,240 --> 00:07:41,340
value تبعهم one one، لازم الـ XOR function
96
00:07:41,340 --> 00:07:42,120
تعطيني إيش؟
97
00:07:50,560 --> 00:07:54,460
Y5 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا
98
00:07:54,460 --> 00:07:56,580
في الـ calculation هذا، يفترض أن يكون zero، بس ما هو
99
00:07:56,580 --> 00:07:56,920
اللي بيطلع معنا هنا في الـ calculation هذا، يفترض أن
100
00:07:56,920 --> 00:07:56,960
يكون zero، بس ما هو اللي بيطلع معنا هنا في الـ
101
00:07:56,960 --> 00:08:03,540
calculation هذا، يفترض أن يكون zero، بس
102
00:08:03,540 --> 00:08:05,000
ما هو اللي بيطلع معنا هنا في الـ calculation هذا،
103
00:08:05,000 --> 00:08:06,320
يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا في
104
00:08:07,180 --> 00:08:09,700
الـ small delta تبع هذه الخمسة، اللي هي إيش اسمها؟
105
00:08:09,700 --> 00:08:13,220
الـ error gradient. شوف أنا وين بقصد هنا الـ error
106
00:08:13,220 --> 00:08:18,200
gradient، إذا ذكرتوا هذا المصطلح، إن هو الـ small
107
00:08:18,200 --> 00:08:23,070
delta، الـ error gradient هذا لما بنحسبه، بعد هيك، على
108
00:08:23,070 --> 00:08:27,630
أساسه، بتتعدّل الأوزان، الأوزان تبعون الـ inputs اللي
109
00:08:27,630 --> 00:08:33,890
داخلة على Y خمسة، صح؟ من هم هدول الأوزان؟ W ثلاثة
110
00:08:33,890 --> 00:08:38,190
خمسة، و W أربعة خمسة. ليش بسمّيهم هيك؟ لأن واحد منهم
111
00:08:38,190 --> 00:08:42,670
جاي من ثلاثة إلى خمسة، والثاني جاي من أربعة إلى
112
00:08:42,670 --> 00:08:47,470
خمسة، أو الأصح إن احنا نقول واحد منهم هو وزن الـ
113
00:08:47,470 --> 00:08:51,610
input اللي جاي من ثلاثة إلى خمسة، والثاني هو وزن الـ
114
00:08:51,610 --> 00:08:56,910
input اللي جاي من أربعة إلى خمسة، صح؟ طبعًا. فأول شيء
115
00:08:56,910 --> 00:09:00,370
عشان نعدّل الأوزان، نحسب الـ delta تبع الوزن، مقدار
116
00:09:00,370 --> 00:09:08,390
التغيير، بعدين بنضيفه على الـ current، أو الـ weight،
117
00:09:08,390 --> 00:09:13,250
الوزن الحالي، عشان يطلع معنا وزن جديد. نفس الشيء
118
00:09:13,250 --> 00:09:18,000
بنعمله لمين؟ للـ Theta، للـ Threshold. لاحظوا أن
119
00:09:18,000 --> 00:09:20,900
عملية تعديل الأوزان ببساطة شديدة، يعني الـ Delta،
120
00:09:20,900 --> 00:09:22,880
بيصير عبارة عن الـ Alpha اللي هو الـ learning rate،
121
00:09:22,880 --> 00:09:28,920
مضروب في قيمة الـ input اللي بيخش عبر هذا
122
00:09:28,920 --> 00:09:33,740
الوزن، مضروب في الـ Delta، small Delta اللي هي الـ
123
00:09:33,740 --> 00:09:38,840
Delta 5. فهي Delta 5 موجودة في الثلاث حسابات،
124
00:09:40,110 --> 00:09:44,130
طيب، هذا الكلام إيش خلّصنا فيه؟ هذا الكلام بس لحساب
125
00:09:44,130 --> 00:09:48,210
الأوزان تبع input اللي داخلة على مين؟ على
126
00:09:48,210 --> 00:09:52,450
Y5. لازم نعيد نفس الشيء للـ inputs اللي داخلة على
127
00:09:52,450 --> 00:10:01,630
Y3 و Y4، صح؟ okay، هذا الكلام نفس القوانين، بس طبعًا
128
00:10:01,630 --> 00:10:05,270
لازم في الأول، كل واحدة من Y3 و Y5 تحسب الـ error
129
00:10:05,270 --> 00:10:09,520
gradient تبعها، اللي هو الـ small delta تبعها، وبعدين
130
00:10:09,520 --> 00:10:15,220
عليه، small delta بتدخل
131
00:10:15,220 --> 00:10:19,040
في حساب الأوزان اللي رايحة على ثلاثة، وبعدين small
132
00:10:19,040 --> 00:10:21,860
delta تبع أربعة بتدخل في حساب الأوزان اللي رايحة
133
00:10:21,860 --> 00:10:29,800
على أربعة. أنا الآن بدل ما إني طبعًا هنا بعد هيك،
134
00:10:29,800 --> 00:10:35,020
الأوزان، اللي هو W واحد ثلاثة، W واحد أربعة،
135
00:10:35,020 --> 00:10:37,840
W اثنين ثلاثة، W اثنين أربعة، W ثلاثة خمسة،
136
00:10:37,840 --> 00:10:44,500
W ثلاثة أربعة. okay، بدل أنا الآن نمُرّ بهذا الحساب
137
00:10:44,500 --> 00:10:48,900
خطوة خطوة، لأ، أنا بدي أجيب وأقول لك الآن، اعتبر أنت
138
00:10:48,900 --> 00:10:53,340
بدك تكمل المثال هذا، الـ iteration اللي بعد هذه، الـ
139
00:10:53,340 --> 00:10:56,880
iteration الأولى، ولا لأ؟ لأن هذه الـ iteration إنبنت
140
00:10:56,880 --> 00:11:01,760
على الـ initial، الـ initial values تبع الأوزان،
141
00:11:01,760 --> 00:11:07,610
مظبوط. أنت الآن خذ هذا، وخذ الـ input اللي بعده، مين؟
142
00:11:07,610 --> 00:11:09,750
الـ input اللي بعده، إذا كان الـ input الأولاني كان
143
00:11:09,750 --> 00:11:17,430
one one، خذ zero one، X1 بـ zero و X2 بـ one، وعيّد
144
00:11:17,430 --> 00:11:25,890
الكرة من جديد، بالأوزان اللي هذه اللي نتجت من نهاية
145
00:11:25,890 --> 00:11:28,390
الـ iteration الأولى. أنت الآن بدك تحسب الـ iteration
146
00:11:28,390 --> 00:11:33,310
الثانية، بتقدر تعمل هذا الكلام ولا لا؟ بتقدر، إذا
147
00:11:33,310 --> 00:11:37,740
أعطيناك homework إن شاء الله بتقدر. لأ، فخلاص هي الآن
148
00:11:37,740 --> 00:11:42,260
homework. هي الآن homework مطلوب منك إيش تسوي؟ تعيد
149
00:11:42,260 --> 00:11:47,140
الكلام ده كله، للـ iteration number two، عشان تطلع
150
00:11:47,140 --> 00:11:52,140
إيش في الآخر؟ الأوزان. يعني في الآخر بدك تطلع صفحة
151
00:11:52,140 --> 00:11:59,710
زي هيك، فيها أوزان جديدة، اللي بدها تكون عندك اللي هو
152
00:11:59,710 --> 00:12:02,110
الـ iteration الثاني، في نهاية الـ iteration الثاني،
153
00:12:02,110 --> 00:12:05,870
إيش حتكون قيمة الأوزان الجديدة، والثresholds
154
00:12:05,870 --> 00:12:11,430
الجديدة، okay؟ طيب، هيك بنكون احنا ألقينا النظر الأخير
155
00:12:11,430 --> 00:12:16,470
على عملية الـ back propagation learning. واضح ليش
156
00:12:16,470 --> 00:12:20,150
اسمها back propagation؟ لأن احنا بنرجع الـ error
157
00:12:20,150 --> 00:12:25,100
لَوراء على الـ layers، من الـ output إلى الـ hidden، الـ
158
00:12:25,100 --> 00:12:28,600
hidden، طبعًا ممكن تبقى layer واحدة، أو أكتر من، ممكن
159
00:12:28,600 --> 00:12:33,880
two hidden layers، ماشي؟
160
00:12:33,880 --> 00:12:37,240
هاد الآن احنا بدنا نحكي في الـ acceleration، كيف
161
00:12:37,240 --> 00:12:44,540
يمكن تسريع، التسريع الـ learning هذا، الـ curve لو
162
00:12:44,540 --> 00:12:50,300
لاحظت عليه، إيش بيمثل؟ علاقة إيش بإيش؟ هنا epoch، بقول
163
00:12:50,300 --> 00:12:53,940
iterations، لأن الـ epoch الواحد هي مجموعة iterations،
164
00:12:53,940 --> 00:12:57,300
فأنا هنا من zero، عشان 50، 100، 150، 200،
165
00:12:57,300 --> 00:13:02,580
أقصد بها إيش؟ 200 iterations، 150
166
00:13:02,580 --> 00:13:07,980
iterations. كل ما بزيد عدد الـ iterations يفترض أن
167
00:13:07,980 --> 00:13:15,020
الـ error إيش بيصير فيه؟ بيقل، بيتناقص. احنا الآن الـ
168
00:13:15,020 --> 00:13:18,490
error، أحيانًا الـ network بتبقى الـ output layer
169
00:13:18,490 --> 00:13:23,890
تبعها فيها node واحدة، فهو error واحد، مظبوط؟
170
00:13:23,890 --> 00:13:28,410
أحيانًا بيبقى الـ layer الأخيرة بيبقى فيها عدد من
171
00:13:29,090 --> 00:13:32,310
nodes، وبالتالي الـ error، في عندي error للأولى، error
172
00:13:32,
223
00:17:32,980 --> 00:17:39,640
foundation لِ.. لِ.. لِيش؟
224
00:17:41,620 --> 00:17:46,340
لِـ course يكون في الجزء النظري أكثر فإحنا الآن
225
00:17:46,340 --> 00:17:49,560
بدنا ننتقل على هذه هي الطريقة الأولى، هذه الطريقة
226
00:17:49,560 --> 00:17:53,880
الأولى لتسريع عملية التعلم، طريقة ثانية، اللي هو
227
00:17:53,880 --> 00:17:57,300
إحنا نستخدم حاجة اسمها momentum term، انظر على
228
00:17:57,300 --> 00:18:01,860
المعادلة هذه، انظر على الشق هذا، هل الشق هذا شفناه
229
00:18:01,860 --> 00:18:05,600
قبل هيك؟ أول شيء، أيش اللي على اليسار؟ اللي يساوي
230
00:18:05,600 --> 00:18:12,400
اللي هو الـ delta W، اللي هو ايش؟ فرق الوزن بالعادة
231
00:18:12,400 --> 00:18:16,380
احنا بنعرف أن فرق الوزن هو في المحصلة هيك، بس مجرد
232
00:18:16,380 --> 00:18:21,280
الـ alpha مضروبة في الـ input مضروبة في small delta
233
00:18:21,280 --> 00:18:25,700
لِأذكركم في هذا الكلام، هيتوا، ارجع هنا ورا شوية
234
00:18:25,700 --> 00:18:30,980
ارجع هنا ورا شوية، هيتوا، هي delta صح؟ عبارة عن ايش؟
235
00:18:30,980 --> 00:18:35,450
alpha مضروبة في XX اللي هي الـ input مضروبة في
236
00:18:35,450 --> 00:18:38,410
دلتا دلتا اللي هي error gradient تبع الـ node نفسها
237
00:18:38,410 --> 00:18:43,530
اللي نحسب لها تلاتة أو زمن الداخلة عليها من واحد و
238
00:18:43,530 --> 00:18:53,830
من اتنين، مبدئياً للي مش حافظ، تعديل الوزن delta w هي
239
00:18:53,830 --> 00:18:56,690
عبارة عن ببساطة learning rate
240
00:18:59,110 --> 00:19:02,870
مضروب في الـ input اللي داخل على الـ node من هذا
241
00:19:02,870 --> 00:19:07,810
الوزن مضروب في الـ gradient، طيب ايش الاستخدام؟
242
00:19:07,810 --> 00:19:11,710
الاستخدام هذا، الـ band هذا أو هذا الـ term هذا، الـ
243
00:19:11,710 --> 00:19:14,790
term اللي هو الـ momentum term، momentum يعني الدفع
244
00:19:14,790 --> 00:19:18,450
بيعطي الدفع لعملية التعلم، هو ببساطة شديدة عبارة
245
00:19:18,450 --> 00:19:22,970
عن beta، هي عبارة عن constant صغير ما بين الـ zero
246
00:19:22,970 --> 00:19:28,630
والواحد، مضروب في ايش؟ مضروب في ايش؟ في الـ delta
247
00:19:28,630 --> 00:19:33,190
point، يعني بدنا الآن الـ network تتذكر الـ delta
248
00:19:33,190 --> 00:19:39,050
السابق، احنا نحسب الـ delta تبع P و بنقول أنه بدنا
249
00:19:39,050 --> 00:19:44,210
الـ delta تبع P ناقص واحد، يعني ايش؟ الـ delta السابق
250
00:19:44,210 --> 00:19:50,310
مش الوزن السابق، مش W، لأ، delta W، بدنا ناخده هذا
251
00:19:51,510 --> 00:19:57,390
نحتفظ فيه للدورة اللاحقة، عشان نضربه في مين؟ في الـ
252
00:19:57,390 --> 00:20:04,590
beta، هذا الكلام بشكل دفع لمين؟ لعملية التعلم، وهذا
253
00:20:04,590 --> 00:20:11,070
الـ beta قيمة تتراوح من zero لواحد، عادة بتبدأ قريبة
254
00:20:11,070 --> 00:20:17,690
من الواحد، قريبة من الواحد، يعني 0.95 مثلاً، فهذا اللي
255
00:20:17,690 --> 00:20:18,150
هو الآن
256
00:20:27,380 --> 00:20:32,280
two methods أو two measures أو two steps أو two
257
00:20:32,280 --> 00:20:41,980
techniques، ليش؟ for accelerating، أول
258
00:20:41,980 --> 00:20:42,920
واحد، ايش كانت؟
259
00:21:01,740 --> 00:21:06,060
الثاني، استخدام ايش؟
260
00:21:06,060 --> 00:21:11,540
momentum constant term، لأ، الـ constant هو جزء من الـ
261
00:21:11,540 --> 00:21:15,100
term، هذا هو كله عبارة عن الـ momentum term، تتكون
262
00:21:15,100 --> 00:21:20,260
من حاجتين مضروبات في بعض، اللي هم الـ momentum
263
00:21:20,260 --> 00:21:26,540
constant اللي هي beta مضروبة في الـ W تبعت الـ
264
00:21:26,540 --> 00:21:34,100
iteration السابقة، هذا الـ term بينجمع على الـ term
265
00:21:34,100 --> 00:21:40,240
الأصلي تبع تعديل الأوزان، اللي هو الـ alpha مضروبة
266
00:21:40,240 --> 00:21:48,820
في الـ input مضروبة في الـ error gradient، error
267
00:21:48,820 --> 00:21:54,780
gradient اللي هي small delta، تمام؟
268
00:21:54,780 --> 00:21:57,800
ايش
269
00:21:57,800 --> 00:22:02,890
غير هذا؟ هدول طريقتين، اللي قلنا ايش؟ أو أسلوبين لـ
270
00:22:02,890 --> 00:22:10,710
accelerating learning، غير هيك، هذا المثال نفس
271
00:22:10,710 --> 00:22:20,270
المثال اللي قبل هيك، بوريك كيف الـ
272
00:22:20,270 --> 00:22:27,770
learning rate هنا ثابت، ما تغيرش، ثابت، و الـ error
273
00:22:27,770 --> 00:22:37,800
بينزل، الـ error بينزل، صار بدل ما أخدت بدل
274
00:22:37,800 --> 00:22:44,280
ما تاخد 200 iteration عشان يقترب الـ error من الـ
275
00:22:44,280 --> 00:22:52,340
zero، أخدت قديش؟ 126
276
00:22:52,340 --> 00:22:57,120
epoch أو iteration، مش مشكلة، المهم القصد أنه انضغط
277
00:22:57,120 --> 00:23:03,340
الأمر من 200 إلى 126، هذا باستخدام الـ momentum term
278
00:23:03,340 --> 00:23:11,320
لما أضيف الـ momentum term على تصميم formula تعديل
279
00:23:11,320 --> 00:23:18,920
الوزن، صار اختصر أو قلّ الوجد إلى 126 بدل 200
280
00:23:18,920 --> 00:23:25,340
إذن، الآن، إضافة إلى هذول الـ two techniques، رقم
281
00:23:25,340 --> 00:23:27,360
تلاتة، اللي هو الـ heuristics
282
00:23:33,520 --> 00:23:37,660
heuristics، هذول فيهم any tools rule بتقول إنه إذا
283
00:23:37,660 --> 00:23:43,780
كان أنا قاعد بأجمع اللي هو ايش؟ الـ sum of square
284
00:23:43,780 --> 00:23:46,940
errors، ايش هو الـ sum of square errors؟ بتذكرها لو
285
00:23:46,940 --> 00:23:51,040
لسه كنا نحكي، اللي هو بجمع الـ errors تبع كل الـ
286
00:23:51,040 --> 00:23:55,900
nodes و بربعها، أولا بأخذها، بربعها، بعدين بجمع
287
00:23:55,900 --> 00:24:01,900
مربعاتها، إذا من epoch لـ epoch، الـ sum of square errors
288
00:24:01,900 --> 00:24:12,120
هذا sum of square errors باستمرار
289
00:24:12,120 --> 00:24:20,060
هذا الـ sum من
290
00:24:20,060 --> 00:24:26,520
واحد للي بعده، إما في ازدياد، يعني في الأول كان الـ
291
00:24:26,520 --> 00:24:30,780
sum نقول مثلاً تلاتة، بعدين صار أربعة، بعدين صار خمسة،
292
00:24:30,780 --> 00:24:31,280
بعدين ستة،
293
00:24:35,780 --> 00:24:45,980
بيزيد، أو الـ axis أنه في نزول، يعني الـ sum تبع هذا
294
00:24:45,980 --> 00:24:49,400
الـ epoch أقل من اللي قبله، واللي بعده أقل، واللي
295
00:24:49,400 --> 00:24:53,220
بعده أقل، جاي بتنقص، هذا الكلام مش معناته، معناته لما
296
00:24:53,220 --> 00:24:58,800
أنا بقى آخذ الفرق، من تلاتة ناقص أربعة بيطلع ناقص
297
00:24:58,800 --> 00:25:02,220
واحد، أربعة ناقص خمسة بيطلع ناقص واحد، دائماً.. دائماً
298
00:25:02,220 --> 00:25:09,020
..دائماً الفرق.. دائماً الفرق إشارته بالسالب، وهنا
299
00:25:09,020 --> 00:25:13,620
نفس الشيء برضه، سواء كان هو صعوداً أو هبوطاً، لما أنا
300
00:25:13,620 --> 00:25:17,500
أجي أقول مثلاً هذه عشرة، واللي بعدها تسعة، واللي بعدها
301
00:25:17,500 --> 00:25:21,800
ثمانية، عشرة ناقص تسعة واحد، تسعة ناقص ثمانية واحد،
302
00:25:21,800 --> 00:25:29,120
فالفرق دائماً إشارته موجبة، هنا دائماً إشارته السالبة،
303
00:25:31,690 --> 00:25:37,390
إذا دائماً هيك.. إذا دائماً.. إذا الـ change of the
304
00:25:37,390 --> 00:25:42,510
sum of square.. change.. الـ change.. التغير
305
00:25:42,510 --> 00:25:45,510
يعني هنا من عشرة إلى تسعة، وتسعة، إذا دائماً هذا الـ
306
00:25:45,510 --> 00:25:49,130
change.. كيف أنا بأحسب الـ change؟ بأخذ الفرق، إذا
307
00:25:49,130 --> 00:25:54,310
دائماً هذا الفرق بحافظ على نفس الـ sign، نفس الإشارة،
308
00:25:54,310 --> 00:25:58,190
إما دائماً موجبة أو دائماً سالبة، يبقى أنا في عندي
309
00:25:58,190 --> 00:26:03,250
اضطراد، أنا في عندي حاجة اسمها الـ.. الـ.. الـ.. الـ
310
00:26:03,250 --> 00:26:05,830
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
311
00:26:05,830 --> 00:26:06,070
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
312
00:26:06,070 --> 00:26:06,150
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
313
00:26:06,150 --> 00:26:06,370
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
314
00:26:06,370 --> 00:26:06,690
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
315
00:26:06,690 --> 00:26:07,830
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
316
00:26:07,830 --> 00:26:07,950
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
317
00:26:07,950 --> 00:26:11,010
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
318
00:26:11,010 --> 00:26:15,430
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
319
00:26:15,430 --> 00:26:20,430
الـ..
320
00:26:20,430 --> 00:26:26,230
الـ.. في الـ sum of square errors، يبقى
321
00:26:26,230 --> 00:26:33,570
أنا المفروض أسرّع، أزيد الـ alpha، فإذا كان اختصر هذا
322
00:26:33,570 --> 00:26:39,770
الـ linguistic كالتالي: إذا كانت الـ sign of sum of
323
00:26:39,770 --> 00:26:42,570
square errors لا يوجد الاختصار
324
00:26:51,530 --> 00:26:54,230
وبعدها كلمة stable، ايش يعني stable؟ يعني ما فيش
325
00:26:54,230 --> 00:26:59,310
فيها تذبذب، مش مرة زائد ومرة ناقص، يعني مش أنه مرة
326
00:26:59,310 --> 00:27:05,390
تلاقي هيك، هنا الفرق هذا ناقص هذا سالب، سالب، بعد هيك
327
00:27:05,390 --> 00:27:09,710
الفرق صار موجب، مظبوط؟ هنا ما فيش فرق، هنا صار سالب
328
00:27:09,710 --> 00:27:13,110
سالب، سالب، هنا موجب، هذا تذبذب في ايش؟ في الـ sign
329
00:27:13,110 --> 00:27:21,150
إذا كان الـ sign is stable، فايش بسوي؟ increase alpha،
330
00:27:22,950 --> 00:27:25,930
ألفا اللي هي learning rate، وشفتوها في واحدة من
331
00:27:25,930 --> 00:27:30,210
الأمثلة كانت 0.1، increase يعني بخليها 0.2 مثلاً،
332
00:27:30,210 --> 00:27:36,270
بخليها 0.3 أو بقيت وأقول بدي أضربها، دائماً بزيدها
333
00:27:36,270 --> 00:27:43,910
بـ 5%، يعني 0.1 بدي أضيف 0.105، يعني بخلي، بمختصر أن
334
00:27:43,910 --> 00:27:51,070
ألفا تساوي ألفا ضرب 1.05، هذا معناته بزيدها بـ 5%،
335
00:27:52,090 --> 00:27:57,250
ممكن أقول لأ، ده زي ده 15%، ممكن أقول ده زي ده 25%،
336
00:27:57,250 --> 00:28:02,350
المهم أنا بقى بأثبت، نسبة زيادة، امتى بزيد، امتى
337
00:28:02,350 --> 00:28:05,290
بقى بضبط، ده الكلام لما قال لي أنه الـ sign ثابت،
338
00:28:05,290 --> 00:28:12,790
العكس من ذلك، إذا الـ algebraic sign of الـ change الـ
339
00:28:12,790 --> 00:28:16,950
change اللي هو يعني مقصود يتغير في الـ alternates،
340
00:28:16,950 --> 00:28:21,190
session alternates، يتذبذب، مرة آخر مرة موجبة، مرة
341
00:28:21,190 --> 00:28:25,760
سالبة، اللي هو معناه ذلك.. معناه ذلك في عندي الـ..
342
00:28:25,760 --> 00:28:31,620
الـ network مرة بتقترب.. مرة بتقترب وبتقلل الـ error
343
00:28:31,620 --> 00:28:36,780
و مرة بتبعد، فجأة غيرت الأوزان بشكل كبير، صار يطلع
344
00:28:36,780 --> 00:28:41,570
معها error وبعدين كانت مقتربة، بس ايش؟ التغيير
345
00:28:41,570 --> 00:28:45,550
اللي حصل كان تغيير كبير في الأوزان، خلها تفشل عن..
346
00:28:45,550 --> 00:28:50,290
زي ما هم بيقولوها، تخطي الصواب، وصارت الاشياء تبعد، و
347
00:28:50,290 --> 00:28:54,430
بعدين صارت تتردد ثانية، بس لما ردت ما رجعتش على الصواب،
348
00:28:54,430 --> 00:28:57,890
فشلت عنه بـ.. فصار.. فايش فيه مشكلة؟ المشكلة أنها
349
00:28:57,890 --> 00:29:01,450
بتخطي خطوات واسعة، فأنا بضيق الخطوات هذه، كيف بضيق
350
00:29:01,450 --> 00:29:08,770
الخطوات؟ بنزل الاشياء، الـ alpha، الـ learning rate، فإذا
351
00:29:08,770 --> 00:29:19,460
كان الـ sign خلاص، فأقول إذا هي مش stable sign
352
00:29:19,460 --> 00:29:25,700
of SSE alternates،
353
00:29:25,700 --> 00:29:29,960
معناه
354
00:29:29,960 --> 00:29:34,880
ذلك، decrease ألفا،
355
00:29:34,880 --> 00:29:39,830
decrease ألفا، برضه يكون عندي كمان، بتقدر تتخيل يعني
356
00:29:39,830 --> 00:29:48,910
هنا هو مثلاً الـ decrease،
357
00:29:48,910 --> 00:29:56,070
بأنه بضربها بـ 70%، بـ 7 من 10، يعني بنزلها 30%، تمام؟ و
358
00:29:56,070 --> 00:30:03,790
الـ increase بضربها في 1.05، واضح؟ تمام؟ فهنا
359
00:30:03,790 --> 00:30:10,570
بوريلك كيف أنه هاي الـ Epochs ماشية، وفي ده الـ دي
360
00:30:10,570 --> 00:30:18,250
الـ learning rate قاعد بتساعد نتيجة تطبيق ايش؟ هذي
361
00:30:18,250 --> 00:30:23,250
تمام؟ قاعد بيحسب لك أنه الـ error، الـ software
362
00:30:23,250 --> 00:30:26,810
errors قاعد في النازل، صح؟ في النازل، يعني إشارته
363
00:30:26,810 --> 00:30:32,170
دائماً موجبة، مظبوط؟ بقى أطرح السابق، وبقى أطرح منه
364
00:30:32,170 --> 00:30:37,960
اللاحق، وطلع موجب، فهو بسبب أنه هذا موجب، التغير
365
00:30:37,960 --> 00:30:44,780
موجب، اه التغير موجب، فهو عمال بيرفع، ليش؟ في اللي
366
00:30:44,780 --> 00:30:49,000
عند حد معين، جاب
367
00:30:49,000 --> 00:30:53,540
الـ الـ
368
00:30:53,540 --> 00:30:59,840
alpha بدأت تنزل، و نزولها، لأن وضعها في 0.7، النزول
369
00:30:59,840 --> 00:31:04,000
أسرع أو أشد من الصعود، صعود تدريجي بسيط 5% كل مرة،
370
00:31:04,000 --> 00:31:11,240
إنما هنا 30% كل مرة، فبدأت تنزل نزلة جامدة، مين هي
371
00:31:11,240 --> 00:31:14,980
اللي هو الـ learning rate نزل نزل جامدة، مع النزلة
372
00:31:14,980 --> 00:31:20,640
هذه، بدأ يقترب من ايش؟ من، بوريك فعلياً هذا الأسلوب
373
00:31:20,640 --> 00:31:22,440
في الاقتراب من
374
00:31:25,600 --> 00:31:33,420
من الـ error المخفض بوقت أقل، 100 epoch بدلاً من 126
375
00:31:33,420 --> 00:31:39,920
epoch، هذا
376
00:31:39,920 --> 00:31:45,280
الآن استخدم الـ momentum مع برضه هذه الـ heuristic،
377
00:31:45,280 --> 00:31:48,960
إقبال adaptive، ايش يعني adaptive؟ يعني لما نقول
378
00:31:48,960 --> 00:31:53,100
adapter، ايش يعني adapter؟ يعني محول، adaptive يعني
379
00:31:53,100 --> 00:31:58,260
أنه يتحول ويغير من تلقاء نفسه، ماهو اللي بتغير من
380
00:31:58,260 --> 00:32:02,240
تلقاء نفسه الـ learning rate لوحده بناء على
381
00:32:02,240 --> 00:32:07,980
استشعاره لـ sign تبع من الـ sum of square arrows،
382
00:32:07,980 --> 00:32:12,180
هو نفسه من تلقاء نفسها الـ network بتغير في الـ
383
00:32:12,180 --> 00:32:15,460
learning rate تبعها، عشان ذلك اسم هذا الكلام
384
00:32:15,460 --> 00:32:19,680
adaptive learning، فلما اندمج الـ two techniques الـ
385
00:32:19,680 --> 00:32:26,480
adaptive learning مع الـ momentum، صار عندي اختصار
386
00:32:26,480 --> 00:32:32,160
لسه أكثر، صرنا بنصل إلى
387
00:32:32,160 --> 00:32:35,780
الـ zero
388
00:32:35,780 --> 00:32:41,280
تقريباً error، ومعناه مش zero، هذا الكلام واحد من ألف، نقص
389
00:32:41,280 --> 00:32:45,580
ألف، نقص ثلاث يعني واحد من الألف، يعني مش zero،
390
00:32:46,700 --> 00:32:50,940
ما بدناش بالظبط 0، يعني ممكن تبقى صعب جداً أنّه الـ
391
00:32:50,940 --> |