File size: 37,702 Bytes
97e683e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1
00:00:20,650 --> 00:00:23,110
بسم الله الرحمن الرحيم، احنا اليوم إن شاء الله بدنا

2
00:00:23,110 --> 00:00:26,450
نكمل الموضوع اللي فتحناه قبل هيك في المحاضرات

3
00:00:26,450 --> 00:00:32,610
الماضية، اللي هو الـ artificial neural networks الـ

4
00:00:32,610 --> 00:00:35,670
supervised learning باستخدام الـ artificial neural

5
00:00:35,670 --> 00:00:42,570
networks. كنا في المحاضرة الماضية حكينا عن اللي هو

6
00:00:42,570 --> 00:00:48,290
الـ Perceptron، وشوفنا آلية عمله، وآلية

7
00:00:48,290 --> 00:00:53,090
التعلم اللي هي مقصودة بالتعديل الوزني، وبعدين

8
00:00:53,090 --> 00:00:57,270
كمان أيضًا طلعنا على الـ multi-layered networks الـ

9
00:00:57,270 --> 00:01:00,270
multi-layered networks اللي هي عبارة عن شبكة من الـ

10
00:01:00,270 --> 00:01:05,850
perceptrons. الشبكة هذه مُهيكلة على أساس layers، والـ

11
00:01:05,850 --> 00:01:08,890
layers، كل layer فيها مجموعة من الـ perceptrons

12
00:01:08,890 --> 00:01:13,090
بتغذي المجموعة اللي بعدها، أو الـ layer اللي بعدها،

13
00:01:14,080 --> 00:01:18,840
وشوفنا آلية التعلم في الـ multilayer networks،

14
00:01:18,840 --> 00:01:23,080
صح، آلية التعلم المُتّبعة بها مرة أخرى، اللي هي آلية

15
00:01:23,080 --> 00:01:27,420
تعديل الأوزان، وشوفنا كيف بتختلف آلية تعديل الأوزان

16
00:01:27,420 --> 00:01:36,000
في الـ output layer عنّها في الـ hidden layer، صح الآن؟

17
00:01:36,000 --> 00:01:40,290
احنا بدنا نلقي نظرة أخيرة على الـ multilayer

18
00:01:40,290 --> 00:01:44,510
networks، بعدين بنحكي في جزئية صغيرة، اللي هي الـ

19
00:01:44,510 --> 00:01:48,610
accelerating، اللي هي النقطة هذه، ماضحة النقطة هذه،

20
00:01:48,610 --> 00:01:53,170
اللي هي accelerated learning، المقصود بها تسريع

21
00:01:53,170 --> 00:01:56,710
عملية التعلم. عملية التعلم احنا فاهمين إنها بتحصل

22
00:01:56,710 --> 00:02:04,390
على شكل ايش؟ iterations. iterations، مظبوط، وسمينا كل

23
00:02:04,390 --> 00:02:08,630
مجموعة من الـ iterations سمينها epoch، صح؟ الـ Epoch هو

24
00:02:08,630 --> 00:02:14,970
دفعة، أو short من الـ iterations. عملية التسريع هو

25
00:02:14,970 --> 00:02:21,870
تقليل عدد الـ iterations. بدل من أن الـ network تأخذ

26
00:02:21,870 --> 00:02:29,940
400 دورة، 400 iterations قبل أن تستقر الأوزان، لما

27
00:02:29,940 --> 00:02:33,020
بنقول احنا بدنا نسرّع عملية التعلم، معناه ذلك

28
00:02:33,020 --> 00:02:36,240
الـ 400 هدول بدنا نختصرهم، أو نُقلّلهم إلى 300،

29
00:02:36,240 --> 00:02:42,100
إلى 200، إلى 100 ربما، بدون أن نُنقص من دقة

30
00:02:42,100 --> 00:02:48,290
التعلم. هذه النقطة اللي هي المقصود بها اللي هو

31
00:02:48,290 --> 00:02:52,730
accelerated learning، أو ممكن نقول accelerating الـ

32
00:02:52,730 --> 00:02:55,570
learning، يعني تسريع التعلم في الـ multi neural

33
00:02:55,570 --> 00:02:59,390
networks. بعد ما نخلص النقطة هذه إن شاء الله، بنتطلع

34
00:02:59,390 --> 00:03:03,250
على الـ Hopfield network والـ BAM، اللي هي

35
00:03:03,250 --> 00:03:07,010
bidirectional associative memories. هدول نوعين من

36
00:03:07,010 --> 00:03:13,420
الـ artificial neural networks اللي بينطوروا تحت إطار

37
00:03:13,420 --> 00:03:18,200
اللي هو supervised learning. طيب، إيش قلنا بدنا

38
00:03:18,200 --> 00:03:20,640
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على الـ

39
00:03:20,640 --> 00:03:23,920
multilayer neural networks اللي كنا حكينا فيها من

40
00:03:23,920 --> 00:03:28,400
قبل. بدنا نرجع على طريقة الـ slide اللي فيها الـ

41
00:03:28,400 --> 00:03:34,040
example اللي تبعه، تتذكروا تبع إيش؟ تبع تدريب الـ

42
00:03:34,040 --> 00:03:41,100
network على اللي هو الـ XOR، الـ XOR gate أو الـ XOR

43
00:03:41,100 --> 00:03:44,900
function، ذاكرين؟

44
00:03:44,900 --> 00:03:49,700
هذا المثال. اما كنا بنحكي إنه هاي الـ neural network

45
00:03:49,700 --> 00:03:54,920
في عندنا الثلاث nodes، هدول node رقم ثلاثة ورقم

46
00:03:54,920 --> 00:03:58,020
أربعة، هدول تابعين لإيش؟ للـ layer، الـ hidden layer،

47
00:03:58,020 --> 00:04:03,460
مظبوط، الـ hidden layer، صح؟ والـ output layer إيش

48
00:04:03,460 --> 00:04:07,660
فيها؟ فيها node واحدة، اللي هي node number five، صح؟

49
00:04:07,660 --> 00:04:13,200
لأن الـ input بيدخل بـ X1 و X2 على node number one و

50
00:04:13,200 --> 00:04:16,700
node number two. ملاحظين هدول الـ two nodes شكلهم

51
00:04:16,700 --> 00:04:22,780
مربع، لتمييزهم عن من عن الـ nodes الأخرى. مميزين بإيش؟

52
00:04:22,780 --> 00:04:26,300
إيش الفرق ما بينهم؟ إن هدول ما بيعملوش أي

53
00:04:27,210 --> 00:04:31,330
calculations، ما بيعملوش أي computation، صح؟ مجرد اللي

54
00:04:31,330 --> 00:04:35,890
بيدخل عليهم بيتوزع على مين؟ على اللي بعدهم، okay؟ يبقى احنا

55
00:04:35,890 --> 00:04:39,730
عمليًا في المثال هذا، يوم ما بدنا نيجي نحسب ونعدّ

56
00:04:39,730 --> 00:04:42,990
الأوزان، ونعد الأوزان، بس ثلاثة وأربعة وخمسة،

57
00:04:42,990 --> 00:04:47,470
مظبوط، بنبدأ من مين؟ من الخمسة في الأول بالظبط، لأن

58
00:04:47,470 --> 00:04:52,080
الخمسة هي اللي عندها desired output، وهي اللي بتقدر

59
00:04:52,080 --> 00:04:55,460
تعرف الـ error أو تحسب الـ error، وبعدها بتطلع الـ

60
00:04:55,460 --> 00:04:59,420
error، بتعدّل أوزانها، وبعدها بترحل الـ error

61
00:04:59,420 --> 00:05:02,820
gradient إلى مين؟ إلى ثلاثة وأربعة، الـ error

62
00:05:02,820 --> 00:05:07,900
gradient اللي ذكرناه هو small delta، بترحل إلى ثلاثة

63
00:05:07,900 --> 00:05:10,740
وإلى أربعة، عشان كل واحدة منهم، ثلاثة وأربعة، تحسب

64
00:05:10,740 --> 00:05:15,230
الـ error تبعها، الـ error gradient تبعها، يعني عشان

65
00:05:15,230 --> 00:05:18,730
تعدّل أوزانها بناء عليه. هذا الكلام هو total طبعًا،

66
00:05:18,730 --> 00:05:22,710
هنا في الـ slide هذه، بيعطيك الـ initial values تبع

67
00:05:22,710 --> 00:05:30,390
الـ إيش؟ الأوزان،

68
00:05:30,390 --> 00:05:34,230
والـ threshold،

69
00:05:34,230 --> 00:05:41,980
that theta، صح؟ مظبوط؟ بعد ذلك، هنا بيبدأ الحساب. أول

70
00:05:41,980 --> 00:05:46,260
شيء، بيحسب الـ Y3، الـ output اللي بده يطلع من Y3،

71
00:05:46,260 --> 00:05:53,100
مظبوط، بس احنا قلنا أول حاجة، بدنا نعدّل الأوزان

72
00:05:53,100 --> 00:05:59,840
فيها على Y5. طب ليش بدأنا في Y3 و Y4؟ لأن Y5

73
00:06:01,600 --> 00:06:05,000
بتعرف كيف تحسب الـ output تبعها، لازم يجيها input من

74
00:06:05,000 --> 00:06:09,120
وين؟ بتجيها الـ input من Y3 و Y4. يبقى لازم أحسب Y3 و

75
00:06:09,120 --> 00:06:13,800
Y4، ليش؟ بدهم يطلعوا عشان نُسَلّم لـ Y5، عشان Y5 تحسب

76
00:06:13,800 --> 00:06:16,580
الـ output تبعها. تبعها، دلوقت، لأن شوف إيش فيه error،

77
00:06:16,580 --> 00:06:22,180
ويتراح تاني، يعني احنا forward propagation

78
00:06:22,180 --> 00:06:26,140
of data، و backward propagation of error

79
00:06:26,140 --> 00:06:31,070
information، صح؟ okay، هي الآن، بعد ما طلعنا  ...

80
00:06:31,070 --> 00:06:34,050
من حسبنا، وطبعًا حسبنا الـ activation

81
00:06:34,050 --> 00:06:37,870
function، استخدمنا اللي هي الـ sigmoid، الـ sigmoid،

82
00:06:37,870 --> 00:06:41,270
طبعًا، يوم ما يكون في عندك مثال أو امتحان أو كده، الـ

83
00:06:41,270 --> 00:06:44,830
formula حتبدو مألوفة لك أنت، بس مجرد إيش؟ بتاخد

84
00:06:44,830 --> 00:06:48,110
الأرقام وبتطلع الـ output. الـ output، لأن الـ sigmoid

85
00:06:48,110 --> 00:06:51,330
بتطلع continuous values، يعني إيش؟ يعني أرقام عشرية،

86
00:06:51,330 --> 00:06:58,750
مش binary زي مين؟ زي الـ step function، و ليش؟ بالـ pulse

87
00:06:58,750 --> 00:07:04,010
function، صح؟ okay، فَالآن هذه الـ continuous values،

88
00:07:04,010 --> 00:07:07,870
أو الـ real values، أو الـ float values، بتدخل على مين؟

89
00:07:07,870 --> 00:07:12,350
على Y5، تنضرب في الأوزان تبعها، وتُؤخذ مع الـ

90
00:07:12,350 --> 00:07:16,750
threshold عشان تطلع الـ output تبع Y5. من هنا الآن،

91
00:07:16,750 --> 00:07:20,610
نبدأ نشوف ليش الـ error، الـ error اللي أنا بحسبه هو

92
00:07:20,610 --> 00:07:24,610
عبارة عن ببساطة الـ difference ما بين الـ desired، الـ

93
00:07:24,610 --> 00:07:32,080
desired، لما يكون عندي أنا الـ X واحد، X واحد،

94
00:07:32,080 --> 00:07:36,240
أنا بقصد هنا X واحد و X اثنين، الاثنين الـ input، الـ

95
00:07:36,240 --> 00:07:41,340
value تبعهم one one، لازم الـ XOR function

96
00:07:41,340 --> 00:07:42,120
تعطيني إيش؟

97
00:07:50,560 --> 00:07:54,460
Y5 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا

98
00:07:54,460 --> 00:07:56,580
في الـ calculation هذا، يفترض أن يكون zero، بس ما هو

99
00:07:56,580 --> 00:07:56,920
اللي بيطلع معنا هنا في الـ calculation هذا، يفترض أن

100
00:07:56,920 --> 00:07:56,960
يكون zero، بس ما هو اللي بيطلع معنا هنا في الـ

101
00:07:56,960 --> 00:08:03,540
calculation هذا، يفترض أن يكون zero، بس

102
00:08:03,540 --> 00:08:05,000
ما هو اللي بيطلع معنا هنا في الـ calculation هذا،

103
00:08:05,000 --> 00:08:06,320
يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا في

104
00:08:07,180 --> 00:08:09,700
الـ small delta تبع هذه الخمسة، اللي هي إيش اسمها؟

105
00:08:09,700 --> 00:08:13,220
الـ error gradient. شوف أنا وين بقصد هنا الـ error

106
00:08:13,220 --> 00:08:18,200
gradient، إذا ذكرتوا هذا المصطلح، إن هو الـ small

107
00:08:18,200 --> 00:08:23,070
delta، الـ error gradient هذا لما بنحسبه، بعد هيك، على

108
00:08:23,070 --> 00:08:27,630
أساسه، بتتعدّل الأوزان، الأوزان تبعون الـ inputs اللي

109
00:08:27,630 --> 00:08:33,890
داخلة على Y خمسة، صح؟ من هم هدول الأوزان؟ W ثلاثة

110
00:08:33,890 --> 00:08:38,190
خمسة، و W أربعة خمسة. ليش بسمّيهم هيك؟ لأن واحد منهم

111
00:08:38,190 --> 00:08:42,670
جاي من ثلاثة إلى خمسة، والثاني جاي من أربعة إلى

112
00:08:42,670 --> 00:08:47,470
خمسة، أو الأصح إن احنا نقول واحد منهم هو وزن الـ

113
00:08:47,470 --> 00:08:51,610
input اللي جاي من ثلاثة إلى خمسة، والثاني هو وزن الـ

114
00:08:51,610 --> 00:08:56,910
input اللي جاي من أربعة إلى خمسة، صح؟ طبعًا. فأول شيء

115
00:08:56,910 --> 00:09:00,370
عشان نعدّل الأوزان، نحسب الـ delta تبع الوزن، مقدار

116
00:09:00,370 --> 00:09:08,390
التغيير، بعدين بنضيفه على الـ current، أو الـ weight،

117
00:09:08,390 --> 00:09:13,250
الوزن الحالي، عشان يطلع معنا وزن جديد. نفس الشيء

118
00:09:13,250 --> 00:09:18,000
بنعمله لمين؟ للـ Theta، للـ Threshold. لاحظوا أن

119
00:09:18,000 --> 00:09:20,900
عملية تعديل الأوزان ببساطة شديدة، يعني الـ Delta،

120
00:09:20,900 --> 00:09:22,880
بيصير عبارة عن الـ Alpha اللي هو الـ learning rate،

121
00:09:22,880 --> 00:09:28,920
مضروب في قيمة الـ input اللي بيخش عبر هذا

122
00:09:28,920 --> 00:09:33,740
الوزن، مضروب في الـ Delta، small Delta اللي هي الـ

123
00:09:33,740 --> 00:09:38,840
Delta 5. فهي Delta 5 موجودة في الثلاث حسابات،

124
00:09:40,110 --> 00:09:44,130
طيب، هذا الكلام إيش خلّصنا فيه؟ هذا الكلام بس لحساب

125
00:09:44,130 --> 00:09:48,210
الأوزان تبع input اللي داخلة على مين؟ على

126
00:09:48,210 --> 00:09:52,450
Y5. لازم نعيد نفس الشيء للـ inputs اللي داخلة على

127
00:09:52,450 --> 00:10:01,630
Y3 و Y4، صح؟ okay، هذا الكلام نفس القوانين، بس طبعًا

128
00:10:01,630 --> 00:10:05,270
لازم في الأول، كل واحدة من Y3 و Y5 تحسب الـ error

129
00:10:05,270 --> 00:10:09,520
gradient تبعها، اللي هو الـ small delta تبعها، وبعدين

130
00:10:09,520 --> 00:10:15,220
عليه، small delta بتدخل

131
00:10:15,220 --> 00:10:19,040
في حساب الأوزان اللي رايحة على ثلاثة، وبعدين small

132
00:10:19,040 --> 00:10:21,860
delta تبع أربعة بتدخل في حساب الأوزان اللي رايحة

133
00:10:21,860 --> 00:10:29,800
على أربعة. أنا الآن بدل ما إني طبعًا هنا بعد هيك،

134
00:10:29,800 --> 00:10:35,020
الأوزان، اللي هو W واحد ثلاثة، W واحد أربعة،

135
00:10:35,020 --> 00:10:37,840
W اثنين ثلاثة، W اثنين أربعة، W ثلاثة خمسة،

136
00:10:37,840 --> 00:10:44,500
W ثلاثة أربعة. okay، بدل أنا الآن نمُرّ بهذا الحساب

137
00:10:44,500 --> 00:10:48,900
خطوة خطوة، لأ، أنا بدي أجيب وأقول لك الآن، اعتبر أنت

138
00:10:48,900 --> 00:10:53,340
بدك تكمل المثال هذا، الـ iteration اللي بعد هذه، الـ

139
00:10:53,340 --> 00:10:56,880
iteration الأولى، ولا لأ؟ لأن هذه الـ iteration إنبنت

140
00:10:56,880 --> 00:11:01,760
على الـ initial، الـ initial values تبع الأوزان،

141
00:11:01,760 --> 00:11:07,610
مظبوط. أنت الآن خذ هذا، وخذ الـ input اللي بعده، مين؟

142
00:11:07,610 --> 00:11:09,750
الـ input اللي بعده، إذا كان الـ input الأولاني كان

143
00:11:09,750 --> 00:11:17,430
one one، خذ zero one، X1 بـ zero و X2 بـ one، وعيّد

144
00:11:17,430 --> 00:11:25,890
الكرة من جديد، بالأوزان اللي هذه اللي نتجت من نهاية

145
00:11:25,890 --> 00:11:28,390
الـ iteration الأولى. أنت الآن بدك تحسب الـ iteration

146
00:11:28,390 --> 00:11:33,310
الثانية، بتقدر تعمل هذا الكلام ولا لا؟ بتقدر، إذا

147
00:11:33,310 --> 00:11:37,740
أعطيناك homework إن شاء الله بتقدر. لأ، فخلاص هي الآن

148
00:11:37,740 --> 00:11:42,260
homework. هي الآن homework مطلوب منك إيش تسوي؟ تعيد

149
00:11:42,260 --> 00:11:47,140
الكلام ده كله، للـ iteration number two، عشان تطلع

150
00:11:47,140 --> 00:11:52,140
إيش في الآخر؟ الأوزان. يعني في الآخر بدك تطلع صفحة

151
00:11:52,140 --> 00:11:59,710
زي هيك، فيها أوزان جديدة، اللي بدها تكون عندك اللي هو

152
00:11:59,710 --> 00:12:02,110
الـ iteration الثاني، في نهاية الـ iteration الثاني،

153
00:12:02,110 --> 00:12:05,870
إيش حتكون قيمة الأوزان الجديدة، والثresholds

154
00:12:05,870 --> 00:12:11,430
الجديدة، okay؟ طيب، هيك بنكون احنا ألقينا النظر الأخير

155
00:12:11,430 --> 00:12:16,470
على عملية الـ back propagation learning. واضح ليش

156
00:12:16,470 --> 00:12:20,150
اسمها back propagation؟ لأن احنا بنرجع الـ error

157
00:12:20,150 --> 00:12:25,100
لَوراء على الـ layers، من الـ output إلى الـ hidden، الـ

158
00:12:25,100 --> 00:12:28,600
hidden، طبعًا ممكن تبقى layer واحدة، أو أكتر من، ممكن

159
00:12:28,600 --> 00:12:33,880
two hidden layers، ماشي؟

160
00:12:33,880 --> 00:12:37,240
هاد الآن احنا بدنا نحكي في الـ acceleration، كيف

161
00:12:37,240 --> 00:12:44,540
يمكن تسريع، التسريع الـ learning هذا، الـ curve لو

162
00:12:44,540 --> 00:12:50,300
لاحظت عليه، إيش بيمثل؟ علاقة إيش بإيش؟ هنا epoch،  بقول

163
00:12:50,300 --> 00:12:53,940
iterations، لأن الـ epoch الواحد هي مجموعة iterations،

164
00:12:53,940 --> 00:12:57,300
فأنا هنا من zero،  عشان 50، 100، 150، 200،

165
00:12:57,300 --> 00:13:02,580
أقصد بها إيش؟ 200 iterations، 150

166
00:13:02,580 --> 00:13:07,980
iterations. كل ما بزيد عدد الـ iterations يفترض أن

167
00:13:07,980 --> 00:13:15,020
الـ error إيش بيصير فيه؟ بيقل، بيتناقص. احنا الآن الـ

168
00:13:15,020 --> 00:13:18,490
error، أحيانًا الـ network بتبقى الـ output layer

169
00:13:18,490 --> 00:13:23,890
تبعها فيها node واحدة، فهو error واحد، مظبوط؟

170
00:13:23,890 --> 00:13:28,410
أحيانًا بيبقى الـ layer الأخيرة بيبقى فيها عدد من

171
00:13:29,090 --> 00:13:32,310
nodes، وبالتالي الـ error، في عندي error للأولى، error

172
00:13:32,

223
00:17:32,980 --> 00:17:39,640
foundation لِ.. لِ.. لِيش؟

224
00:17:41,620 --> 00:17:46,340
لِـ course يكون في الجزء النظري أكثر فإحنا الآن

225
00:17:46,340 --> 00:17:49,560
بدنا ننتقل على هذه هي الطريقة الأولى، هذه الطريقة

226
00:17:49,560 --> 00:17:53,880
الأولى لتسريع عملية التعلم، طريقة ثانية، اللي هو

227
00:17:53,880 --> 00:17:57,300
إحنا نستخدم حاجة اسمها momentum term، انظر على

228
00:17:57,300 --> 00:18:01,860
المعادلة هذه، انظر على الشق هذا، هل الشق هذا شفناه

229
00:18:01,860 --> 00:18:05,600
قبل هيك؟ أول شيء، أيش اللي على اليسار؟ اللي يساوي

230
00:18:05,600 --> 00:18:12,400
اللي هو الـ delta W، اللي هو ايش؟ فرق الوزن بالعادة

231
00:18:12,400 --> 00:18:16,380
احنا بنعرف أن فرق الوزن هو في المحصلة هيك، بس مجرد

232
00:18:16,380 --> 00:18:21,280
الـ alpha مضروبة في الـ input مضروبة في small delta

233
00:18:21,280 --> 00:18:25,700
لِأذكركم في هذا الكلام، هيتوا، ارجع هنا ورا شوية

234
00:18:25,700 --> 00:18:30,980
ارجع هنا ورا شوية، هيتوا، هي delta صح؟ عبارة عن ايش؟

235
00:18:30,980 --> 00:18:35,450
alpha مضروبة في XX اللي هي الـ input مضروبة في

236
00:18:35,450 --> 00:18:38,410
دلتا دلتا اللي هي error gradient تبع الـ node نفسها

237
00:18:38,410 --> 00:18:43,530
اللي نحسب لها تلاتة أو زمن الداخلة عليها من واحد و

238
00:18:43,530 --> 00:18:53,830
من اتنين، مبدئياً للي مش حافظ، تعديل الوزن delta w هي

239
00:18:53,830 --> 00:18:56,690
عبارة عن ببساطة learning rate

240
00:18:59,110 --> 00:19:02,870
مضروب في الـ input اللي داخل على الـ node من هذا

241
00:19:02,870 --> 00:19:07,810
الوزن مضروب في الـ gradient، طيب ايش الاستخدام؟

242
00:19:07,810 --> 00:19:11,710
الاستخدام هذا، الـ band هذا أو هذا الـ term هذا، الـ

243
00:19:11,710 --> 00:19:14,790
term اللي هو الـ momentum term، momentum يعني الدفع

244
00:19:14,790 --> 00:19:18,450
بيعطي الدفع لعملية التعلم، هو ببساطة شديدة عبارة

245
00:19:18,450 --> 00:19:22,970
عن beta، هي عبارة عن constant صغير ما بين الـ zero

246
00:19:22,970 --> 00:19:28,630
والواحد، مضروب في ايش؟ مضروب في ايش؟ في الـ delta

247
00:19:28,630 --> 00:19:33,190
point، يعني بدنا الآن الـ network تتذكر الـ delta

248
00:19:33,190 --> 00:19:39,050
السابق، احنا نحسب الـ delta تبع P و بنقول أنه بدنا

249
00:19:39,050 --> 00:19:44,210
الـ delta تبع P ناقص واحد، يعني ايش؟ الـ delta السابق

250
00:19:44,210 --> 00:19:50,310
مش الوزن السابق، مش W، لأ، delta W، بدنا ناخده هذا

251
00:19:51,510 --> 00:19:57,390
نحتفظ فيه للدورة اللاحقة، عشان نضربه في مين؟ في الـ

252
00:19:57,390 --> 00:20:04,590
beta، هذا الكلام بشكل دفع لمين؟ لعملية التعلم، وهذا

253
00:20:04,590 --> 00:20:11,070
الـ beta قيمة تتراوح من zero لواحد، عادة بتبدأ قريبة

254
00:20:11,070 --> 00:20:17,690
من الواحد، قريبة من الواحد، يعني 0.95 مثلاً، فهذا اللي

255
00:20:17,690 --> 00:20:18,150
هو الآن

256
00:20:27,380 --> 00:20:32,280
two methods أو two measures أو two steps أو two

257
00:20:32,280 --> 00:20:41,980
techniques، ليش؟ for accelerating، أول

258
00:20:41,980 --> 00:20:42,920
واحد، ايش كانت؟

259
00:21:01,740 --> 00:21:06,060
الثاني، استخدام ايش؟

260
00:21:06,060 --> 00:21:11,540
momentum constant term، لأ، الـ constant هو جزء من الـ

261
00:21:11,540 --> 00:21:15,100
term، هذا هو كله عبارة عن الـ momentum term، تتكون

262
00:21:15,100 --> 00:21:20,260
من حاجتين مضروبات في بعض، اللي هم الـ momentum

263
00:21:20,260 --> 00:21:26,540
constant اللي هي beta مضروبة في الـ W تبعت الـ

264
00:21:26,540 --> 00:21:34,100
iteration السابقة، هذا الـ term بينجمع على الـ term

265
00:21:34,100 --> 00:21:40,240
الأصلي تبع تعديل الأوزان، اللي هو الـ alpha مضروبة

266
00:21:40,240 --> 00:21:48,820
في الـ input مضروبة في الـ error gradient، error

267
00:21:48,820 --> 00:21:54,780
gradient اللي هي small delta، تمام؟

268
00:21:54,780 --> 00:21:57,800
ايش

269
00:21:57,800 --> 00:22:02,890
غير هذا؟ هدول طريقتين، اللي قلنا ايش؟ أو أسلوبين لـ

270
00:22:02,890 --> 00:22:10,710
accelerating learning، غير هيك، هذا المثال نفس

271
00:22:10,710 --> 00:22:20,270
المثال اللي قبل هيك، بوريك كيف الـ

272
00:22:20,270 --> 00:22:27,770
learning rate هنا ثابت، ما تغيرش، ثابت، و الـ error

273
00:22:27,770 --> 00:22:37,800
بينزل، الـ error بينزل، صار بدل ما أخدت بدل

274
00:22:37,800 --> 00:22:44,280
ما تاخد 200 iteration عشان يقترب الـ error من الـ

275
00:22:44,280 --> 00:22:52,340
zero، أخدت قديش؟ 126

276
00:22:52,340 --> 00:22:57,120
epoch أو iteration، مش مشكلة، المهم القصد أنه انضغط

277
00:22:57,120 --> 00:23:03,340
الأمر من 200 إلى 126، هذا باستخدام الـ momentum term

278
00:23:03,340 --> 00:23:11,320
لما أضيف الـ momentum term على تصميم formula تعديل

279
00:23:11,320 --> 00:23:18,920
الوزن، صار اختصر أو قلّ الوجد إلى 126 بدل 200

280
00:23:18,920 --> 00:23:25,340
إذن، الآن، إضافة إلى هذول الـ two techniques، رقم

281
00:23:25,340 --> 00:23:27,360
تلاتة، اللي هو الـ heuristics

282
00:23:33,520 --> 00:23:37,660
heuristics، هذول فيهم any tools rule بتقول إنه إذا

283
00:23:37,660 --> 00:23:43,780
كان أنا قاعد بأجمع اللي هو ايش؟ الـ sum of square

284
00:23:43,780 --> 00:23:46,940
errors، ايش هو الـ sum of square errors؟ بتذكرها لو

285
00:23:46,940 --> 00:23:51,040
لسه كنا نحكي، اللي هو بجمع الـ errors تبع كل الـ

286
00:23:51,040 --> 00:23:55,900
nodes و بربعها، أولا بأخذها، بربعها، بعدين بجمع

287
00:23:55,900 --> 00:24:01,900
مربعاتها، إذا من epoch لـ epoch، الـ sum of square errors

288
00:24:01,900 --> 00:24:12,120
هذا sum of square errors باستمرار

289
00:24:12,120 --> 00:24:20,060
هذا الـ sum من

290
00:24:20,060 --> 00:24:26,520
واحد للي بعده، إما في ازدياد، يعني في الأول كان الـ

291
00:24:26,520 --> 00:24:30,780
sum نقول مثلاً تلاتة، بعدين صار أربعة، بعدين صار خمسة،

292
00:24:30,780 --> 00:24:31,280
بعدين ستة،

293
00:24:35,780 --> 00:24:45,980
بيزيد، أو الـ axis أنه في نزول، يعني الـ sum تبع هذا

294
00:24:45,980 --> 00:24:49,400
الـ epoch أقل من اللي قبله، واللي بعده أقل، واللي

295
00:24:49,400 --> 00:24:53,220
بعده أقل، جاي بتنقص، هذا الكلام مش معناته، معناته لما

296
00:24:53,220 --> 00:24:58,800
أنا بقى آخذ الفرق، من تلاتة ناقص أربعة بيطلع ناقص

297
00:24:58,800 --> 00:25:02,220
واحد، أربعة ناقص خمسة بيطلع ناقص واحد، دائماً.. دائماً

298
00:25:02,220 --> 00:25:09,020
..دائماً الفرق.. دائماً الفرق إشارته بالسالب، وهنا

299
00:25:09,020 --> 00:25:13,620
نفس الشيء برضه، سواء كان هو صعوداً أو هبوطاً، لما أنا

300
00:25:13,620 --> 00:25:17,500
أجي أقول مثلاً هذه عشرة، واللي بعدها تسعة، واللي بعدها

301
00:25:17,500 --> 00:25:21,800
ثمانية، عشرة ناقص تسعة واحد، تسعة ناقص ثمانية واحد،

302
00:25:21,800 --> 00:25:29,120
فالفرق دائماً إشارته موجبة، هنا دائماً إشارته السالبة،

303
00:25:31,690 --> 00:25:37,390
إذا دائماً هيك.. إذا دائماً.. إذا الـ change of the

304
00:25:37,390 --> 00:25:42,510
sum of square.. change.. الـ change.. التغير

305
00:25:42,510 --> 00:25:45,510
يعني هنا من عشرة إلى تسعة، وتسعة، إذا دائماً هذا الـ

306
00:25:45,510 --> 00:25:49,130
change.. كيف أنا بأحسب الـ change؟ بأخذ الفرق، إذا

307
00:25:49,130 --> 00:25:54,310
دائماً هذا الفرق بحافظ على نفس الـ sign، نفس الإشارة،

308
00:25:54,310 --> 00:25:58,190
إما دائماً موجبة أو دائماً سالبة، يبقى أنا في عندي

309
00:25:58,190 --> 00:26:03,250
اضطراد، أنا في عندي حاجة اسمها الـ.. الـ.. الـ.. الـ

310
00:26:03,250 --> 00:26:05,830
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

311
00:26:05,830 --> 00:26:06,070
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ

312
00:26:06,070 --> 00:26:06,150
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

313
00:26:06,150 --> 00:26:06,370
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ

314
00:26:06,370 --> 00:26:06,690
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

315
00:26:06,690 --> 00:26:07,830
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ

316
00:26:07,830 --> 00:26:07,950
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

317
00:26:07,950 --> 00:26:11,010
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

318
00:26:11,010 --> 00:26:15,430
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..

319
00:26:15,430 --> 00:26:20,430
الـ..

320
00:26:20,430 --> 00:26:26,230
الـ.. في الـ sum of square errors، يبقى

321
00:26:26,230 --> 00:26:33,570
أنا المفروض أسرّع، أزيد الـ alpha، فإذا كان اختصر هذا

322
00:26:33,570 --> 00:26:39,770
الـ linguistic كالتالي: إذا كانت الـ sign of sum of

323
00:26:39,770 --> 00:26:42,570
square errors  لا يوجد الاختصار

324
00:26:51,530 --> 00:26:54,230
وبعدها كلمة stable، ايش يعني stable؟ يعني ما فيش

325
00:26:54,230 --> 00:26:59,310
فيها تذبذب، مش مرة زائد ومرة ناقص، يعني مش أنه مرة

326
00:26:59,310 --> 00:27:05,390
تلاقي هيك، هنا الفرق هذا ناقص هذا سالب، سالب، بعد هيك

327
00:27:05,390 --> 00:27:09,710
الفرق صار موجب، مظبوط؟ هنا ما فيش فرق، هنا صار سالب

328
00:27:09,710 --> 00:27:13,110
سالب، سالب، هنا موجب، هذا تذبذب في ايش؟ في الـ sign

329
00:27:13,110 --> 00:27:21,150
إذا كان الـ sign is stable، فايش بسوي؟ increase alpha،

330
00:27:22,950 --> 00:27:25,930
ألفا اللي هي learning rate، وشفتوها في واحدة من

331
00:27:25,930 --> 00:27:30,210
الأمثلة كانت 0.1، increase يعني بخليها 0.2 مثلاً،

332
00:27:30,210 --> 00:27:36,270
بخليها 0.3 أو بقيت وأقول بدي أضربها، دائماً بزيدها

333
00:27:36,270 --> 00:27:43,910
بـ 5%، يعني 0.1 بدي أضيف 0.105، يعني بخلي، بمختصر أن

334
00:27:43,910 --> 00:27:51,070
ألفا تساوي ألفا ضرب 1.05، هذا معناته بزيدها بـ 5335
00:27:52,090 --> 00:27:57,250
ممكن أقول لأ، ده زي ده 15%، ممكن أقول ده زي ده 25336
00:27:57,250 --> 00:28:02,350
المهم أنا بقى بأثبت، نسبة زيادة، امتى بزيد، امتى

337
00:28:02,350 --> 00:28:05,290
بقى بضبط، ده الكلام لما قال لي أنه الـ sign ثابت،

338
00:28:05,290 --> 00:28:12,790
العكس من ذلك، إذا الـ algebraic sign of الـ change الـ

339
00:28:12,790 --> 00:28:16,950
change اللي هو يعني مقصود يتغير في الـ alternates،

340
00:28:16,950 --> 00:28:21,190
session alternates، يتذبذب، مرة آخر مرة موجبة، مرة

341
00:28:21,190 --> 00:28:25,760
سالبة، اللي هو معناه ذلك.. معناه ذلك في عندي الـ..

342
00:28:25,760 --> 00:28:31,620
الـ network مرة بتقترب.. مرة بتقترب وبتقلل الـ error

343
00:28:31,620 --> 00:28:36,780
و مرة بتبعد، فجأة غيرت الأوزان بشكل كبير، صار يطلع

344
00:28:36,780 --> 00:28:41,570
معها error وبعدين كانت مقتربة، بس ايش؟ التغيير

345
00:28:41,570 --> 00:28:45,550
اللي حصل كان تغيير كبير في الأوزان، خلها تفشل عن..

346
00:28:45,550 --> 00:28:50,290
زي ما هم بيقولوها، تخطي الصواب، وصارت الاشياء تبعد، و

347
00:28:50,290 --> 00:28:54,430
بعدين صارت تتردد ثانية، بس لما ردت ما رجعتش على الصواب،

348
00:28:54,430 --> 00:28:57,890
فشلت عنه بـ.. فصار.. فايش فيه مشكلة؟ المشكلة أنها

349
00:28:57,890 --> 00:29:01,450
بتخطي خطوات واسعة، فأنا بضيق الخطوات هذه، كيف بضيق

350
00:29:01,450 --> 00:29:08,770
الخطوات؟ بنزل الاشياء، الـ alpha، الـ learning rate، فإذا

351
00:29:08,770 --> 00:29:19,460
كان الـ sign خلاص، فأقول إذا هي مش stable sign

352
00:29:19,460 --> 00:29:25,700
of SSE alternates،

353
00:29:25,700 --> 00:29:29,960
معناه

354
00:29:29,960 --> 00:29:34,880
ذلك، decrease ألفا،

355
00:29:34,880 --> 00:29:39,830
decrease ألفا، برضه يكون عندي كمان، بتقدر تتخيل يعني

356
00:29:39,830 --> 00:29:48,910
هنا هو مثلاً الـ decrease،

357
00:29:48,910 --> 00:29:56,070
بأنه بضربها بـ 70%، بـ 7 من 10، يعني بنزلها 30%، تمام؟ و

358
00:29:56,070 --> 00:30:03,790
الـ increase بضربها في 1.05، واضح؟ تمام؟ فهنا

359
00:30:03,790 --> 00:30:10,570
بوريلك كيف أنه هاي الـ Epochs ماشية، وفي ده الـ دي

360
00:30:10,570 --> 00:30:18,250
الـ learning rate قاعد بتساعد نتيجة تطبيق ايش؟ هذي

361
00:30:18,250 --> 00:30:23,250
تمام؟ قاعد بيحسب لك أنه الـ error، الـ software

362
00:30:23,250 --> 00:30:26,810
errors قاعد في النازل، صح؟ في النازل، يعني إشارته

363
00:30:26,810 --> 00:30:32,170
دائماً موجبة، مظبوط؟ بقى أطرح السابق، وبقى أطرح منه

364
00:30:32,170 --> 00:30:37,960
اللاحق، وطلع موجب، فهو بسبب أنه هذا موجب، التغير

365
00:30:37,960 --> 00:30:44,780
موجب، اه التغير موجب، فهو عمال بيرفع، ليش؟ في اللي

366
00:30:44,780 --> 00:30:49,000
عند حد معين، جاب

367
00:30:49,000 --> 00:30:53,540
الـ الـ

368
00:30:53,540 --> 00:30:59,840
alpha بدأت تنزل، و نزولها، لأن وضعها في 0.7، النزول

369
00:30:59,840 --> 00:31:04,000
أسرع أو أشد من الصعود، صعود تدريجي بسيط 5% كل مرة،

370
00:31:04,000 --> 00:31:11,240
إنما هنا 30% كل مرة، فبدأت تنزل نزلة جامدة، مين هي

371
00:31:11,240 --> 00:31:14,980
اللي هو الـ learning rate نزل نزل جامدة، مع النزلة

372
00:31:14,980 --> 00:31:20,640
هذه، بدأ يقترب من ايش؟ من، بوريك فعلياً هذا الأسلوب

373
00:31:20,640 --> 00:31:22,440
في الاقتراب من

374
00:31:25,600 --> 00:31:33,420
من الـ error المخفض بوقت أقل، 100 epoch بدلاً من 126

375
00:31:33,420 --> 00:31:39,920
epoch، هذا

376
00:31:39,920 --> 00:31:45,280
الآن استخدم الـ momentum مع برضه هذه الـ heuristic،

377
00:31:45,280 --> 00:31:48,960
إقبال adaptive، ايش يعني adaptive؟ يعني لما نقول

378
00:31:48,960 --> 00:31:53,100
adapter، ايش يعني adapter؟ يعني محول، adaptive يعني

379
00:31:53,100 --> 00:31:58,260
أنه يتحول ويغير من تلقاء نفسه، ماهو اللي بتغير من

380
00:31:58,260 --> 00:32:02,240
تلقاء نفسه الـ learning rate لوحده بناء على

381
00:32:02,240 --> 00:32:07,980
استشعاره لـ sign تبع من الـ sum of square arrows،

382
00:32:07,980 --> 00:32:12,180
هو نفسه من تلقاء نفسها الـ network بتغير في الـ

383
00:32:12,180 --> 00:32:15,460
learning rate تبعها، عشان ذلك اسم هذا الكلام

384
00:32:15,460 --> 00:32:19,680
adaptive learning، فلما اندمج الـ two techniques الـ

385
00:32:19,680 --> 00:32:26,480
adaptive learning مع الـ momentum، صار عندي اختصار

386
00:32:26,480 --> 00:32:32,160
لسه أكثر، صرنا بنصل إلى

387
00:32:32,160 --> 00:32:35,780
الـ zero

388
00:32:35,780 --> 00:32:41,280
تقريباً error، ومعناه مش zero، هذا الكلام واحد من ألف، نقص

389
00:32:41,280 --> 00:32:45,580
ألف، نقص ثلاث يعني واحد من الألف، يعني مش zero،

390
00:32:46,700 --> 00:32:50,940
ما بدناش بالظبط 0، يعني ممكن تبقى صعب جداً أنّه الـ

391
00:32:50,940 -->