Á¤¼ºÈÆ
    grad_descent
grad_descent.py [1 KB]   grad_descent1.png [29 KB]  




1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
= 10  
learning_rate = 0.01  
precision = 0.00001  
max_iterations = 100
 
# ¼Õ½Ç ÇÔ¼ö¸¦ ¶÷´Ù½ÄÀ¸·Î Á¤ÀÇÇÑ´Ù. 
loss_func = lambda x: (x-3)**2 + 10
 
# ±×·¡µð¾ðÆ®¸¦ ¶÷´Ù½ÄÀ¸·Î Á¤ÀÇÇÑ´Ù. ¼Õ½Ç ÇÔ¼öÀÇ 1Â÷ ¹ÌºÐ°ªÀÌ´Ù. 
gradient = lambda x: 2*x-6
 
# ±×·¡µð¾ðÆ® °­ÇϹý
for i in range(max_iterations):
    x = x - learning_rate * gradient(x)
    print("¼Õ½Ç ÇÔ¼ö°ª(", x, ")=", loss_func(x))
 
print("ÃÖ¼Ò°ª = ", x)
cs

  µî·ÏÀÏ : 2020-08-02 [03:01] Á¶È¸ : 212 ´Ù¿î : 250   
 
¡â ÀÌÀü±Ûmlp
¡ä ´ÙÀ½±Û(12Àå) ½Å°æ¸Á I(ÆÛ¼ÁÆ®·Ð)
ÀΰøÁö´É ½Ç½À
¹øÈ£ ¨Ï Á¦ ¸ñ À̸§
ÀΰøÁö´É (õÀα¹ Àú) ÄÚµå
¨ÕÆÄÀÌÅäÄ¡ ù°ÉÀ½ (ÃÖ°ÇÈ£ Àú) ÄÚµå
34 ÀΰøÁö´É (õÀα¹ Àú) ÄÚµå Á¤¼ºÈÆ
33 ¦¦❶ (15Àå) ½Å°æ¸Á IV(ÄÁº¼·ç¼Ç ½Å°æ¸Á) Á¤¼ºÈÆ
32    ¦¦❷ ¨Õfashion2 Á¤¼ºÈÆ
31    ¦¦❷ ¨Õfashion1 Á¤¼ºÈÆ
30 ¦¦❶ (14Àå) ½Å°æ¸Á III(µö·¯´×) Á¤¼ºÈÆ
29    ¦¦❷ ¨ÕMNIST Á¤¼ºÈÆ
28 ¦¦❶ (13Àå) ½Å°æ¸Á II(MLP) Á¤¼ºÈÆ
27    ¦¦❷ lab1(MNIST) Á¤¼ºÈÆ
26    ¦¦❷ ¨Õkeras_ex2 Á¤¼ºÈÆ
25    ¦¦❷ ¨Õkeras_ex1 Á¤¼ºÈÆ
24    ¦¦❷ mlp Á¤¼ºÈÆ
23    ¦¦❷ ¨Õgrad_descent Á¤¼ºÈÆ
22 ¦¦❶ (12Àå) ½Å°æ¸Á I(ÆÛ¼ÁÆ®·Ð) Á¤¼ºÈÆ
21    ¦¦❷ xor Á¤¼ºÈÆ
20    ¦¦❷ perceptron2 Á¤¼ºÈÆ

[1][2][3][4][5][6]