<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title>CMG Technologies</title>
<meta name="Description" content="" />
<meta name="Keywords" content="" />
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<link rel="stylesheet" type="text/css" href="style.css" media="screen" />
<style type="text/css">
    p {
        text-align: justify;
    }
</style>
</head>
<body>
<div id="wrap">
  <div id="header">
    <h1><a href="#">NeuralStudio</a></h1>
    <h2>Aplicaci&oacute;n did&aacute;ctica para Redes Neuronales</h2>
  </div>
  <!--div id="menu"> <a href="#">Home</a> <a href="#">About </a> <a href="#">Contact</a></div-->
  <div id="content">
      <a href="index.html">Regresar</a>
      <h2><a name="perceptron">Perceptron</a></h2>
    <p>En 1958 Frank Rosenblatt presentó el perceptron, un modelo de red neuronal basado en el modelo de neurona artificial McCulloch-Pitts,
        e introdujo un nuevo método de entrenamiento supervisado llamado Perceptron Learning Rule (regla de aprendizaje del perceptron).
        El modelo de Rosenblatt se diferenciaba del modelo de McCulloch-Pitts en la introducción de pesos asociados a las entradas a la neurona,
        y su aparición causó toda clase de expectativas en la comunidad científica, debido a su aplicación en el reconocimiento de patrones de
        forma efectiva. Uno de las características más importantes del perceptron y su regla de aprendizaje es que, dado un perceptron
        y un problema de clasificación de patrones, se puede demostrar que el perceptron podrá converger a una solución en un número de
        pasos finito, dado que exista un conjunto de pesos que resuelva dicho problema de clasificación. La estructura del perceptron se
        puede apreciar en la siguiente figura.</p>
    <img src="perceptron.png"/>
    <p>El perceptron se caracteriza por tener, además de entradas ponderadas, un término denominado bias que altera el comportamiento de la neurona
        de forma muy particular. Una neurona con un bias igual a cero está limitada en cuanto al número de problemas que puede resolver, en contraposición
        a una con un bias diferente de cero, como se verá más adelante. Además, de especial importancia es la función de activación del perceptron,
        la función Hardlim (limitador fuerte), que se define de la siguiente manera:
    </p>
    <img src="hardlim.png"/>
    <p>
        Teniendo en cuenta lo anterior, podemos definir formalmente un perceptron de una neurona como:
    </p>
    <img src="hardlim2.png"/>
    <p>
        De lo anterior podemos notar que el perceptron solo produce valores binarios, cero y uno, y que el elemento bias
        se comporta como un modificador del umbral de la neurona, elevándolo o disminuyéndolo de acuerdo a su valor.
        Si el bias no estuviese presente o fuese igual a cero, la suma ponderada de las entradas deberá ser mayor o
        igual a cero para que la neurona produjera un uno como salida. Los elementos que componen la neurona de un
        perceptron pueden ser relacionados en una función lineal, que suministra información adicional acerca de su
        comportamiento. Dicha función tiene la siguiente forma:
    </p>
    <img src="frontier.png"/>
    <p>
        Esta función constituye la frontera de decisión del perceptron, y define la separación que el perceptron hará
        del espacio de entradas, por ende su clasificación. Toda entrada que quede situada por debajo de dicha frontera
        provocara un cero como respuesta por parte de la red, mientras que las entradas situadas por encima ocasionarán
        una respuesta igual a uno.<br/>
        El aprendizaje del perceptron es supervisado, es decir, necesita de ejemplos de comportamiento adecuado para cada
        entrada del set de entrenamiento, el cual debe tener la siguiente forma:{p_1,t_1 },{p_2,t_2 },{p_3,t_3 }…{p_n,t_n}
        donde p_i es cada entrada a la red, y t_i es la correspondiente salida deseada. Cada vez que se presenta una
        entrada p_i a la red, se compara la salida producida por dicha entrada con el valor deseado t_i, y
        las neuronas de la red son ajustadas de acuerdo a esa diferencia, utilizando las siguientes ecuaciones:
    </p>
    <img src="perceptronRule.png"/>
    <p>
        donde w_nuevo representa el nuevo valor del peso, w_ant el valor antiguo, p la entrada asociada al peso w y ε el
        error del perceptron; que está definido como
    </p>
    <img src="perror.png"/>
    <p>
        donde t es la salida deseada y a es la salida real para la entrada p. Mediante la aplicación de esta regla,
        el perceptron convergerá a una solución en un número finito de pasos dado que exista un conjunto de pesos
        que efectivamente resuelva el problema.
    </p>
  </div>
</div>
</body>
</html>