INTELIGENCIA ARTIFICIAL

El nacimiento de la Inteligencia Artificial. El Perceptrón

Pixabay.
Para comprender qué es un Perceptrón, primero hay que entender el concepto de red neuronal artificial y también el de algoritmo.

Necesitamos tu ayuda para seguir informando
Colabora con Nuevatribuna

 

La Inteligencia Artificial (IA) se hizo realidad con el objetivo de crear máquinas que pudieran tener las mismas capacidades que el ser humano. Una tecnología que todavía nos resulta lejana pero que desde hace unos años está presente en nuestro día a día a todas horas.

Dentro de esta Inteligencia Artificial podemos encontrar muchas ramas diferentes. En la figura de la derecha podemos ver unas cuantas.

Para comprender qué es un Perceptrón, primero hay que entender el concepto de red neuronal artificial y también el de algoritmo.

El cerebro humano está compuesto por miles de millones de neuronas, que se comunican con otras neuronas a través de los axones y que reciben señales de entrada a la misma de las dendritas.

Por otra parte, un algoritmo, es una cadena de secuencias y pasos para resolver un problema, con el objetivo de llegar a una solución, y que debe de seguir tres pasos:

* Entrada, que son los datos necesarios para realizar una operación

* Proceso o cálculos que se van a necesitar y las herramientas precisas

* Salida o solución 

Los algoritmos pueden ser matemáticos, computacionales e incluso culinarios. En el caso de algoritmos matemáticos, si tenemos la fórmula que calcula la superficie de un triángulo, que es base por altura partido por dos, los datos necesarios son la base y la altura, el proceso es la multiplicación de los mismos, y la soluciona es la salida

Neurona Biológica.

Las neuronas son células nerviosas biológicas interconectadas que permiten el tratamiento y la transmisión de señales químicas y eléctricas. Las dendritas son ramificaciones que reciben la información de otras neuronas. Los núcleos celulares tratan la información recibida a partir de las dendritas. Por último, las sinapsis sirven de conexión entre las neuronas.

En cuanto a las neuronas artificiales, en 1957 Frank Rosenblatt inventó el Perceptrón en el laboratorio aeronáutico de Cornell. Basándose en estos primeros conceptos, propuso la regla de aprendizaje del Perceptrón, que es una neurona artificial que efectúa cálculos para detectar características o tendencias en los datos de entrada. Se implementó en un programa, el funcionamiento del Perceptrón por primera vez, utilizando un IBM, uno de los ordenadores más potentes de aquella época, siendo capaz de ejecutar 40.000 instrucciones por segundo. Los lenguajes de programación para este ordenador fueron FORTRAN y LISP.                                                                         

El físico John Larry Kelly Jr. de los laboratorios Bell, creó un programa sintetizador de voz y lo probó con la canción Daisy Bell. En una visita de Arthur C. Clarke a los laboratorios Bell, le enseñaron este sintetizador con la misma canción la cual luego utilizó en el guion de la película “2001: Una Odisea Espacial” donde canta esta canción cuando lo están desconectando.

El Perceptrón estaba destinado a ser realmente una máquina en vez de un algoritmo. Estaba pensado para la clasificación de imágenes. Todo el hardware estaba construido a medida y utilizaba potenciómetros para determinar los pesos de cada entrada.

Tuvo una recepción muy prometedora en los ámbitos académicos, pero al final se probó que no podía ser entrenado para reconocer otros tipos de patrones, lo que provocó un estancamiento en el avance de las redes neuronales durante algunos años.

El Perceptrón era un embrión de ordenador electrónico que espera poder caminar, hablar, ver, escribir, reproducirse y tener consciencia de su existencia.

Ejemplo de separación lineal.

El Perceptrón, tenía una sola capa y sólo era capaz de aprender datos que permitan una separación línea, y las únicas pruebas que se realizaron fueron las de entrenar al Perceptrón para que fuera capaz de reconocer imágenes, en concreto diferenciar si es hombre o mujer.

Para ello se entrenó introduciendo cientos de fotografías de hombres y mujeres con diferentes estilos de pelo y maquillaje. Una vez terminado el proceso de entrenamiento, se introdujeron esta vez modelos de caras que no había visto nunca antes durante dicho proceso de entrenamiento. Finalmente, la máquina decidía si la foto era hombre o mujer con una elevada tasa de éxito.

La capacidad de proceso, la tasa de acierto, así como los patrones a analizar aumentaron cuando unos años más tarde aparecieron las redes neuronales multicapas, o Perceptrón multicapa 

Se trata de algoritmos para el aprendizaje supervisado de clasificadores binarios, o de dos estados. Permite que las neuronas artificiales aprendan y traten los elementos de una serie de datos. Recordemos qué en el aprendizaje supervisado, se introducen en el algoritmo datos que ya están etiquetados correctamente.

El Perceptrón desempeña un papel esencial en los proyectos de Machine Learning, y se utiliza para clasificar datos, o como algoritmo que permite simplificar o supervisar las capacidades de aprendizaje de los clasificadores binarios

El Perceptrón desempeña un papel esencial en los proyectos de Machine Learning, y se utiliza para clasificar datos, o como algoritmo que permite simplificar o supervisar las capacidades de aprendizaje de los clasificadores binarios. Ha sido un gran avance dentro del campo de la inteligencia artificial, en el aprendizaje profundo o deep learning.  

Las neuronas artificiales tratan de imitar el funcionamiento de las neuronas del cerebro. Son funciones matemáticas que se basan en un modelo neuronal biológico. Cada neurona recibe datos, los pesa o los pondera, calcula su suma y presenta un resultado por medio de una función no lineal.

En cuanto a su funcionamiento, el Perceptrón recibe múltiples señales de entrada. Si la suma de las señales supera un umbral determinado, se produce una señal de salida o por el contrario, no se emite ningún resultado. 

En realidad, es una función matemática. Los datos de entrada (x) se multiplican por los coeficientes de peso (w). El resultado es un valor, que puede ser positivo o negativo. La neurona artificial se activa si el valor es positivo. Solo se activa si el peso calculado de los datos de entrada supera un umbral determinado. 

El resultado predicho se compara con el resultado conocido. En caso de diferencia, el error se retro propaga para permitir ajustar los pesos.

El marco del aprendizaje supervisado permite predecir la categoría de una muestra de datos, por lo que se trata de un elemento esencial en la IA.

El Perceptrón es un algoritmo clasificador llamado threshold function o función de umbral, siendo este una sola neurona, donde actúa como una función matemática de suma ponderada añadiéndole un bias, definiéndose como el comportamiento de una regresión lineal.

Deciden si un objeto pertenece o no a una clase especifica en función de unos datos numéricos.

El algoritmo enseña automáticamente los coeficientes de peso óptimo, mediante la función derivada. Para determinar si una neurona “se enciende” o no, las características de los datos de entrada se multiplican por esos pesos.

Una red neuronal artificial está compuesta por múltiples neuronas artificiales. Los resultados de los cálculos se transmiten de una neurona a otra, y cada una conserva un estado interno llamado señal de activación. Las neuronas están conectadas entre sí por enlaces de conexión por los que circula la información sobre los datos introducidos.

En cada red neuronal, distinguimos la capa de entrada, la capa de salida y las diferentes capas ocultas. Los datos se transmiten de una capa a otra. Son hoy día, parte fundamental de la IA y en concreto del Deep Learning y no son conceptos nuevos.

Desde el punto de vista de la técnica, Rosenblatt utilizó las ideas que fueron introducidas por McCulloch y Pitts en 1943 donde hablaron por primera vez sobre la posibilidad de crear redes neuronales como si fueran ordenadores. Rosenblatt, fue un psicólogo estadounidense, considerado como uno de los padres del Deep Learning. Nació en Nueva York, fue a la universidad de Cornell donde obtuvo también un doctorado en 1956. 

Falleció muy joven con 41 años en 1971. Aunque estuvo al frente de varias investigaciones importantes relacionadas con la neurobiología, es conocido por el desarrollo del Perceptrón, un clasificador binario  o discriminador lineal, el cual genera una predicción basándose en un algoritmo combinado con el peso de las entradas, como podemos ver en el gráfico de un Perceptrón.

Gráfico de un Perceptrón.

El valor “bias”, ajuste, nos permite ajustar la sensibilidad de la curva de activación que veremos a continuación. El valor resultante se pasa a la función de activación, la cual se encarga de decidir si se activa o no la neurona. Para que esto ocurra se definen unos límites que definirán el resultado final, 1 o 0. Por ejemplo, si el valor de salida de la suma y el bias es mayor de 0, la salida de la neurona será 1. Si el valor es menor de 0, entonces la salida de la neurona será 0. En caso de existir varias neuronas interconectadas donde tengamos que decidir el valor de salida, tendríamos que utilizar funciones lineales o no lineales como la sigmoide o tangente hiperbólica.