Publicaciones Similares

  • Convolutional Neural Network

    Las Convolutional Neural Networks son redes multicapa que toman su inspiración del cortex visual de los animales. Esta arquitectura es útil en varias aplicaciones, principalmente procesamiento de imágenes, reconocimiento de vídeo y procesamiento del lenguaje natural. La arquitectura consta de varias capas que implementaban la extracción de características y luego clasificar. El siguiente paso es…

  • Regresión logística

    El algoritmo de regresión logística consiste en: Tomar los datos Elegir un modelo aleatorio Calcular el error Minimizar el error y obtener un modelo mejor

  • Softmax

    La función Softmax La función Softmax (o función exponencial normalizada)es equivalente a la sigmoide, pero cuando el problema de clasificación en lugar de tener dos clases tiene tres o más. La función está dada por $$ \sigma_j(\vec{z}) = \frac{e^{z_j}}{\sum_{k=1}^K e^{z_k}}, \mbox{ para } j=1,\dots K $$ En python la podríamos definir de la siguiente forma:…

  • Razonamiento y aprendizaje

    Razonamiento Introducción. Sistemas expertos Un sistema experto es un sistema informático (hardware o software) que simula a expertos humanos en cierta área de especialización dada. Razonamiento aproximado. Tratamiento de la incertidumbre Fuentes de incertidumbre Se pueden clasificar las fuentes de incertidumbre en los siguientes grupos: Deficiencias de la información, características del mundo real, y deficiencias…

  • Entropía cruzada

    La entropía cruzada conecta las probabilidades con las funciones de error. Está vinculada con la estimación por máxima verosimilitud. Buscaremos modelo cuya entropía sea mínima, porque nos darán la mejor clasificación, ya que son los que tienen una mayor probabilidad (y minimizan la función de error: entropía cruzada). La entropía se define como $-ln(P(x))$. La…

  • Historia de las redes neuronales

    1958 – Perceptrón 1965 – Perceptrón multicapa 1980’s Neuronas Sigmoidales Redes Feedforward Retropropagación 1989 – Convolutional neural networks (CNN) / Recurent neural networks (RNN) 1997 – Long short term memory (LSTM) 2006 – Deep Belief Networks (DBN): Nace deep learning Restricted Boltzmann Machine Encoder / Decoder = Auto-encoder 2014 – Generative Adversarial Networks (GAN)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *