Publicaciones Similares

  • Descenso del gradiente

    El método del descenso del gradiente (gradient descent) es un algoritmo de optimización que permite converger hacia el valor mínimo de una función mediante un proceso iterativo. En aprendizaje automático básicamente se utiliza para minimizar una función que mide el error de predicción del modelo en el conjunto de datos. A esta función se le…

  • Feedforward

    Se llama redes feedforward a las redes en que las salidas de una capa son utilizadas como entradas en la próxima capa. Esto quiere decir que no hay loops «hacia atrás». Siempre se «alimenta» de valores hacia adelante. El concepto de «fully connected Feedforward Networks» se refiere a que todas las neuronas de entrada, están…

  • Chat Completion vs Asistentes Open AI

    Modelos de Finalización de Chat: Funcionamiento Básico: Estos modelos, como GPT-4 o GPT-4o, reciben una secuencia de mensajes como entrada y generan una respuesta basada en ellos. Limitaciones: Falta de Memoria Persistente: No retienen automáticamente el historial de mensajes. Por ejemplo, si preguntas "¿Cuál es la capital de Japón?" y luego "Cuéntame algo sobre la…

  • Entropía cruzada

    La entropía cruzada conecta las probabilidades con las funciones de error. Está vinculada con la estimación por máxima verosimilitud. Buscaremos modelo cuya entropía sea mínima, porque nos darán la mejor clasificación, ya que son los que tienen una mayor probabilidad (y minimizan la función de error: entropía cruzada). La entropía se define como $-ln(P(x))$. La…

  • Redes neuronales

    Las redes neuronales se utilizan para el aprendizaje profundo, o Deep Learning. El diseño de las Redes Neuronales Artificiales está inspirado en las redes neuronales biológicas, imitando la forma en que opera el cerebro. Las neuronas utilizadas en las redes artificiales básicamente son funciones matemáticas. Cada red tiene: Neuronas de entrada, capa de entrada de…

  • Perceptrones multicapa

    Implementando la capa oculta Capas de entrada (input), oculta (hidden) y de salida (output) en una red neuronal Pesos entre la capa de entrada y la capa oculta Ejemplo A continuación se implementa una red neuronal 4x4x2, con paso directo y como función de activación la sigmoide. import numpy as np def sigmoid(x): """ Calculate…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *