Aprendizaje automático - Machine learning

El aprendizaje automático ( ML ) es el estudio de algoritmos informáticos que pueden mejorar automáticamente a través de la experiencia y mediante el uso de datos. Se considera parte de la inteligencia artificial . Los algoritmos de aprendizaje automático construyen un modelo basado en datos de muestra, conocidos como " datos de entrenamiento ", con el fin de realizar predicciones o decisiones sin estar programados explícitamente para hacerlo. Los algoritmos de aprendizaje automático se utilizan en una amplia variedad de aplicaciones, como en medicina, filtrado de correo electrónico , reconocimiento de voz y visión por computadora , donde es difícil o inviable desarrollar algoritmos convencionales para realizar las tareas necesarias.

Un subconjunto del aprendizaje automático está estrechamente relacionado con las estadísticas computacionales , que se enfoca en hacer predicciones usando computadoras; pero no todo el aprendizaje automático es aprendizaje estadístico. El estudio de la optimización matemática aporta métodos, teoría y dominios de aplicación al campo del aprendizaje automático. La minería de datos es un campo de estudio relacionado, que se centra en el análisis de datos exploratorios a través del aprendizaje no supervisado . Algunas implementaciones de aprendizaje automático utilizan datos y redes neuronales de una manera que imita el funcionamiento de un cerebro biológico. En su aplicación a los problemas empresariales, el aprendizaje automático también se conoce como análisis predictivo .

Visión general

Los algoritmos de aprendizaje funcionan sobre la base de que es probable que las estrategias, los algoritmos y las inferencias que funcionaron bien en el pasado sigan funcionando bien en el futuro. Estas inferencias pueden ser obvias, como "dado que el sol salió todas las mañanas durante los últimos 10.000 días, probablemente también saldrá mañana por la mañana". Pueden ser matizados, como "el X% de las familias tienen especies geográficamente separadas con variantes de color, por lo que existe un Y% de posibilidades de que existan cisnes negros no descubiertos ".

Los programas de aprendizaje automático pueden realizar tareas sin estar programados explícitamente para hacerlo. Se trata de que las computadoras aprendan de los datos proporcionados para llevar a cabo determinadas tareas. Para tareas simples asignadas a computadoras, es posible programar algoritmos que le digan a la máquina cómo ejecutar todos los pasos necesarios para resolver el problema en cuestión; por parte de la computadora, no se necesita aprendizaje. Para tareas más avanzadas, puede ser un desafío para un ser humano crear manualmente los algoritmos necesarios. En la práctica, puede resultar más eficaz ayudar a la máquina a desarrollar su propio algoritmo, en lugar de que los programadores humanos especifiquen cada paso necesario.

La disciplina del aprendizaje automático emplea varios enfoques para enseñar a las computadoras a realizar tareas en las que no se dispone de un algoritmo completamente satisfactorio. En los casos en que exista una gran cantidad de respuestas potenciales, un enfoque es etiquetar algunas de las respuestas correctas como válidas. Esto luego se puede usar como datos de entrenamiento para que la computadora mejore los algoritmos que usa para determinar las respuestas correctas. Por ejemplo, para entrenar un sistema para la tarea de reconocimiento de caracteres digitales, a menudo se ha utilizado el conjunto de datos MNIST de dígitos escritos a mano.

Historia y relaciones con otros campos

El término aprendizaje automático fue acuñado en 1959 por Arthur Samuel , un IBM estadounidense y pionero en el campo de los juegos de computadora y la inteligencia artificial . También se utilizó el sinónimo de computadoras de autoaprendizaje en este período de tiempo. Un libro representativo de la investigación sobre el aprendizaje automático durante la década de 1960 fue el libro de Nilsson sobre Máquinas de aprendizaje, que se ocupa principalmente del aprendizaje automático para la clasificación de patrones. El interés relacionado con el reconocimiento de patrones continuó en la década de 1970, como lo describieron Duda y Hart en 1973. En 1981 se presentó un informe sobre el uso de estrategias de enseñanza para que una red neuronal aprenda a reconocer 40 caracteres (26 letras, 10 dígitos y 4 símbolos especiales ) desde una terminal de computadora.

Tom M. Mitchell proporcionó una definición más formal y ampliamente citada de los algoritmos estudiados en el campo del aprendizaje automático: "Se dice que un programa de computadora aprende de la experiencia E con respecto a alguna clase de tareas T y una medida de desempeño P si su desempeño en tareas en T , medido por P , mejora con la experiencia E ". Esta definición de las tareas en las que se refiere el aprendizaje automático ofrece una definición fundamentalmente operativa en lugar de definir el campo en términos cognitivos. Esto sigue la propuesta de Alan Turing en su artículo " Computación Maquinaria e Inteligencia ", en el que la pregunta "¿Pueden pensar las máquinas?" se reemplaza con la pregunta "¿Pueden las máquinas hacer lo que nosotros (como entidades pensantes) podemos hacer?".

El aprendizaje automático moderno tiene dos objetivos, uno es clasificar datos basados ​​en modelos que se han desarrollado, el otro propósito es hacer predicciones para resultados futuros basados ​​en estos modelos. Un algoritmo hipotético específico para clasificar datos puede usar la visión por computadora de los lunares junto con el aprendizaje supervisado para entrenarlo para clasificar los lunares cancerosos. Donde, como, un algoritmo de aprendizaje automático para el comercio de acciones puede informar al comerciante de futuras predicciones potenciales.

Inteligencia artificial

El aprendizaje automático como subcampo de la IA
Parte del aprendizaje automático como subcampo de la IA o parte de la IA como subcampo del aprendizaje automático

Como esfuerzo científico, el aprendizaje automático surgió de la búsqueda de inteligencia artificial. En los primeros días de la IA como disciplina académica , algunos investigadores estaban interesados ​​en que las máquinas aprendieran de los datos. Intentaron abordar el problema con varios métodos simbólicos, así como con lo que entonces se denominó " redes neuronales "; estos eran en su mayoría perceptrones y otros modelos que más tarde se descubrió que eran reinvenciones de los modelos lineales generalizados de estadística. También se empleó el razonamiento probabilístico , especialmente en el diagnóstico médico automatizado .

Sin embargo, un énfasis cada vez mayor en el enfoque lógico basado en el conocimiento provocó una brecha entre la IA y el aprendizaje automático. Los sistemas probabilísticos estaban plagados de problemas teóricos y prácticos de adquisición y representación de datos. En 1980, los sistemas expertos habían llegado a dominar la IA y las estadísticas estaban en desgracia. El trabajo sobre el aprendizaje simbólico / basado en el conocimiento continuó dentro de la IA, lo que llevó a la programación lógica inductiva , pero la línea de investigación más estadística ahora estaba fuera del campo de la IA propiamente dicha, en el reconocimiento de patrones y la recuperación de información . La investigación de redes neuronales había sido abandonada por la inteligencia artificial y la informática casi al mismo tiempo. Esta línea también fue continuada fuera del campo AI / CS, como " conexionismo ", por investigadores de otras disciplinas como Hopfield , Rumelhart y Hinton . Su principal éxito se produjo a mediados de la década de 1980 con la reinvención de la retropropagación .

El aprendizaje automático (ML), reorganizado como un campo separado, comenzó a florecer en la década de 1990. El campo cambió su objetivo de lograr inteligencia artificial a abordar problemas de naturaleza práctica que se pueden resolver. Cambió el enfoque de los enfoques simbólicos que había heredado de la IA y se dirigió a métodos y modelos tomados de la estadística y la teoría de la probabilidad .

A partir de 2020, muchas fuentes continúan afirmando que el aprendizaje automático sigue siendo un subcampo de la IA. El principal desacuerdo es si todo ML es parte de la IA, ya que esto significaría que cualquiera que use ML podría afirmar que está usando IA. Otros opinan que no todo el ML es parte de la IA, donde solo un subconjunto "inteligente" de ML es parte de la IA.

La pregunta de cuál es la diferencia entre ML e IA es respondida por Judea Pearl en The Book of Why . En consecuencia, ML aprende y predice basándose en observaciones pasivas, mientras que AI implica un agente que interactúa con el entorno para aprender y tomar acciones que maximicen sus posibilidades de lograr con éxito sus objetivos.

Procesamiento de datos

El aprendizaje automático y la minería de datos a menudo emplean los mismos métodos y se superponen significativamente, pero mientras que el aprendizaje automático se centra en la predicción, basada en propiedades conocidas aprendidas de los datos de entrenamiento, la minería de datos se centra en el descubrimiento de propiedades (previamente) desconocidas en los datos (esto es el paso de análisis del descubrimiento de conocimientos en bases de datos). La minería de datos utiliza muchos métodos de aprendizaje automático, pero con diferentes objetivos; por otro lado, el aprendizaje automático también emplea métodos de minería de datos como "aprendizaje no supervisado" o como un paso previo al procesamiento para mejorar la precisión del alumno. Gran parte de la confusión entre estas dos comunidades de investigación (que a menudo tienen conferencias y revistas separadas, siendo ECML PKDD una excepción importante) proviene de los supuestos básicos con los que trabajan: en el aprendizaje automático, el rendimiento generalmente se evalúa con respecto a la capacidad de reproducir conocimientos conocidos , mientras que en el descubrimiento de conocimientos y la minería de datos (KDD) la tarea clave es el descubrimiento de conocimientos previamente desconocidos . Evaluado con respecto al conocimiento conocido, un método no informado (no supervisado) será fácilmente superado por otros métodos supervisados, mientras que en una tarea KDD típica, los métodos supervisados ​​no se pueden utilizar debido a la falta de disponibilidad de datos de entrenamiento.

Mejoramiento

El aprendizaje automático también tiene vínculos íntimos con la optimización : muchos problemas de aprendizaje se formulan como la minimización de alguna función de pérdida en un conjunto de ejemplos de entrenamiento. Las funciones de pérdida expresan la discrepancia entre las predicciones del modelo que se está entrenando y las instancias reales del problema (por ejemplo, en la clasificación, se quiere asignar una etiqueta a las instancias, y los modelos se entrenan para predecir correctamente las etiquetas preasignadas de un conjunto de ejemplos).

Generalización

La diferencia entre optimización y aprendizaje automático surge del objetivo de la generalización: mientras que los algoritmos de optimización pueden minimizar la pérdida en un conjunto de entrenamiento, el aprendizaje automático se preocupa por minimizar la pérdida en muestras invisibles. Caracterizar la generalización de varios algoritmos de aprendizaje es un tema activo de la investigación actual, especialmente para los algoritmos de aprendizaje profundo .

Estadísticas

El aprendizaje automático y las estadísticas son campos estrechamente relacionados en términos de métodos, pero distintos en su objetivo principal: las estadísticas extraen inferencias de población a partir de una muestra , mientras que el aprendizaje automático encuentra patrones predictivos generalizables. Según Michael I. Jordan , las ideas del aprendizaje automático, desde los principios metodológicos hasta las herramientas teóricas, han tenido una larga historia en la estadística. También sugirió el término ciencia de datos como marcador de posición para llamar al campo general.

Leo Breiman distinguió dos paradigmas de modelado estadístico: modelo de datos y modelo algorítmico, donde "modelo algorítmico" significa más o menos los algoritmos de aprendizaje automático como el bosque aleatorio .

Algunos estadísticos han adoptado métodos de aprendizaje automático, lo que lleva a un campo combinado que denominan aprendizaje estadístico .

Teoría

Un objetivo central de un alumno es generalizar a partir de su experiencia. La generalización en este contexto es la capacidad de una máquina de aprendizaje para funcionar con precisión en ejemplos / tareas nuevos y no vistos después de haber experimentado un conjunto de datos de aprendizaje. Los ejemplos de entrenamiento provienen de una distribución de probabilidad generalmente desconocida (considerada representativa del espacio de ocurrencias) y el alumno tiene que construir un modelo general sobre este espacio que le permita producir predicciones suficientemente precisas en nuevos casos.

El análisis computacional de los algoritmos de aprendizaje automático y su desempeño es una rama de la informática teórica conocida como teoría del aprendizaje computacional . Debido a que los conjuntos de entrenamiento son finitos y el futuro es incierto, la teoría del aprendizaje generalmente no ofrece garantías del desempeño de los algoritmos. En cambio, los límites probabilísticos en el rendimiento son bastante comunes. La descomposición de sesgo-varianza es una forma de cuantificar el error de generalización .

Para obtener el mejor rendimiento en el contexto de la generalización, la complejidad de la hipótesis debe coincidir con la complejidad de la función subyacente a los datos. Si la hipótesis es menos compleja que la función, entonces el modelo no ha ajustado los datos. Si la complejidad del modelo aumenta en respuesta, el error de entrenamiento disminuye. Pero si la hipótesis es demasiado compleja, entonces el modelo está sujeto a un ajuste excesivo y la generalización será más pobre.

Además de los límites de desempeño, los teóricos del aprendizaje estudian la complejidad del tiempo y la viabilidad del aprendizaje. En la teoría del aprendizaje computacional, un cálculo se considera factible si se puede realizar en tiempo polinomial . Hay dos tipos de resultados de complejidad temporal . Los resultados positivos muestran que una determinada clase de funciones se puede aprender en tiempo polinomial. Los resultados negativos muestran que ciertas clases no se pueden aprender en tiempo polinomial.

Enfoques

Los enfoques de aprendizaje automático se dividen tradicionalmente en tres categorías amplias, según la naturaleza de la "señal" o "retroalimentación" disponible para el sistema de aprendizaje:

  • Aprendizaje supervisado : la computadora se presenta con entradas de ejemplo y sus salidas deseadas, dadas por un "maestro", y el objetivo es aprender una regla general que mapea las entradas con las salidas.
  • Aprendizaje no supervisado : no se le dan etiquetas al algoritmo de aprendizaje, dejándolo solo para encontrar la estructura en su entrada. El aprendizaje no supervisado puede ser un objetivo en sí mismo (descubrir patrones ocultos en los datos) o un medio hacia un fin ( aprendizaje de características ).
  • Aprendizaje reforzado : un programa de computadora interactúa con un entorno dinámico en el que debe realizar un objetivo determinado (como conducir un vehículo o jugar un juego contra un oponente). A medida que navega por su espacio problemático, el programa recibe una retroalimentación análoga a las recompensas, que intenta maximizar.

Aprendizaje supervisado

Una máquina de vectores de soporte es un modelo de aprendizaje supervisado que divide los datos en regiones separadas por un límite lineal . Aquí, el límite lineal divide los círculos negros del blanco.

Los algoritmos de aprendizaje supervisados ​​construyen un modelo matemático de un conjunto de datos que contiene tanto las entradas como las salidas deseadas. Los datos se conocen como datos de entrenamiento y consisten en un conjunto de ejemplos de entrenamiento. Cada ejemplo de entrenamiento tiene una o más entradas y la salida deseada, también conocida como señal de supervisión. En el modelo matemático, cada ejemplo de entrenamiento está representado por una matriz o vector, a veces llamado vector de características, y los datos de entrenamiento están representados por una matriz . A través de la optimización iterativa de una función objetivo , los algoritmos de aprendizaje supervisado aprenden una función que puede usarse para predecir la salida asociada con nuevas entradas. Una función óptima permitirá que el algoritmo determine correctamente la salida de las entradas que no formaban parte de los datos de entrenamiento. Se dice que un algoritmo que mejora la precisión de sus resultados o predicciones a lo largo del tiempo ha aprendido a realizar esa tarea.

Los tipos de algoritmos de aprendizaje supervisado incluyen aprendizaje activo , clasificación y regresión . Los algoritmos de clasificación se utilizan cuando las salidas están restringidas a un conjunto limitado de valores, y los algoritmos de regresión se utilizan cuando las salidas pueden tener cualquier valor numérico dentro de un rango. Como ejemplo, para un algoritmo de clasificación que filtra correos electrónicos, la entrada sería un correo electrónico entrante y la salida sería el nombre de la carpeta en la que archivar el correo electrónico.

El aprendizaje por similitud es un área del aprendizaje automático supervisado estrechamente relacionada con la regresión y la clasificación, pero el objetivo es aprender de los ejemplos utilizando una función de similitud que mide qué tan similares o relacionados son dos objetos. Tiene aplicaciones en ranking , sistemas de recomendación , rastreo de identidad visual, verificación facial y verificación de locutor.

Aprendizaje sin supervisión

Los algoritmos de aprendizaje no supervisados ​​toman un conjunto de datos que contiene solo entradas y encuentran estructura en los datos, como agrupación o agrupación de puntos de datos. Los algoritmos, por lo tanto, aprenden de los datos de prueba que no han sido etiquetados, clasificados o categorizados. En lugar de responder a la retroalimentación, los algoritmos de aprendizaje no supervisados ​​identifican puntos en común en los datos y reaccionan en función de la presencia o ausencia de dichos puntos en común en cada nuevo dato. Una aplicación central del aprendizaje no supervisado se encuentra en el campo de la estimación de densidad en estadística , como la búsqueda de la función de densidad de probabilidad . Aunque el aprendizaje no supervisado abarca otros dominios que implican resumir y explicar las características de los datos.

El análisis de conglomerados es la asignación de un conjunto de observaciones en subconjuntos (llamados conglomerados ) de modo que las observaciones dentro del mismo conglomerado son similares según uno o más criterios predesignados, mientras que las observaciones extraídas de diferentes conglomerados son diferentes. Las diferentes técnicas de agrupamiento hacen diferentes supuestos sobre la estructura de los datos, a menudo definidos por alguna métrica de similitud y evaluados, por ejemplo, por la compacidad interna , o la similitud entre miembros del mismo grupo, y la separación , la diferencia entre grupos. Otros métodos se basan en la densidad estimada y la conectividad del gráfico .

Aprendizaje semi-supervisado

El aprendizaje semi-supervisado se ubica entre el aprendizaje no supervisado (sin ningún dato de entrenamiento etiquetado) y el aprendizaje supervisado (con datos de entrenamiento completamente etiquetados). A algunos de los ejemplos de entrenamiento les faltan etiquetas de entrenamiento, sin embargo, muchos investigadores de aprendizaje automático han descubierto que los datos sin etiquetar, cuando se usan junto con una pequeña cantidad de datos etiquetados, pueden producir una mejora considerable en la precisión del aprendizaje.

En el aprendizaje débilmente supervisado , las etiquetas de capacitación son ruidosas, limitadas o imprecisas; sin embargo, estas etiquetas son a menudo más baratas de obtener, lo que da como resultado conjuntos de entrenamiento efectivos más grandes.

Aprendizaje reforzado

El aprendizaje por refuerzo es un área del aprendizaje automático que se ocupa de cómo los agentes de software deben realizar acciones en un entorno para maximizar alguna noción de recompensa acumulativa. Debido a su generalidad, el campo se estudia en muchas otras disciplinas, como la teoría de juegos , la teoría del control , la investigación de operaciones , la teoría de la información , la optimización basada en simulación , los sistemas multiagente , la inteligencia de enjambres , la estadística y los algoritmos genéticos . En el aprendizaje automático, el entorno se suele representar como un proceso de decisión de Markov (MDP). Muchos algoritmos de aprendizaje por refuerzo utilizan técnicas de programación dinámica . Los algoritmos de aprendizaje por refuerzo no asumen el conocimiento de un modelo matemático exacto del MDP y se utilizan cuando los modelos exactos no son factibles. Los algoritmos de aprendizaje por refuerzo se utilizan en vehículos autónomos o para aprender a jugar contra un oponente humano.

Reducción de dimensionalidad

La reducción de dimensionalidad es un proceso de reducción del número de variables aleatorias bajo consideración obteniendo un conjunto de variables principales. En otras palabras, es un proceso de reducción de la dimensión del conjunto de características, también llamado "número de características". La mayoría de las técnicas de reducción de dimensionalidad se pueden considerar como eliminación o extracción de características. Uno de los métodos populares de reducción de dimensionalidad es el análisis de componentes principales (PCA). PCA implica cambiar datos de dimensiones superiores (p. Ej., 3D) a un espacio más pequeño (p. Ej., 2D). Esto da como resultado una dimensión de datos más pequeña (2D en lugar de 3D), mientras se mantienen todas las variables originales en el modelo sin cambiar los datos. La hipótesis de la variedad propone que los conjuntos de datos de alta dimensión se encuentran a lo largo de las variedades de baja dimensión , y muchas técnicas de reducción de la dimensionalidad hacen esta suposición, lo que lleva al área de aprendizaje múltiple y regularización múltiple .

Otros tipos

Se han desarrollado otros enfoques que no encajan perfectamente en esta categorización triple y, a veces, el mismo sistema de aprendizaje automático utiliza más de uno. Por ejemplo , modelado de temas , meta aprendizaje .

A partir de 2020, el aprendizaje profundo se ha convertido en el enfoque dominante para gran parte del trabajo en curso en el campo del aprendizaje automático.

Auto aprendizaje

El autoaprendizaje como paradigma de aprendizaje automático se introdujo en 1982 junto con una red neuronal capaz de autoaprendizaje denominada matriz adaptativa de barras cruzadas (CAA). Es un aprendizaje sin recompensas externas y sin consejos de maestros externos. El algoritmo de autoaprendizaje CAA calcula, de forma transversal, tanto decisiones sobre acciones como emociones (sentimientos) sobre situaciones de consecuencia. El sistema está impulsado por la interacción entre la cognición y la emoción. El algoritmo de autoaprendizaje actualiza una matriz de memoria W = || w (a, s) || de modo que en cada iteración se ejecuta la siguiente rutina de aprendizaje automático:

 In situation s perform an action a;
 Receive consequence situation s’;
 Compute emotion of being in consequence situation v(s’);
 Update crossbar memory  w’(a,s) = w(a,s) + v(s’).

Es un sistema con solo una entrada, situación s, y solo una salida, acción (o comportamiento) a. No hay una entrada de refuerzo separada ni una entrada de asesoramiento del entorno. El valor retropropagado (refuerzo secundario) es la emoción hacia la situación de consecuencia. El CAA existe en dos ambientes, uno es el ambiente conductual donde se comporta, y el otro es el ambiente genético, de donde inicialmente y solo una vez recibe emociones iniciales sobre situaciones que se encuentran en el ambiente conductual. Después de recibir el vector del genoma (especie) del entorno genético, el CAA aprende un comportamiento de búsqueda de objetivos, en un entorno que contiene situaciones deseables e indeseables.

Aprendizaje de funciones

Varios algoritmos de aprendizaje tienen como objetivo descubrir mejores representaciones de las entradas proporcionadas durante el entrenamiento. Los ejemplos clásicos incluyen el análisis de componentes principales y el análisis de conglomerados. Los algoritmos de aprendizaje de características, también llamados algoritmos de aprendizaje de representación, a menudo intentan preservar la información en su entrada, pero también la transforman de una manera que la hace útil, a menudo como un paso previo al procesamiento antes de realizar la clasificación o las predicciones. Esta técnica permite la reconstrucción de las entradas provenientes de la distribución generadora de datos desconocida, sin ser necesariamente fiel a configuraciones que son inverosímiles bajo esa distribución. Esto reemplaza la ingeniería de funciones manual y permite que una máquina aprenda las funciones y las use para realizar una tarea específica.

El aprendizaje de funciones puede ser supervisado o no supervisado. En el aprendizaje de funciones supervisado, las funciones se aprenden utilizando datos de entrada etiquetados. Los ejemplos incluyen redes neuronales artificiales , perceptrones multicapa y aprendizaje supervisado de diccionarios . En el aprendizaje de funciones sin supervisión, las funciones se aprenden con datos de entrada sin etiquetar. Los ejemplos incluyen aprendizaje de diccionario, análisis de componentes independientes , codificadores automáticos , factorización de matrices y varias formas de agrupamiento .

Los algoritmos de aprendizaje múltiple intentan hacerlo bajo la restricción de que la representación aprendida es de baja dimensión. Los algoritmos de codificación dispersa intentan hacerlo bajo la restricción de que la representación aprendida es escasa, lo que significa que el modelo matemático tiene muchos ceros. Los algoritmos de aprendizaje del subespacio multilineal tienen como objetivo aprender representaciones de baja dimensión directamente a partir de representaciones de tensores para datos multidimensionales, sin remodelarlos en vectores de mayor dimensión. Los algoritmos de aprendizaje profundo descubren múltiples niveles de representación, o una jerarquía de características, con características de nivel superior y más abstractas definidas en términos de (o generación) de características de nivel inferior. Se ha argumentado que una máquina inteligente es aquella que aprende una representación que desenreda los factores subyacentes de variación que explican los datos observados.

El aprendizaje de características está motivado por el hecho de que las tareas de aprendizaje automático, como la clasificación, a menudo requieren una entrada que sea matemática y computacionalmente conveniente de procesar. Sin embargo, los datos del mundo real, como imágenes, videos y datos sensoriales, no han cedido a los intentos de definir algorítmicamente características específicas. Una alternativa es descubrir tales características o representaciones a través del examen, sin depender de algoritmos explícitos.

Aprendizaje escaso de diccionario

El aprendizaje de diccionario disperso es un método de aprendizaje de características en el que un ejemplo de entrenamiento se representa como una combinación lineal de funciones básicas y se supone que es una matriz dispersa . El método es fuertemente NP-hard y difícil de resolver aproximadamente. Un método heurístico popular para el aprendizaje escaso de diccionarios es el algoritmo K-SVD . El aprendizaje escaso de diccionario se ha aplicado en varios contextos. En la clasificación, el problema es determinar la clase a la que pertenece un ejemplo de entrenamiento nunca antes visto. Para un diccionario en el que ya se ha creado cada clase, se asocia un nuevo ejemplo de entrenamiento con la clase que está mejor representada de forma dispersa por el diccionario correspondiente. El aprendizaje escaso de diccionario también se ha aplicado en la eliminación de ruido de imágenes . La idea clave es que un parche de imagen limpio se puede representar escasamente con un diccionario de imágenes, pero el ruido no.

Detección de anomalías

En la minería de datos , la detección de anomalías, también conocida como detección de valores atípicos, es la identificación de elementos, eventos u observaciones raros que generan sospechas al diferir significativamente de la mayoría de los datos. Por lo general, los elementos anómalos representan un problema como un fraude bancario , un defecto estructural, problemas médicos o errores en un texto. Las anomalías se denominan valores atípicos , novedades, ruido, desviaciones y excepciones.

En particular, en el contexto del abuso y la detección de intrusiones en la red, los objetos interesantes a menudo no son objetos raros, sino estallidos inesperados de inactividad. Este patrón no se adhiere a la definición estadística común de un valor atípico como un objeto raro, y muchos métodos de detección de valores atípicos (en particular, algoritmos no supervisados) fallarán en dichos datos a menos que se hayan agregado adecuadamente. En cambio, un algoritmo de análisis de conglomerados puede detectar los microgrupos formados por estos patrones.

Existen tres amplias categorías de técnicas de detección de anomalías. Las técnicas de detección de anomalías no supervisadas detectan anomalías en un conjunto de datos de prueba sin etiquetar bajo el supuesto de que la mayoría de las instancias en el conjunto de datos son normales, buscando las instancias que parecen ajustarse menos al resto del conjunto de datos. Las técnicas de detección de anomalías supervisadas requieren un conjunto de datos que se ha etiquetado como "normal" y "anormal" e implica el entrenamiento de un clasificador (la diferencia clave con muchos otros problemas de clasificación estadística es la naturaleza inherentemente desequilibrada de la detección de valores atípicos). Las técnicas de detección de anomalías semi-supervisadas construyen un modelo que representa el comportamiento normal a partir de un conjunto de datos de entrenamiento normal dado y luego prueban la probabilidad de que el modelo genere una instancia de prueba.

Aprendizaje de robots

En la robótica del desarrollo , es como los humanos, realizan tareas servales y controlados por las computadoras, su parte de la computación y su algoritmo, los algoritmos de aprendizaje de robots generan sus propias secuencias de experiencias de aprendizaje, también conocidas como currículo, para adquirir de manera acumulativa nuevas habilidades a través de la exploración autoguiada. e interacción social con los humanos. Estos robots utilizan mecanismos de orientación como el aprendizaje activo, la maduración, las sinergias motoras y la imitación.

reglas de asociación

El aprendizaje de reglas de asociación es un método de aprendizaje automático basado en reglas para descubrir relaciones entre variables en grandes bases de datos. Su objetivo es identificar reglas sólidas descubiertas en bases de datos utilizando alguna medida de "interés".

El aprendizaje automático basado en reglas es un término general para cualquier método de aprendizaje automático que identifica, aprende o desarrolla "reglas" para almacenar, manipular o aplicar conocimientos. La característica definitoria de un algoritmo de aprendizaje automático basado en reglas es la identificación y utilización de un conjunto de reglas relacionales que representan colectivamente el conocimiento capturado por el sistema. Esto contrasta con otros algoritmos de aprendizaje automático que comúnmente identifican un modelo singular que se puede aplicar universalmente a cualquier instancia para hacer una predicción. Los enfoques de aprendizaje automático basados ​​en reglas incluyen sistemas de clasificación de aprendizaje, aprendizaje de reglas de asociación y sistemas inmunes artificiales .

Basándose en el concepto de reglas estrictas, Rakesh Agrawal , Tomasz Imieliński y Arun Swami introdujeron reglas de asociación para descubrir regularidades entre productos en datos de transacciones a gran escala registrados por sistemas de punto de venta (POS) en los supermercados. Por ejemplo, la regla que se encuentra en los datos de ventas de un supermercado indicaría que si un cliente compra cebollas y papas juntas, es probable que también compre carne de hamburguesa. Dicha información se puede utilizar como base para decisiones sobre actividades de marketing, como precios promocionales o colocaciones de productos . Además del análisis de la cesta de la compra , en la actualidad se emplean reglas de asociación en áreas de aplicación que incluyen minería de uso de la Web , detección de intrusiones , producción continua y bioinformática . A diferencia de la minería de secuencias , el aprendizaje de reglas de asociación generalmente no considera el orden de los elementos dentro de una transacción o entre transacciones.

Los sistemas de clasificación de aprendizaje (LCS) son una familia de algoritmos de aprendizaje automático basados ​​en reglas que combinan un componente de descubrimiento, generalmente un algoritmo genético , con un componente de aprendizaje, que realiza aprendizaje supervisado , aprendizaje reforzado o aprendizaje no supervisado . Buscan identificar un conjunto de reglas dependientes del contexto que almacenan y aplican colectivamente el conocimiento por partes para hacer predicciones.

La programación lógica inductiva (ILP) es un enfoque para el aprendizaje de reglas que utiliza la programación lógica como una representación uniforme para ejemplos de entrada, conocimientos previos e hipótesis. Dada una codificación del conocimiento previo conocido y un conjunto de ejemplos representados como una base de datos lógica de hechos, un sistema ILP derivará un programa lógico hipotético que incluye todos los ejemplos positivos y no negativos. La programación inductiva es un campo relacionado que considera cualquier tipo de lenguaje de programación para representar hipótesis (y no solo la programación lógica), como los programas funcionales .

La programación lógica inductiva es particularmente útil en bioinformática y procesamiento del lenguaje natural . Gordon Plotkin y Ehud Shapiro sentaron las bases teóricas iniciales para el aprendizaje automático inductivo en un entorno lógico. Shapiro construyó su primera implementación (Model Inference System) en 1981: un programa Prolog que infería inductivamente programas lógicos a partir de ejemplos positivos y negativos. El término inductivo aquí se refiere a la inducción filosófica , sugiriendo una teoría para explicar los hechos observados, en lugar de la inducción matemática , demostrando una propiedad para todos los miembros de un conjunto bien ordenado.

Modelos

La realización del aprendizaje automático implica la creación de un modelo , que se entrena con algunos datos de entrenamiento y luego puede procesar datos adicionales para hacer predicciones. Se han utilizado e investigado varios tipos de modelos para sistemas de aprendizaje automático.

Redes neuronales artificiales

Una red neuronal artificial es un grupo de nodos interconectados, similar a la vasta red de neuronas en un cerebro . Aquí, cada nodo circular representa una neurona artificial y una flecha representa una conexión entre la salida de una neurona artificial y la entrada de otra.

Las redes neuronales artificiales (ANN), o sistemas conexionistas , son sistemas informáticos inspirados vagamente en las redes neuronales biológicas que constituyen los cerebros de los animales . Dichos sistemas "aprenden" a realizar tareas considerando ejemplos, generalmente sin estar programados con reglas específicas de tareas.

Una ANN es un modelo basado en una colección de unidades o nodos conectados llamados " neuronas artificiales ", que modelan libremente las neuronas en un cerebro biológico . Cada conexión, como las sinapsis en un cerebro biológico , puede transmitir información, una "señal", de una neurona artificial a otra. Una neurona artificial que recibe una señal puede procesarla y luego enviar señales a neuronas artificiales adicionales conectadas a ella. En implementaciones de ANN comunes, la señal en una conexión entre neuronas artificiales es un número real , y la salida de cada neurona artificial se calcula mediante alguna función no lineal de la suma de sus entradas. Las conexiones entre neuronas artificiales se denominan "bordes". Las neuronas y los bordes artificiales suelen tener un peso que se ajusta a medida que avanza el aprendizaje. El peso aumenta o disminuye la fuerza de la señal en una conexión. Las neuronas artificiales pueden tener un umbral tal que la señal solo se envíe si la señal agregada cruza ese umbral. Normalmente, las neuronas artificiales se agregan en capas. Diferentes capas pueden realizar diferentes tipos de transformaciones en sus entradas. Las señales viajan desde la primera capa (la capa de entrada) hasta la última capa (la capa de salida), posiblemente después de atravesar las capas varias veces.

El objetivo original del enfoque ANN era resolver problemas de la misma manera que lo haría un cerebro humano . Sin embargo, con el tiempo, la atención se centró en la realización de tareas específicas, lo que provocó desviaciones de la biología . Las redes neuronales artificiales se han utilizado en una variedad de tareas, que incluyen visión por computadora , reconocimiento de voz , traducción automática , filtrado de redes sociales , juegos de mesa y videojuegos y diagnóstico médico .

El aprendizaje profundo consta de múltiples capas ocultas en una red neuronal artificial. Este enfoque intenta modelar la forma en que el cerebro humano procesa la luz y el sonido en la visión y el oído. Algunas aplicaciones exitosas del aprendizaje profundo son la visión por computadora y el reconocimiento de voz .

Árboles de decisión

El aprendizaje del árbol de decisiones utiliza un árbol de decisiones como modelo predictivo para pasar de las observaciones sobre un elemento (representado en las ramas) a las conclusiones sobre el valor objetivo del elemento (representado en las hojas). Es uno de los enfoques de modelado predictivo que se utilizan en estadística, minería de datos y aprendizaje automático. Los modelos de árbol en los que la variable de destino puede tomar un conjunto discreto de valores se denominan árboles de clasificación; en estas estructuras de árbol, las hojas representan etiquetas de clase y las ramas representan conjunciones de características que conducen a esas etiquetas de clase. Los árboles de decisión en los que la variable de destino puede tomar valores continuos (normalmente números reales ) se denominan árboles de regresión. En el análisis de decisiones, se puede utilizar un árbol de decisiones para representar de forma visual y explícita las decisiones y la toma de decisiones . En la minería de datos, un árbol de decisiones describe los datos, pero el árbol de clasificación resultante puede ser una entrada para la toma de decisiones.

Máquinas de vectores de soporte

Las máquinas de vectores de soporte (SVM), también conocidas como redes de vectores de soporte, son un conjunto de métodos de aprendizaje supervisados relacionados que se utilizan para la clasificación y la regresión. Dado un conjunto de ejemplos de entrenamiento, cada uno marcado como perteneciente a una de dos categorías, un algoritmo de entrenamiento de SVM crea un modelo que predice si un nuevo ejemplo pertenece a una categoría u otra. Un algoritmo de entrenamiento de SVM es un clasificador lineal binario , no probabilístico , aunque existen métodos como el escalado de Platt para usar SVM en una configuración de clasificación probabilística. Además de realizar una clasificación lineal, las SVM pueden realizar de manera eficiente una clasificación no lineal utilizando lo que se llama el truco del kernel , mapeando implícitamente sus entradas en espacios de características de alta dimensión.

Ilustración de regresión lineal en un conjunto de datos.

Análisis de regresión

El análisis de regresión abarca una gran variedad de métodos estadísticos para estimar la relación entre las variables de entrada y sus características asociadas. Su forma más común es la regresión lineal , donde se dibuja una sola línea para ajustarse mejor a los datos dados de acuerdo con un criterio matemático, como mínimos cuadrados ordinarios . Este último a menudo se amplía mediante métodos de regularización (matemáticas) para mitigar el sobreajuste y el sesgo, como en la regresión de crestas . Cuando se trata de problemas no lineales, los modelos de referencia incluyen regresión polinomial (por ejemplo, utilizada para el ajuste de líneas de tendencia en Microsoft Excel), regresión logística (a menudo utilizada en la clasificación estadística ) o incluso regresión del kernel , que introduce la no linealidad aprovechando del truco del kernel para mapear implícitamente las variables de entrada a un espacio de mayor dimensión.

Redes bayesianas

Una simple red bayesiana. La lluvia influye en si el aspersor está activado, y tanto la lluvia como el aspersor influyen en si el césped está mojado.

Una red bayesiana, una red de creencias o un modelo gráfico acíclico dirigido es un modelo gráfico probabilístico que representa un conjunto de variables aleatorias y su independencia condicional con un gráfico acíclico dirigido (DAG). Por ejemplo, una red bayesiana podría representar las relaciones probabilísticas entre enfermedades y síntomas. Dados los síntomas, la red se puede utilizar para calcular las probabilidades de presencia de diversas enfermedades. Existen algoritmos eficientes que realizan inferencias y aprendizaje. Las redes bayesianas que modelan secuencias de variables, como señales de voz o secuencias de proteínas , se denominan redes bayesianas dinámicas . Las generalizaciones de redes bayesianas que pueden representar y resolver problemas de decisión bajo incertidumbre se denominan diagramas de influencia .

Algoritmos genéticos

Un algoritmo genético (GA) es un algoritmo de búsqueda y una técnica heurística que imita el proceso de selección natural , utilizando métodos como la mutación y el cruce para generar nuevos genotipos con la esperanza de encontrar buenas soluciones a un problema dado. En el aprendizaje automático, los algoritmos genéticos se utilizaron en las décadas de 1980 y 1990. Por el contrario, se han utilizado técnicas de aprendizaje automático para mejorar el rendimiento de los algoritmos genéticos y evolutivos .

Modelos de entrenamiento

Por lo general, los modelos de aprendizaje automático requieren una gran cantidad de datos para que funcionen bien. Por lo general, al entrenar un modelo de aprendizaje automático, es necesario recopilar una muestra grande y representativa de datos de un conjunto de entrenamiento. Los datos del conjunto de capacitación pueden ser tan variados como un corpus de texto, una colección de imágenes y datos recopilados de usuarios individuales de un servicio. El sobreajuste es algo a tener en cuenta al entrenar un modelo de aprendizaje automático. Los modelos entrenados derivados de datos sesgados pueden generar predicciones sesgadas o no deseadas. El sesgo algorítmico es un resultado potencial de los datos que no están completamente preparados para el entrenamiento.

Aprendizaje federado

El aprendizaje federado es una forma adaptada de inteligencia artificial distribuida para entrenar modelos de aprendizaje automático que descentraliza el proceso de entrenamiento, lo que permite mantener la privacidad de los usuarios al no tener que enviar sus datos a un servidor centralizado. Esto también aumenta la eficiencia al descentralizar el proceso de capacitación a muchos dispositivos. Por ejemplo, Gboard utiliza el aprendizaje automático federado para entrenar modelos de predicción de consultas de búsqueda en los teléfonos móviles de los usuarios sin tener que enviar búsquedas individuales a Google .

Aplicaciones

Hay muchas aplicaciones para el aprendizaje automático, que incluyen:

En 2006, el proveedor de servicios de medios Netflix celebró el primer concurso " Premio Netflix " para encontrar un programa para predecir mejor las preferencias del usuario y mejorar la precisión de su algoritmo de recomendación de películas Cinematch existente en al menos un 10%. Un equipo conjunto formado por investigadores de AT&T Labs -Research en colaboración con los equipos Big Chaos y Pragmatic Theory construyó un modelo de conjunto para ganar el Gran Premio en 2009 por $ 1 millón. Poco después de la entrega del premio, Netflix se dio cuenta de que las calificaciones de los espectadores no eran los mejores indicadores de sus patrones de visualización ("todo es una recomendación") y cambiaron su motor de recomendaciones en consecuencia. En 2010, The Wall Street Journal escribió sobre la empresa Rebellion Research y su uso del aprendizaje automático para predecir la crisis financiera. En 2012, el cofundador de Sun Microsystems , Vinod Khosla , predijo que el 80% de los trabajos de los médicos se perderían en las próximas dos décadas debido al software de diagnóstico médico de aprendizaje automático automatizado. En 2014, se informó que se había aplicado un algoritmo de aprendizaje automático en el campo de la historia del arte para estudiar pinturas de bellas artes y que puede haber revelado influencias previamente no reconocidas entre los artistas. En 2019, Springer Nature publicó el primer libro de investigación creado con aprendizaje automático. En 2020, la tecnología de aprendizaje automático se utilizó para ayudar a realizar diagnósticos y ayudar a los investigadores a desarrollar una cura para COVID-19. El aprendizaje automático se aplica recientemente para predecir el comportamiento ecológico del ser humano. Recientemente, la tecnología de aprendizaje automático también se aplica para optimizar el rendimiento y el comportamiento térmico de los teléfonos inteligentes en función de la interacción del usuario con el teléfono.

Limitaciones

Aunque el aprendizaje automático ha sido transformador en algunos campos, los programas de aprendizaje automático a menudo no brindan los resultados esperados. Las razones de esto son numerosas: falta de datos (adecuados), falta de acceso a los datos, sesgo de los datos, problemas de privacidad, tareas y algoritmos mal elegidos, herramientas y personas incorrectas, falta de recursos y problemas de evaluación.

En 2018, un automóvil autónomo de Uber no pudo detectar a un peatón, que murió después de una colisión. Los intentos de utilizar el aprendizaje automático en el cuidado de la salud con el sistema IBM Watson fallaron incluso después de años de tiempo y miles de millones de dólares invertidos.

El aprendizaje automático se ha utilizado como una estrategia para actualizar la evidencia relacionada con la revisión sistemática y el aumento de la carga del revisor relacionada con el crecimiento de la literatura biomédica. Si bien ha mejorado con los conjuntos de entrenamiento, aún no se ha desarrollado lo suficiente como para reducir la carga de trabajo sin limitar la sensibilidad necesaria para las propias investigaciones de los hallazgos.

Parcialidad

Los enfoques de aprendizaje automático en particular pueden sufrir diferentes sesgos de datos. Es posible que un sistema de aprendizaje automático capacitado específicamente para los clientes actuales no pueda predecir las necesidades de los nuevos grupos de clientes que no están representados en los datos de capacitación. Cuando se entrena con datos creados por el hombre, es probable que el aprendizaje automático recoja los prejuicios constitucionales e inconscientes que ya están presentes en la sociedad. Se ha demostrado que los modelos de lenguaje aprendidos de los datos contienen sesgos similares a los humanos. Se ha descubierto que los sistemas de aprendizaje automático utilizados para la evaluación de riesgos delictivos están predispuestos contra las personas de raza negra. En 2015, las fotos de Google a menudo etiquetaban a las personas negras como gorilas, y en 2018 esto aún no estaba bien resuelto, pero según los informes, Google todavía estaba usando la solución para eliminar a todos los gorilas de los datos de entrenamiento y, por lo tanto, no pudo reconocer a los gorilas reales en todos. Se han encontrado problemas similares con el reconocimiento de personas no blancas en muchos otros sistemas. En 2016, Microsoft probó un chatbot que aprendió de Twitter y rápidamente aprendió un lenguaje racista y sexista. Debido a estos desafíos, el uso efectivo del aprendizaje automático puede tardar más en adoptarse en otros dominios. La preocupación por la equidad en el aprendizaje automático, es decir, reducir el sesgo en el aprendizaje automático e impulsar su uso para el bien humano, es expresada cada vez más por los científicos de inteligencia artificial, incluido Fei-Fei Li , quien recuerda a los ingenieros que "la IA no tiene nada de artificial ... es inspirado por la gente, es creado por la gente y, lo más importante, impacta a las personas. Es una herramienta poderosa que apenas estamos comenzando a comprender, y esa es una profunda responsabilidad ".

Sobreajuste

La línea azul podría ser un ejemplo de sobreajuste de una función lineal debido al ruido aleatorio.

Establecer una teoría mala y demasiado compleja manipulada para que se ajuste a todos los datos de entrenamiento anteriores se conoce como sobreajuste . Muchos sistemas intentan reducir el sobreajuste recompensando una teoría de acuerdo con qué tan bien se ajusta a los datos, pero penalizando la teoría de acuerdo con su complejidad.

Otras limitaciones

Los alumnos también pueden decepcionar al "aprender la lección equivocada". Un ejemplo de juguete es que un clasificador de imágenes entrenado solo con imágenes de caballos marrones y gatos negros podría concluir que es probable que todos los parches marrones sean caballos. Un ejemplo del mundo real es que, a diferencia de los humanos, los clasificadores de imágenes actuales a menudo no emiten juicios principalmente a partir de la relación espacial entre los componentes de la imagen, y aprenden relaciones entre píxeles que los humanos ignoran, pero que aún se correlacionan con imágenes de ciertos tipos de objetos reales. La modificación de estos patrones en una imagen legítima puede resultar en imágenes "adversarias" que el sistema clasifica erróneamente.

Las vulnerabilidades adversas también pueden resultar en sistemas no lineales, o de perturbaciones sin patrón. Algunos sistemas son tan frágiles que cambiar un solo píxel adversario induce previsiblemente una clasificación errónea.

Evaluaciones de modelos

La clasificación de los modelos de aprendizaje automático se puede validar mediante técnicas de estimación de precisión como el método de retención , que divide los datos en un conjunto de entrenamiento y prueba (convencionalmente 2/3 de conjunto de entrenamiento y 1/3 de designación de conjunto de prueba) y evalúa el rendimiento del modelo de entrenamiento. en el equipo de prueba. En comparación, el método de validación cruzada de K-veces divide aleatoriamente los datos en K subconjuntos y luego se realizan K experimentos, cada uno considerando respectivamente 1 subconjunto para evaluación y los restantes K-1 subconjuntos para entrenar el modelo. Además de los métodos de exclusión y validación cruzada, el bootstrap , que muestra n instancias con reemplazo del conjunto de datos, se puede utilizar para evaluar la precisión del modelo.

Además de la precisión general, los investigadores informan con frecuencia la sensibilidad y la especificidad, lo que significa Tasa de Positivos Verdaderos (TPR) y Tasa de Negativos Verdaderos (TNR) respectivamente. De manera similar, los investigadores a veces informan la tasa de falsos positivos (FPR) así como la tasa de falsos negativos (FNR). Sin embargo, estas tasas son razones que no revelan sus numeradores y denominadores. La característica operativa total (TOC) es un método eficaz para expresar la capacidad de diagnóstico de un modelo. TOC muestra los numeradores y denominadores de las tasas mencionadas anteriormente, por lo que TOC proporciona más información que la característica operativa del receptor (ROC) de uso común y el área asociada bajo la curva (AUC) de ROC.

Ética

El aprendizaje automático plantea una serie de cuestiones éticas . Los sistemas que se entrenan en conjuntos de datos recopilados con sesgos pueden exhibir estos sesgos en el uso ( sesgo algorítmico ), digitalizando así los prejuicios culturales. Por ejemplo, en 1988, la Comisión para la Igualdad Racial del Reino Unido descubrió que la Escuela de Medicina de St. George había estado utilizando un programa informático formado a partir de datos del personal de admisiones anterior y este programa había denegado a casi 60 candidatos que se determinó que eran mujeres o no tenían -Nombres que suenan europeos. El uso de datos de contratación laboral de una empresa con políticas de contratación racistas puede llevar a que un sistema de aprendizaje automático duplique el sesgo al calificar a los solicitantes de empleo por similitud con los solicitantes exitosos anteriores. La recopilación responsable de datos y la documentación de las reglas algorítmicas utilizadas por un sistema es, por lo tanto, una parte fundamental del aprendizaje automático.

La IA puede estar bien equipada para tomar decisiones en campos técnicos, que dependen en gran medida de datos e información histórica. Estas decisiones se basan en la objetividad y el razonamiento lógico. Debido a que los lenguajes humanos contienen prejuicios, las máquinas entrenadas en corpus lingüísticos también aprenderán necesariamente estos prejuicios.

Otras formas de desafíos éticos, no relacionados con sesgos personales, se observan en la atención médica. Entre los profesionales de la salud existe la preocupación de que estos sistemas no estén diseñados en interés del público, sino como máquinas generadoras de ingresos. Esto es especialmente cierto en los Estados Unidos, donde existe un dilema ético de larga data de mejorar la atención médica, pero también aumentar las ganancias. Por ejemplo, los algoritmos podrían diseñarse para proporcionar a los pacientes pruebas o medicamentos innecesarios en los que los propietarios propietarios del algoritmo tienen intereses. Existe la posibilidad de que el aprendizaje automático en el cuidado de la salud brinde a los profesionales una herramienta adicional para diagnosticar, medicar y planificar rutas de recuperación para los pacientes, pero esto requiere que se mitiguen estos sesgos.

Hardware

Desde la década de 2010, los avances tanto en los algoritmos de aprendizaje automático como en el hardware informático han llevado a métodos más eficientes para entrenar redes neuronales profundas (un subdominio estrecho particular del aprendizaje automático) que contienen muchas capas de unidades ocultas no lineales. Para 2019, las unidades de procesamiento gráfico ( GPU ), a menudo con mejoras específicas de IA, habían desplazado a las CPU como el método dominante para entrenar la IA en la nube comercial a gran escala. OpenAI estimó la computación de hardware utilizada en los proyectos de aprendizaje profundo más grandes desde AlexNet (2012) a AlphaZero (2017), y encontró un aumento de 300,000 veces en la cantidad de computación requerida, con una línea de tendencia de tiempo de duplicación de 3.4 meses.

Redes neuronales neuromórficas / físicas

Una red neuronal física o computadora neuromórfica es un tipo de red neuronal artificial en la que se utiliza un material eléctricamente ajustable para emular la función de una sinapsis neuronal . La red neuronal "física" se utiliza para enfatizar la dependencia del hardware físico utilizado para emular neuronas en contraposición a los enfoques basados ​​en software. De manera más general, el término es aplicable a otras redes neuronales artificiales en las que se usa un memristor u otro material de resistencia eléctricamente ajustable para emular una sinapsis neuronal.


Software

Los paquetes de software que contienen una variedad de algoritmos de aprendizaje automático incluyen los siguientes:

Software gratuito y de código abierto

Software propietario con ediciones gratuitas y de código abierto

Software propietario

Revistas

Conferencias

Ver también

Referencias

Fuentes

Otras lecturas

enlaces externos