. De esta manera, el pronosticador pasa a ser entrenado y está listo para hacer predicciones de la vida real.

Un Ejemplo Simple de Aprendizaje de Máquina

En este post, mantenemos los problemas simples por el bien de la ilustración, pero la razón por la que AM existe es porque, en la vida real, los problemas son mucho más complejos. En esta pantalla plana podemos hacer un dibujo de, máximo, un set de data tridimensional pero los problemas AM comúnmente tratan con data con millones de dimensiones y funciones de predicción muy complejas. AM resuelve problemas que no pueden ser resueltos a través de medios numéricos únicamente.
 \citep{ordaz2016}

Big data: grandes bases de datos

El polémico big data, es decir, las grandes bases de datos, será clave para el desarrollo de la inteligencia artificial. Por medio de la estadística se logra encontrar la respuesta más probable en un sistema que, gracias a la supervisión humana, se va perfeccionando hasta obtener los resultados esperados.
En áreas como el sector bancario o las grandes empresas, que deben realizar análisis de cantidades ingentes de datos, el aprendizaje automático hace que estas aplicaciones se vayan programando de manera instantánea, analizando y ofreciendo resultados personalizados para cada usuario. Hoy día, todos los grandes bancos y entidades financieras están a la cabeza en la utilización de estas plataformas mostrando el camino a otros sectores productivos.

Aprendizaje profundo: la respuesta está en el cerebro

Otro concepto relacionado que hay que conocer es el deep learning, o aprendizaje profundo, ya que se encuentra en la base del funcionamiento de estos programas. Esta serie de algoritmos trata de simular el funcionamiento del cerebro humano. Imita las redes neuronales de forma básica, de modo que se logra obtener conocimientos. El deep learning es solo un aspecto más del machine learning, pero cada vez está adquiriendo más relevancia.
Y es que detrás de todos estos conceptos sigue estando una motivación más simple: una mayor efectividad en la publicidad para conseguir más clientes, más productos o, en el caso de Google, Facebook y similares, poder vender la propia publicidad a un precio mucho más elevado. Es decir, que la máquina supere al mejor vendedor y domine cómo dirigirse a las personas en cada momento, sepa qué quieren y conozca cómo llegar a empatizar con las necesidades de sus clientes al instante.

Siri, AlphaGo y otros ejemplos

siri, de Apple, es problable que sea la inteligencia artificial con machine learning más famosa del planeta. Por su parte, AlphaGo, el superprograma de Google, ha logrado derrotar al coreano Lee Se-Dol, el campeón del mundo del juego chino go. la complicación del Go es tan elevada, con más posibilidades que átomos hay en el universo, que era normal pensar que una máquina nunca lo lograría.
En España también hay ejemplos. La empresa Ibenta tiene un software que permite responder dudas de forma "inteligente", basándose en la semántica. Al enseñar lo que significa cada palabra al ordenador, se logran mejores resultados que usando solo la estadística, como la fórmula de Google Translate, que no es especialmente buena al dar sentido a sus textos.
En definitiva, estamos viviendo un momento en el que los equipos informáticos ya no solo son fuentes de información inabarcables sino que, por sí mismos, son capaces de analizar, ordenar y adquirir conocimientos a través de ellos y de la experiencia del usuario con los mismos. El caso de AlphaGo demuestra que ni en los casos en los que se pensaba que la inteligencia humana no se podía reproducir es cierto. Las máquinas ahora aprenden y hacen todo lo posible por vender, y también por hacer a las personas la vida mucho más fácil, con grandes aplicaciones en sectores como la educación o, en especial, la sanidad.\cite{hidalgo2017}
Una de las tendencias que Gartner identifica para el 2016 es el aprendizaje avanzado de las máquinas en base a las llamadas redes neuronales profundas (deep neural nets o DNNs), sistemas que pueden aprender de forma autónoma para entender el mundo. Posibilitan el auto aprendizaje de todas las características de su entorno. Las organizaciones deben evaluar cómo aplicar estas tecnologías para ganar ventaja competitiva [i]. 
Continuando con el futuro dibujado por Gartner, los algoritmos definirán el futuro de la empresa. En una empresa algorítmica, la mayor parte de lo que sucede se producirá en el trasfondo de la empresa, a través de máquinas inteligentes, sin que las personas estén directamente implicadas. Evolucionaremos a un mundo post-app, con agentes inteligentes proporcionando dinámicamente interfaces y realizando acciones contextuales como, por ejemplo, lo que Gartner llama asistentes personales virtuales (virtual personal assistants o VPAs). 
De la empresa digital a la empresa algorítmica.  
Un ejemplo de asistente personal es la herramienta que acaba de hacer pública Google, llamada "dubbed smart reply (DSR)" con la cual un dispositivo con servicio de correo podría responder automáticamente correos-e. De momento, la herramienta propone 3 breves respuestas de las cuales se puede elegir una y, si se quiere, completarla o codificarla. DSR aprende analizando gran cantidad de correos-e del servicio Gmail de una vasta red de ordenadores, las redes neuronales a las que hace referencia Gartner, llamadas así por su funcionamiento análogo a las redes neuronales de nuestro cerebro. Las redes analizan la información en base a algoritmos para aprender una tarea concreta, en este caso entender los correos y ser capaces de responderlos. 
Estos algoritmos, llamados "Deep learning", provienen de la Inteligencia Artificial (IA) de los años 80, pero es ahora con la vasta de red de comunicaciones y la enorme cantidad de datos de los que se dispone que se les está sacando todo su potencial  y  que está haciendo evolucionar rápidamente un amplio rango de servicios online, como el reconocimiento del habla en el teléfono, la traducción instantánea en Skype, el reconocimiento de caras en las imágenes que se suben a la red, las recomendaciones de cosas que nos pueden gustar o amigos que podemos hacer, al fin y al cabo campos tradicionales de la IA -reconocimiento de voz, reconocimiento de imágenes, textos- y a la robótica, con un único modelo de aprendizaje. 
Las máquinas aprenden por medio de algoritmos inspirados en cómo se cree que funciona nuestro cerebro, que son capaces de tratar grandes cantidades de datos estructurados y no estructurados, y que no tienen limitaciones teóricas sobre lo que pueden llegar a hacer. De cuantos más datos se les provea o las máquinas mismas recojan, y cuanto más largo sea el tiempo de cálculo, mejores resultados conseguirán. Por ejemplo, analizando gran cantidad de palabras habladas, pueden aprender a reconocer las órdenes dadas por voz a un teléfono. 
Y ya no habrá que escribir instrucciones precisas en las que decir a las máquinas lo que tienen que hacer, dependiendo de las situaciones tomarán decisiones en una u otra dirección sin que se les haya dado dichas instrucciones expresas escritas en un programa. 
En realidad, es nuestra forma de aprender, absorbiendo datos y situaciones desde que nacemos, creando patrones y aplicándolos a nuevas situaciones -con mayor o menor fortuna-. 
De momento, tenemos que seguir escribiendo y manteniendo máquinas con viejos y nuevos algoritmos, ¿pero por cuánto tiempo? En un articulo publicado por MIT el 15 de junio de 2015, Larry Hardesty explicaba que investigadores del MIT habían presentado  un nuevo sistema para reparar errores peligrosos de software (SW) importando funcionalidades de otras aplicaciones más seguras. En el mismo artículo se indicaba que existen "toneladas" de código fuente disponible en repositorios open-source, millones de proyectos, y una gran cantidad de estos proyectos implementan funcionalidades similares o tienen componentes con funcionalidades comunes. El sistema toma las mejores componentes que encuentra. 
Con estas toneladas de código las máquinas podrían aprender no sólo a arreglar un error, sino a programar[se] nuevas funcionalidades.  
Las máquinas ya saben leer y escribir, pueden interpretar lo que oyen -los dictáfonos, traductores, etc-, sus cámaras no sólo registran lo que ven, sino que lo interpretan -búsquedas en Google de texto a partir de imágenes o búsquedas de imágenes a partir de texto-. 
Primero fueron las herramientas para realizar actividades que nuestros músculos no podían, es decir, realizar actividades físicas, pero manejadas con energía muscular; estas evolucionaron hacia máquinas-herramientas cuyo movimiento sería autónomo a base de motores impulsados por energía térmica, hidráulica o eléctrica pero dirigidos por nuestro cerebro; posteriormente, llegaron las máquinas dirigidas por instrucciones residentes en las propias máquinas, las máquinas programables con programa almacenado, que eran -y son- capaces de realizar otro tipo de actividad, más de la mente que de los músculos, actividades automatizables y repetitivas que responden a algoritmos matemáticos. Llegó la revolución del SW. 
Al mismo tiempo que las máquinas-herramientas evolucionaban, evolucionaba el trabajo, de un trabajo con los músculos a un trabajo con la mente, de generar valor con los músculos a generar valor con la mente, lo que podríamos llamar el trabajo del conocimiento. 
Y la evolución del SW, y por ende, la evolución de lo que las máquinas pueden hacer, continúa. Ahora las máquinas están aprendiendo de todo lo que les rodea, con lo que las estamos dotando, también, de capacidad de generar valor con su mente artificial. Este valor generado por las máquinas es el que tenemos que saber utilizar para, a su vez generar más valor. Viviremos y trabajaremos con ellas en nuestro beneficio y ellas nos irán re-definiendo a nosotros. \citep{calle2016}   
El filtrado de spam, el reconocimiento de rostro, los motores de recomendación; cuando se tiene un gran conjunto de datos en el que le gustaría realizar análisis predictivo o de reconocimiento de patrones, el aprendizaje automático, o aprendizaje de máquina, es el camino a seguir. Esta ciencia, en la que las computadoras están capacitadas para aprender, analizar y actuar sobre los datos, sin ser programadas de forma explícita, ha despertado el interés en los últimos tiempos, y ha salido fuera de su original claustro académico y de los círculos de programación de alto nivel.
Este aumento de popularidad se debe no solo a que cada vez hay hardware más barato y más potente, sino también a la proliferación de software libre que hace que el aprendizaje de máquina sea más fácil de implementar, tanto en máquinas individuales como a escala.
Estas once herramientas de aprendizaje de máquina proporcionan funcionalidad para aplicaciones individuales o frameworks integrales. Python se ha convertido en un lenguaje de programación para las matemáticas, la ciencia y las estadísticas, debido a su facilidad de adopción y a la amplitud de sus bibliotecas disponibles para casi cualquier aplicación. apalanca esta amplitud construyendo sobre varios paquetes existentes de Python -NumPy, SciPy y matplotlib- para el trabajo de matemáticas y ciencias. Las bibliotecas resultantes pueden utilizarse para aplicaciones interactivas workbench, o incrustarse en otro software y ser reutilizados. El kit está disponible bajo una licencia BSD, así que es totalmente abierto y reutilizable.  
El framework  ha estado mucho tiempo atado a Hadoop, pero muchos de los algoritmos bajo su paraguas también pueden funcionar fuera de Hadoop. Estos algoritmos son útiles para aplicaciones autónomas que eventualmente pueden migrar a Hadoop, o para proyectos Hadoop que podrían ser spun offen sus propias aplicaciones independientes.
Una desventaja de Mahout: Algunos de sus algoritmos actualmente no soportan el framework de alto rendimiento Spark para Hadoop, y en su lugar utilizan el framework legacy MapReduce, que cada vez es más obsoleto. El proyecto ya no acepta algoritmos basados en MapReduce, pero aquellos que buscan una biblioteca con más prestaciones y con garantía de futuro, preferirán echar un vistazo a MLlib. \cite{madrid2017}
El aprendizaje por parte de las computadoras es un tema fascinante y desde la introducción de las poderosas redes neuronales, se han encontrado muchísimas cuestiones por resolver. El aprendizaje a partir de la experiencia es uno de los retos más interesantes y ahora los físicos están proponiendo que los errores en este sistema para aprender, por parte de las máquinas, tenga corrección cuántica de errores, el cual es usado para diseñar protocolos de computación cuánticos tolerantes al ruido.
En un nuevo estudio los físicos han demostrado que un tipo de red neuronal llamada la máquina de Boltzmann, se puede entrenar para modelar los errores en un protocolo de computación cuántico y entonces implementar así el mejor método para corregir errores. \cite{michelone2017} relacionarse con problemas muy complejos. Distantes al día a día común de la gente, hasta robots que dentro de poco tomarán nuestros puestos de trabajo. La realidad es diferente. Estamos rodeados de aplicaciones que utilizan este tipo de tecnología aunque a veces no lo notemos. Desde que entramos a nuestro servicio de correo electrónico y nuestros mensajes están separados entre importantes y “spam”. Cuando subes una imagen a Facebook y te sugiere etiquetar a amigos que aparecen en ella. O cuando servicios de música como Spotify te recomiendan acertadamente nuevos grupos o canciones basándose en lo que has escuchado antes. ¿Alguna vez te paraste a pensar cómo se hacía todo esto?. \cite{victoria2015}
El Grupo de Reconocimiento de Patrones e Inteligencia Artificial organiza el taller: Aplicaciones de Aprendizaje de Máquina en Genómica, a cargo de los Dres. Edwin Villanueva y Soledad Espezua, miembros investigadores del GRPIAA. En esta charla se presentará algunas investigaciones en las que los autores han participado recientemente, las cuales involucran problemas de genómica. Particularmente, se mostrará aplicaciones de meta-aprendizaje, comités de clasificadores y Projection-Pursuit en datos de expresión génica para la detección de tejidos con patologías, como cáncer. También, se mostrará desarrollos que se están haciendo actualmente en el grupo de Reconocimiento De Patrones e Inteligencia Artificial Aplicada (GRPIAA) de la PUCP para la detección de interacciones funcionales gene-gene a partir de datos observacionales temporales de expresión génica.\cite{villaruel2017}
Regularización es cuando añades un término que suaviza los resultados para evitar el sobreajuste (overfitting).
Esto quiere decir que, cuando entrenas una maquina, la maquina intentará adaptarse lo máximo posible a los datos de entrenamiento, ya que quiere evitar lo más posible el error. Pero en machine learning esto no es óptimo ya que un sobreajuste en los datos de entrenamiento puede producir una poca capacidad de predicción en los datos reales.
Por poner un ejemplo burdo, imaginemos un problema de Regresion lineal en la que tienes que calcular el precio de un coche según su numero de kilometros recorridos. Tu coche tiene 200.000 kilómetros y la maquina mientras entrenaba solo tenía un coche con esos kilómetros y era un Ferrari. Ovbiamente si la maquina se sobreajustó al entrenamiento te dirá que tu coche podría valer 20.000 euros cuando en realidad en mercado valdría 1.000. En este ejemplo si este modelo hubiese sido regularizado vería que el coche estaba sobrevalorado comparado con sus vecinos de mas y menos kilometros y se hubiese corregido el error.
 Esto quiere decir que, cuando entrenas una maquina, la maquina intentará adaptarse lo máximo posible a los datos de entrenamiento, ya que quiere evitar lo más posible el error. Pero en machine learning esto no es óptimo ya que un sobre ajuste en los datos de entrenamiento puede producir una poca capacidad de predicción en los datos reales.
Por poner un ejemplo burdo, imaginemos un problema de Regresión lineal en la que tienes que calcular el precio de un coche según su numero de kilómetros recorridos. Tu coche tiene 200.000 kilómetros y la maquina mientras entrenaba solo tenía un coche con esos kilómetros y era un Ferrari. Obviamente si la maquina se sobreajustó al entrenamiento te dirá que tu coche podría valer 20.000 euros cuando en realidad en mercado valdría 1.000. En este ejemplo si este modelo hubiese sido regularizado vería que el coche estaba sobrevalorado comparado con sus vecinos de mas y menos kilómetros y se hubiese corregido el error.\cite{gonzalez2016}
La nueva investigación de CSAIL emplea muchos tipos de datos médicos, incluyendo registros de salud electrónicos, para predecir los resultados en los hospitales.
Los doctores son a menudo inundados por las señales de las cartas, de los resultados de la prueba, y de otras métricas para no perder de vista. Puede ser difícil integrar y monitorear todos estos datos para múltiples pacientes mientras toma decisiones de tratamiento en tiempo real, especialmente cuando los datos están documentados de manera inconsistente en los hospitales.
En un nuevo par de documentos, investigadores del Laboratorio de Informática y Inteligencia Artificial (CSAIL) del MIT exploran maneras de que las computadoras ayuden a los médicos a tomar mejores decisiones médicas.
Un equipo creó un método de aprendizaje de la máquina llamado “ICU Intervene” que toma grandes cantidades de datos de la unidad de cuidados intensivos (UCI), desde los vitales y los laboratorios hasta las notas y datos demográficos, para determinar qué tipos de tratamientos son necesarios para los diferentes síntomas. El sistema utiliza un ”aprendizaje profundo” para hacer predicciones en tiempo real, aprendiendo de los casos pasados de la UCI para hacer sugerencias para el cuidado crítico, mientras que también explica el razonamiento detrás de estas decisiones.
“El sistema podría ser una ayuda para los médicos en la UCI, que es un alto estrés, el ambiente de alta demanda”, dice el estudiante de doctorado Harini Suresh, autor principal en el documento sobre ICU Intervención. “El objetivo es aprovechar los datos de los registros médicos para mejorar el cuidado de la salud y predecir intervenciones factibles”.
Otro equipo desarrolló un método denominado “EHR Model Transfer” que puede facilitar la aplicación de modelos predictivos en un sistema de registro electrónico de salud (EHR), a pesar de estar capacitado en datos de un sistema de HME diferente. Concretamente, utilizando este enfoque, el equipo demostró que los modelos predictivos para la mortalidad y la duración prolongada de la estancia pueden ser entrenados en un sistema de HME y utilizados para hacer predicciones en otro.
ICU Intervene fue co-desarrollado por Suresh, estudiante de pregrado Nathan Hunt, postdoctor Alistair Johnson, el investigador Leo Anthony Celi, MIT Profesor Peter Szolovits, y el doctorado Marzyeh Ghassemi. Fue presentado este mes en el Aprendizaje de la máquina para la Conferencia de Salud en Boston.
\cite{salas2017}
La inteligencia artificial (AI) y aprendizaje máquina avanzada (ML) se componen de muchas tecnologías y técnicas (por ejemplo, aprendizaje en profundidad, las redes neuronales, procesamiento de lenguaje natural [NLP]). “Las técnicas más avanzadas ir más allá del típico basado en algoritmos para crear sistemas que comprender, aprender, predecir, adaptarse y, potencialmente, funcionan de manera autónoma. Esto es lo que hace que las máquinas inteligentes aparecen “inteligente.”, señala el experto Maximiliano Gonzales Kunz
 
González Kunz agrega: “Applied Ai y aprendizaje máquina avanzada dan lugar a un espectro de implementaciones inteligentes, incluyendo dispositivos físicos (robots, vehículos autónomos, electrónica de consumo), así como aplicaciones y servicios virtuales (asistentes personales [UNION DAV], asesores inteligentes). Aparte el especialista maximiliano Gonzales señala: “Estas implementaciones se entregan como una nueva clase de aplicaciones inteligentes, obviamente, y cosas así como proporcionar inteligencia integrada para una amplia gama de dispositivos de malla y soluciones de software y servicios existentes.”\cite{chachu2017}
Machine learning involves giving computers the capacity to learn, develop, and perform increasingly complex tasks on their own. This ability has applications in a wide array of fields, including health care, finance, consumer technology, education, resources, and government. Machine Learning Engineers create algorithms for self-driving cars, foreign language translation, retrieving and processing data from social networks, and processing and reviewing customer data. In our Machine Learning Engineer Nanodegree, you develop a skillset that you can apply to a wide variety of careers. \cite{udacity2015}
Machine learning represents a key evolution in the fields of computer science, data analysis, software engineering, and artificial intelligence.
This program will teach you how to become a machine learning engineer, and apply predictive models to massive data sets in fields like finance, healthcare, education, and more
refer specifically to
 the application of machine learningmethods or other similar methods, to discover and to enumerate patterns present in this information.  \cite{lidia2016}\cite{lidia2016}
Machine learning is a type of artificial intelligence (AL) that allows software applications to become more accurate in predicting outcomes without being explicitly programmed. The basic premise of machine learning is to build  that can receive input data and use  to predict an output value within an acceptable range. 
Machine learning algorithms are often categorized as being Supervised algorithms require humans to provide both input and desired output, in addition to furnishing feedback about the accuracy of predictions during training. Once training is complete, the algorithm will apply what was learned to new data. Unsupervised algorithms do not need to be trained with desired outcome data. Instead, they use an iterative approach called  to review data and arrive at conclusions. Unsupervised learning algorithms are used for more complex processing tasks than supervised learning systems.
The processes involved in machine learning are similar to that o Both require searching through data to look for patterns and adjusting program actions accordingly. Many people are familiar with machine learning from shopping on the internet and being served ads related to their purchase. This happens because use machine learning to personalize online ad delivery in almost real time. Beyond personalized marketing, other common machine learning use cases include fraud detection, spam filtering, network security threat detection, and building news feeds.
Facebook's News Feed, for example, uses machine learning to personalize each member's feed. If a member frequently stops scrolling to read or "like" a particular friend's posts, the News Feed will start to show more of that friend's activity earlier in the feed. Behind the scenes, the software is simply using to identify patterns in the user's data and use those patterns to populate the News Feed. Should the member no longer stop to read, like or comment on the friend's posts, that new data will be included in the data set and the News Feed will adjust accordingly.
\cite{villegas2015}
Machine Learning! In this module, we introduce the core idea of teaching a computer to learn concepts using data—without being explicitly programmed. The Course Wiki is under construction. Please visit the resources tab for the most complete and up-to-date information. \cite{ng2017}
Because of new computing technologies, machine learning today is not like machine learning of the past. It was born from pattern recognition and the theory that computers can learn without being programmed to perform specific tasks; researchers interested in artificial intelligence wanted to see if computers could learn from data. The iterative aspect of machine learning is important because as models are exposed to new data, they are able to independently adapt. They learn from previous computations to produce reliable, repeatable decisions and results. It’s a science that’s not new – but one that has gained fresh moment  \cite{pablo2017}