Comunidad

24 de noviembre de 2019 | por: Comunicación EADIC | 0 comentarios

Inteligencia Artificial vs Aprendizaje Automático vs Deep Learning vs Ciencia de Datos

Es el siglo XXI, y la tecnología está cambiando más rápidamente que nunca.

En el mercado laboral actual es necesario conocer, y diferenciar, entre Inteligencia Artificial (o Artificial Intelligence) vs Aprendizaje Automático (o Machine Learning) vs Deep Learning (¿aprendizaje profundo?) vs Ciencia de Datos (o Data Science).

Estos conceptos se han convertido en palabras de moda y, como efecto colateral, también son lucrativas opciones de carrera laboral.

Pero, a menudo, vemos que estos términos son arrojados en conversaciones o en artículos, como si fueran lo mismo, como si fueran intercambiables y… la verdad… no lo son.

La necesidad de empoderar a los lectores, como usted, para distinguir estos conceptos es lo que da origen a este artículo.

Entonces, ¿está listo para explorar AI vs ML vs DL vs DS?

¡Sí! Todo empezó en los años 50 del siglo XX, aunque no fue hasta hace poco que se convirtió en parte de nuestra vida diaria gracias a los avances en la disponibilidad de Big Data y el acceso a gran capacidad de computación a un precio asequible.

 

¿Qué es la inteligencia artificial?

A medida que entramos en un mundo fascinado y obsesionado con el término “Inteligencia Artificial”, se hace mucho más fácil utilizar este término y… no saber qué es.

La Inteligencia Artificial se ha convertido en un término genérico que se refiere a cualquier programa de computadora que, automáticamente, hace algo.
Muchas personas hacen referencias a la Inteligencia Artificial sin saber realmente lo que realmente significa.

Como ya hemos visto en este artículo, la IA no es algo nuevo… no es algo reciente… no es algo que acaba de aparecer: la Inteligencia Artificial, como disciplina académica, se fundó en los años 50 del siglo XX.

En realidad, el término “IA” fue acuñado por John McCarthy, un científico informático estadounidense, en 1956, en la Conferencia de Dartmouth.

Según John McCarthy, la IA es “la ciencia y la ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes”.

La Inteligencia Artificial, abreviada como IA, se ocupa de impartir inteligencia humana a las máquinas, es decir, la IA se centra en el desarrollo de máquinas inteligentes que puedan pensar y actuar como humanos.

La Inteligencia Artificial funciona combinando grandes cantidades de conjuntos de datos con procesamiento rápido e iterativo y con algoritmos inteligentes. Esto permite que el software de Inteligencia Artificial aprenda automáticamente de patrones o características en esos vastos conjuntos de datos.

Un agente inteligente es un dispositivo que puede percibir su entorno y actuar para optimizar sus posibilidades de éxito.
Estas máquinas inteligentes imitan funciones cognitivas humanas, como el aprendizaje y la resolución de problemas.
¿Robots?… IA.
¿Coches sin conductor?… IA.
¿Ava de Ex Machina?… más IA.

En general, la Inteligencia Artificial es la inteligencia que las máquinas pueden representar: pueden pensar y actuar como humanos. Pueden realizar razonamientos lógicos, aprendizaje y también autocorrección.

La Inteligencia Artificial puede hacer predicciones y tomar decisiones.

La conclusión aquí es que la Inteligencia Artificial puede actuar.

La Inteligencia Artificial tiene, como campos de actuación, los siguientes escenarios:

  • Razonamiento y resolución de problemas
  • Representación del conocimiento
  • Planificación
  • Aprendizaje
  • Procesamiento de lenguaje natural (NLP)
  • Percepción
  • Movimiento y manipulación
  • Inteligencia social
  • Inteligencia general

Podría decirse que el hito de popularidad en la conciencia pública fue el programa de Inteligencia Artificial AlphaGo que, en Mayo del 2017, puso fin a los 2.500 años de supremacía de la humanidad en el antiguo juego de mesa Go usando un algoritmo de aprendizaje automático llamado “aprendizaje de refuerzo” (reinforced learning, del cual hablaremos más adelante).

A partir de ese momento, este tipo de noticias sobre Inteligencia Artificial se han convertido en parte de nuestros resúmenes diarios de noticias: automóviles autónomos, Alexa / Siri (y el resto de los asistentes digitales), reconocimiento facial en tiempo real en los aeropuertos, proyectos de genoma humano, algoritmos de Amazon / Netflix (y el resto de recomendadores), compositores / artistas de IA, reconocimiento de escritura a mano, los algoritmos de marketing por correo electrónico… y la lista puede seguir y seguir.

Mientras que la Inteligencia Artificial general es inteligencia artificial que puede realizar cualquier tarea intelectual que un humano puede hacer, la Inteligencia Artificial estrecha (narrow AI) a menudo realiza tareas específicas… y lo hace mejor que los humanos.

Si bien la IA general sigue siendo un sueño, el AlphaGo puede ser un ejemplo de IA estrecha.
Otro ejemplo puede ser la tecnología de reconocimiento facial de Facebook: reconocer caras es lo único que hace, y lo hace bien.

Otro ejemplo es el uso de sensores (IoT) que proporcionan datos que, a su vez, entrenan algoritmos de Machine Learning y, en última instancia, mejoran la IA. Esto beneficia la adopción de IoT con “analytics on the edge”.

 

¿Qué es el aprendizaje automático (o Machine Learning)?

“- Hola Siri, ¿qué es Machine Learning?”

Machine Learning se centra en dar a las máquinas la capacidad de aprender mediante el uso de algoritmos de entrenamiento utilizando en una gran cantidad de datos.

Machine Learning utiliza algoritmos y modelos estadísticos para realizar una tarea sin necesidad de instrucciones explícitas.

Hay tres tipos de aprendizaje dentro de Machine Learning:

  • Aprendizaje supervisado (y semi-supervisado)
  • Aprendizaje sin supervisión
  • Aprendizaje por refuerzo (Reinforced Learning)

El aprendizaje supervisado involucra el uso de una etiqueta de salida asociada con cada instancia en el conjunto de datos.

Este resultado puede ser discreto/categórico (rojo, perro, panda, señal de STOP, spam …) o de valor real.

En este momento, casi todo el aprendizaje es aprendizaje supervisado: los datos tienen etiquetas conocidas como salida.

Este aprendizaje involucra a un supervisor que tiene más conocimiento que la red neuronal misma.

Por ejemplo, el supervisor alimenta algunos datos de ejemplo sobre los cuales el supervisor ya conoce las respuestas.
En este caso, el supervisor guía el sistema etiquetando la salida.

Por ejemplo, un sistema de aprendizaje automático supervisado que puede saber qué correos electrónicos son “spam” y cuáles son “no-spam”. El algoritmo se entrenaría primero con el conjunto de datos de entrada disponibles (de millones de correos electrónicos) que ya están etiquetados con esta clasificación. De esta forma se ayuda al sistema de aprendizaje automático a aprender acerca de las características o parámetros del correo electrónico ‘spam’ y, de esta forma, aprenderá a distinguirlo de los correos electrónico que son “no-spam”.

Las técnicas como las regresiones lineales o logísticas y los árboles de clasificación de decisión se incluyen en esta categoría de aprendizaje.

 

El aprendizaje no supervisado es un aprendizaje “sin ayuda”, es decir, cuando los datos no tienen etiquetas de salida conocidas o ningún ciclo de retroalimentación.

Esto es útil cuando no hay un conjunto de datos de ejemplo con respuestas conocidas y se está buscando un patrón oculto.

En este caso, la agrupación, es decir, la división de un conjunto de elementos en grupos de acuerdo con algún patrón desconocido se lleva a cabo en función de los conjuntos de datos existentes.

El sistema tiene que entenderse a sí mismo a partir del conjunto de datos que proporcionamos.

En general, el aprendizaje no supervisado es un poco difícil de implementar y, por lo tanto, no se usa tan ampliamente como el aprendizaje supervisado.

Los tipos más populares de técnicas aplicadas en el aprendizaje no supervisado son la agrupación (o clustering) y asociación.

 

En el aprendizaje por refuerzo, en lugar de decirle al niño qué juguete poner en cada caja, recompensamos al niño con un “gran abrazo” cuando el niño toma la decisión correcta o haces una “cara triste” cuando el niño hace la acción incorrecta.

Muy rápidamente, después de algunas iteraciones, el niño aprende qué juguetes deben ir en cada caja: esto se llama aprendizaje basado en refuerzos.

De igual forma a lo descrito anteriormente, los sistemas se entrenan al recibir “recompensas” o “castigos” virtuales, esencialmente aprendiendo por prueba y error.

En el aprendizaje por refuerzo se aplica una estrategia basada en la observación y en la prueba (acierto-error) para lograr objetivos o maximizar la recompensa.

El agente toma una decisión observando su entorno. Si la observación es negativa, el algoritmo ajusta sus pesos para poder tomar una decisión requerida diferente la próxima vez.

Podríamos incluir al aprendizaje por refuerzo como parte del aprendizaje profundo (Deep Learning) en función del número de nodos ocultos y la complejidad de los algoritmos (más sobre esto más adelante).

Los algoritmos de aprendizaje por refuerzo intentan encontrar las mejores formas de obtener la mayor recompensa (las recompensas pueden ser ganar un juego, ganar más dinero o vencer a otros oponentes).

Machine Learning tiene, como campos de actuación, los siguientes escenarios:

  • Recolección de datos
  • Filtrado de datos
  • Análisis de datos
  • Algoritmos de entrenamiento
  • Prueba de algoritmos
  • Usar algoritmos para predicciones futuras

Algunos ejemplos comunes de Machine Learning son: los asistentes personales virtuales, los resultados refinados de los motores de búsqueda, el reconocimiento de imágenes y las recomendaciones de productos.

Machine Learning está dando a las máquinas la capacidad de aprender mediante el entrenamiento de algoritmos con grandes cantidades de datos. Esto es genial para hacer predicciones.

Por ejemplo, si le muestra a uno de estos algoritmos suficientes imágenes de un cachorro, identificará a un cachorro en una imagen que nunca antes había visto.

Pruébelo con imágenes de chihuahuas y de magdalenas (o muffins), o con imágenes de pulis blancos y fregonas (o trapeadores o coletos).

 

Quizás se estén preguntando: “¿- Cómo es esto diferente de la IA?”

Bueno, Machine Learning es un enfoque de la IA: es una forma de lograr la Inteligencia Artificial.
Es posible lograr la Inteligencia Artificial sin ML, pero eso puede requerir millones de líneas de código.

NOTAS:

  • AlphaGo, ya mencionado anteriormente en este artículo, ganó un juego contra un gran maestro (den 9) de Go.
    ¿Qué es el Go? Es un juego de mesa que tiene más posibles combinaciones que 10 elevado a 170, es decir, mayor que el número de átomos en el Universo.
    Para ello utilizó una combinación de aprendizaje de refuerzo y aprendizaje supervisado (por humanos) para construir redes neuronales de “valor” y “política”, y se utilizó un árbol de búsqueda para ejecutar las estrategias durante el juego.
    El software aprendió a partir de 30 millones de movimientos jugados en juegos de humano a humano.
  • Google DeepMind venció a los profesionales humanos en Starcraft II, una novedad en el mundo de la inteligencia artificial, ya que los juegos como Starcraft II son más difíciles de jugar para las computadoras que los juegos de mesa, como el ajedrez o el Go.

¿Qué es Deep Learning?

Deep Learning es un enfoque del aprendizaje automático (Machine Learning) que se centra en aprender representaciones de datos en lugar de algoritmos específicos de tareas.

Hace uso de las redes neuronales profundas, que están inspiradas en la estructura y función del cerebro humano:

 

Dichas redes neuronales artificiales están formadas por una gran cantidad de capas (con muchas capas ocultas apiladas una tras otra, de ahí su nombre).
Los datos se transforman a lo largo de múltiples capas antes de producir la salida.

Es decir, Deep Learning mejora la IA al habilitar muchas de sus aplicaciones prácticas.

Para ponerlo en perspectiva, AI nació primero. Luego llegó ML, que era un acercamiento a la IA. Y, finalmente, DL irrumpió e hizo posible todo lo que aún sólo se podía soñar en ese momento.

Deep Learning se utiliza en escenarios como el procesamiento del lenguaje natural (NLP), el descubrimiento de fármacos, en toxicología, en bioinformática, etc.

Algunos algoritmos Deep Learning son: Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN) y Generative Adversarial Networks (GAN).

Un ejemplo interesante es el sitio web thispersondoesnotexist.com, que utiliza el algoritmo de Machine Learning llamado Generative Adversarial Network (GAN) para crear imágenes de personas que no existen y muestra una nueva imagen cada vez que se actualiza el sitio web, y lo hace en alta resolución.

 

¿Qué es Ciencia de Datos (o Data Science)?

Ciencia de Datos (Data Science) es el término aplicado a un conjunto completo de herramientas y técnicas mediante las cuales es posible analizar datos y extraer información de ellos.

La Ciencia de Datos (Data Science) utiliza métodos, procesos y algoritmos científicos para que esto sea posible; combinando Machine Learning con análisis de datos “Big Data” procesados en entornos basados en cloud computing.

La Ciencia de Datos (Data Science) es un campo relacionado con la extracción de información de los datos mediante el uso de métodos y algoritmos científicos para que las empresas puedan beneficiarse (mejorar sus procesos, aumentar sus ganancias, retener a sus clientes, ofrecer mejores productos y servicios, etc.).

La Ciencia de Datos (Data Science) tiene mucho en común con toda la inteligencia artificial, el aprendizaje automático (Machine Learning) y el aprendizaje profundo (Deep Learning).

La Ciencia de Datos (Data Science) se enfoca en resolver problemas del mundo real y siempre tiene un humano involucrado (a diferencia de la IA, donde es la IA la que toma la acción).

El término “Data Science” llegó a ser una palabra de moda cuando en 2012, Harvard Business Review lo llamó “El trabajo más sexy del siglo XXI”.

El ciclo de vida de la ciencia de datos consta de 6 fases:
• Descubrimiento
• Preparación de los datos
• Planificación del modelo
• Construcción del modelo
• Comunicación de resultados
• Operacionalización

Y… ¿cómo terminaré este artículo?

Como algunos saben, tuve la oportunidad de trabajar en Microsoft en un momento único en la compañía: cuando Satya Nadella se convirtió en el nuevo CEO y los que vivimos “el viejo estilo” de gestión comenzamos a saborear “el nuevo estilo”.

Me gustaría terminar con una de mis citas favoritas de Satya Nadella: “- Creo en un mundo que tendrá abundante inteligencia artificial, pero donde lo que será escaso será la inteligencia real y las cualidades humanas, como la empatía. Creo que una gran innovación nace de la empatía que tienes con los problemas de las personas que quieres resolver “.

Autor: José Antonio Ferreira Queimada
Director de Servicios de Información en Copa Airlines
Profesor del Máster en Big Data y Business Intelligence @ EADIC

Comentarios

Deja tu comentario

You must be logged in to post a comment. So log in!

EADIC Blog