Isidre Royo en este Short Course te introduce en el mundo del Data Science. Podrás obtener una base sólida de todos los elementos que engloba la Inteligencia Artificial, tratando tanto el término de Machine Learning (aprendizaje automático) y el Deep Learning (aprendizaje profundizado).
Machine Learning
El Aprendizaje Automático es un conjunto de técnicas de la Inteligencia Artificial que tiene como finalidad organizar datos, generar insights inteligentes sin ser pre-programados y proporcionar a las computadoras la capacidad de poder aprender, reconociendo patrones en los datos que les entregamos, sin ser programadas.
Se divide en 3 principales áreas:
- Aprendizaje supervisado: el más conocido es el de Regresión lineal. Al algoritmo se le proporciona los datos de entrada y de salida, es decir, se le proporciona toda la información y a base de ver los ejemplos, la máquina aprende a dar un valor numérico (que este valor es lo que llamamos una regresión).
- Aprendizaje no supervisado: es cuando solamente se tienen los datos. Se supervisan los datos pero no los valores a predecir, ya que el algoritmo aprende patrones dentro de los datos sin saber para qué van a servir. De aquí el nombre, ya que le proporcionas los datos y es la computadora la que extrae las conclusiones como por ejemplo clasificaciones “del clustering”, que se utiliza para la segmentación de clientes.
- Aprendizaje por refuerzo: consiste en poner ejemplos y la máquina va tomando decisiones en función de lo que va aprendiendo de estos ejemplos. El objetivo de la máquina es optimizar la solución para conseguir un resultado.
¿Cómo funciona?
Las diferentes fases de este proceso cíclico son:
- Se obtiene el conjunto de datos que se quiere analizar (el Dataset).
- Se limpian los datos para normalizarlos y obtener una única fuente de verdad para poder iniciar correctamente el proceso de análisis.
- Se realiza el proceso de Feature Engineering, en el que se hace una selección de cuáles son los atributos de todo el Dataset más relevantes para predecir. Se disgrega aquello no útil respecto a lo que se busca predecir.
- Se empieza el proceso a través de obtener los datos que se han entrenado y con un algoritmo de aprendizaje, se entrena para conseguir un modelo. Este modelo se mezcla con nuevos datos y es cuando se obtienen predicciones; los resultados basados en la experiencia que ha adquirido la máquina a partir de los ejemplos que estaban en el Dataset.
Amplía tus conocimientos con el Máster en Data Science
Deep Learning
El Aprendizaje Profundo es un subámbito del Machine Learning que se especializa en el reconocimiento de patrones complejos en conjuntos de datos, habitualmente no estructurados y sin preprocesamiento de atributos. Este tipo de algoritmo basado en redes neuronales artificiales pretende que a través del aprendizaje, estas se comporten de la misma manera que las redes neuronales biológicas.
El Deep Learning realiza multiplicaciones, sumas entre elementos, matrices y vectores para proporcionar patrones que nos permiten hacer, por ejemplo, el procesamiento de lenguaje natural; procesarlo, entenderlo y generarlo, o el reconocimiento de palabras habladas; pasar de la voz al texto.
Ventajas que ofrece en el área de los atributos aprendidos:
- Proporciona un framework muy flexible y que es prácticamente universal.
- Se puede aplicar en las 3 áreas de Machine Learning: supervisado, no supervisado y de refuerzo.
- Una vez tienes el modelo creado, es un sistema end-to-end en el que no hay necesidad de intervención.
Diferencia entre Machine Learning y Deep Learning
La principal diferencia entre los dos elementos de la Inteligencia Artificial, es que en el Machine Learning hay hacer los pasos que comportan los datos, extraer los atributos y quedarse con los relevantes, se incorporan dentro del algoritmo de clasificación y de ahí se obtiene el output. Hay que orientar a la máquina en cada fase hasta que se realiza el proyecto para que mediante la práctica, la máquina aprenda lo que se requiere de manera automática.
Por lo contrario, en el Deep Learning no se realiza el paso de extraer los atributos porque las diferentes capas de las redes neuronales ya se encargan de esa extracción de los atributos más relevantes para poder realizar la clasificación. Es decir, la máquina trabaja por si sola el conjunto de datos que se incorporan, sin necesidad de que se la guíe en cada fase del proyecto. Es por ello, que el aprendizaje profundo es más eficiente y seguro para realizar procesos estrictos.
Si te ha gustado el artículo y quieres saber más accede al vídeo completo en Short Courses