IBM SkillsBuild/Deep Learning

Deep Learning: Aprendizaje Profundo (muchas capas = profundo)

¿Por que se llama "profundo"?

La palabra "deep" (profundo) se refiere a las muchas capasde neuronas artificiales que tiene la red. Imaginad un edificio con muchos pisos: cada piso (capa) procesa la informacion de forma un poco mas compleja que el anterior. Cuantas mas capas, mas "profundo" es el aprendizaje y cosas mas complicadas puede entender.

Ejemplo: como una red profunda reconoce una imagen:

Capa 1Bordes y lineas basicas
Capa 2Formas simples (circulos, cuadrados)
Capa 3Partes de objetos (ojos, nariz, ruedas)
Capa 4+El objeto completo: es un gato!

Cada capa "ve" algo mas complejo. Las primeras detectan lineas, las ultimas reconocen objetos enteros. Es asi como Instagram sabe donde estan vuestras caras para aplicar filtros.

¿Que necesita el Deep Learning?

GPUs potentes -- procesadores especiales para hacer millones de calculos a la vez (las mismas tarjetas graficas que usais para jugar a videojuegos)

Muchisimos datos -- miles o millones de ejemplos para que aprenda bien

Tiempo -- entrenar un modelo puede tardar horas, dias o incluso semanas

Dinero -- entrenar GPT-4 costo apróximadamente 100 millones de dolares

Los 4 tipos principales de redes profundas

CNN (Redes Convolucionales)

Las que "ven" imagenes

Reconocen lo que hay en fotos y videos

Filtros de Instagram, desbloqueo facial, Google Lens

RNN (Redes Recurrentes)

Las que entienden secuencias

Procesan cosas que van en orden: texto, música, series temporales

Autocompletado del teclado, prediccion del tiempo

Transformers

Las que revolucionaron la IA moderna

Procesan lenguaje y mucho mas, todo en paralelo

ChatGPT, Google Translate, DALL-E, Gemini, Claude

GAN (Redes Generativas)

Las que crean cosas nuevas

Generan imagenes, videos y audios que no existian

Caras que no existen, arte con IA, mejora de fotos

Herramientas que usan los profesionales

Si algun dia quereis crear vuestras propias redes neuronales, estas son las herramientas mas usadas:

TensorFlow

Hecho por Google

PyTorch

Hecho por Meta (Facebook)

Keras

Interfaz facil para principiantes

Dato curioso

Los Transformers (publicados en 2017) cambiaron la IA para siempre. ChatGPT, el traductor de Google, DALL-E, Claude y practicamente toda la IA que usais hoy se basa en esta arquitectura. Sin los Transformers, no existiria nada de esto.

Probad esto

Pedid a ChatGPT que os explique como funciona el mismo por dentro. Os contara que es un Transformer con miles de millones de parametros. Tambien podeis pedirle que os genere una imagen (si usais la version con DALL-E). Eso es Deep Learning funcionando en tiempo real para vosotros.

Idea clave

El Deep Learning (Aprendizaje Profundo) usa redes neuronales con muchas capas para aprender cosas cada vez mas complejas. Es lo que hay detras de ChatGPT, los filtros de Instagram, la traduccion automatica y la IA que genera imagenes. Es muy potente, pero necesita muchos datos, GPUs caras y tiempo.