Material de Apoyo

Esta página proporciona acceso a materiales complementarios para mejorar tu experiencia de aprendizaje. Estos recursos están diseñados para complementar nuestras sesiones y proporcionar información adicional sobre modelos generativos y temas relacionados.

Materiales del Curso

Diapositivas de Clases

Introducción al NLP

Conceptos básicos e historia del Procesamiento del Lenguaje Natural

Descargar PDF

Arquitectura de Transformers

Análisis profundo de modelos transformer y mecanismos de atención

Descargar PDF

Técnicas de Fine-tuning

Métodos avanzados para adaptar modelos pre-entrenados

Descargar PDF

Ejemplos de Código

Notebook Básico de PyTorch

Introducción a PyTorch para deep learning

Descargar Notebook

Implementación de LSTM

Implementación paso a paso de redes LSTM

Descargar Notebook

Transformer desde Cero

Construyendo un modelo transformer desde cero en PyTorch

Descargar Notebook

Lecturas Recomendadas

"Attention Is All You Need" (Vaswani et al., 2017)

El paper original sobre transformers que revolucionó el NLP.

Ver Paper

"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" (Devlin et al., 2018)

Introducción al modelo BERT que avanzó el estado del arte en muchas tareas de NLP.

Ver Paper

"Language Models are Few-Shot Learners" (Brown et al., 2020)

El paper de GPT-3 que explora las capacidades de los modelos de lenguaje grandes.

Ver Paper

Herramientas Útiles

Aquí hay algunas herramientas y recursos que pueden ayudarte en tu trabajo de investigación y desarrollo:

Hugging Face Transformers

Biblioteca que proporciona miles de modelos pre-entrenados para tareas de NLP.

Visitar Sitio Web

PyTorch Lightning

Wrapper ligero de PyTorch para investigación en IA de alto rendimiento.

Visitar Sitio Web

Weights & Biases

Plataforma MLOps para seguimiento y visualización de experimentos.

Visitar Sitio Web

Papers With Code

Recurso gratuito de papers de ML con implementaciones de código.

Visitar Sitio Web