Ajustar un transformador preentrenado para generar letras |
C贸mo generar letras al estilo de tu artista favorito ajustando un modelo GPT-2 |
Aleksey Korshuk |
 |
Entrenar T5 en Tensorflow 2 |
C贸mo entrenar a T5 para cualquier tarea usando Tensorflow 2. Este cuaderno demuestra una tarea de preguntas y respuestas implementada en Tensorflow 2 usando SQUAD |
Muhammad Harris |
 |
Entrenar T5 en TPU |
C贸mo entrenar a T5 en SQUAD con Transformers y Nlp |
Suraj Patil |
 |
Ajustar T5 para Clasificaci贸n y Opci贸n M煤ltiple |
C贸mo ajustar T5 para clasificaci贸n y tareas de opci贸n m煤ltiple usando un formato de texto a texto con PyTorch Lightning |
Suraj Patil |
 |
Ajustar DialoGPT en nuevos conjuntos de datos e idiomas |
C贸mo ajustar el modelo DialoGPT en un nuevo conjunto de datos para chatbots conversacionales de di谩logo abierto |
Nathan Cooper |
 |
Modelado de secuencias largas con Reformer |
C贸mo entrenar en secuencias de hasta 500,000 tokens con Reformer |
Patrick von Platen |
 |
Ajustar BART para resumir |
C贸mo ajustar BART para resumir con fastai usando blurr |
Wayde Gilliam |
 |
Ajustar un Transformador previamente entrenado en los tweets de cualquier persona |
C贸mo generar tweets al estilo de tu cuenta de Twitter favorita ajustando un modelo GPT-2 |
Boris Dayma |
 |
Optimizar 馃 modelos de Hugging Face con pesos y sesgos |
Un tutorial completo que muestra la integraci贸n de W&B con Hugging Face |
Boris Dayma |
 |
Preentrenar Longformer |
C贸mo construir una versi贸n "larga" de modelos preentrenados existentes |
Iz Beltagy |
 |
Ajustar Longformer para control de calidad |
C贸mo ajustar el modelo antiguo para la tarea de control de calidad |
Suraj Patil |
 |
Evaluar modelo con 馃nlp |
C贸mo evaluar longformer en TriviaQA con nlp |
Patrick von Platen |
 |
Ajustar fino de T5 para la extracci贸n de amplitud de opini贸n |
C贸mo ajustar T5 para la extracci贸n de intervalos de opiniones mediante un formato de texto a texto con PyTorch Lightning |
Lorenzo Ampil |
 |
Ajustar fino de DistilBert para la clasificaci贸n multiclase |
C贸mo ajustar DistilBert para la clasificaci贸n multiclase con PyTorch |
Abhishek Kumar Mishra |
 |
Ajustar BERT para la clasificaci贸n de etiquetas m煤ltiples |
C贸mo ajustar BERT para la clasificaci贸n de m煤ltiples etiquetas usando PyTorch |
Abhishek Kumar Mishra |
 |
Ajustar T5 para resumir |
C贸mo ajustar T5 para resumir en PyTorch y realizar un seguimiento de los experimentos con WandB |
Abhishek Kumar Mishra |
 |
Acelerar el ajuste fino en transformadores con Dynamic Padding/Bucketing |
C贸mo acelerar el ajuste fino en un factor de 2 usando relleno din谩mico/cubetas |
Michael Benesty |
 |
Preentrenar Reformer para modelado de lenguaje enmascarado |
C贸mo entrenar un modelo Reformer con capas de autoatenci贸n bidireccionales |
Patrick von Platen |
 |
Ampliar y ajustar Sci-BERT |
C贸mo aumentar el vocabulario de un modelo SciBERT preentrenado de AllenAI en el conjunto de datos CORD y canalizarlo. |
Tanmay Thakur |
 |
Ajustar fino de BlenderBotSmall para res煤menes usando la API de Entrenador |
C贸mo ajustar BlenderBotSmall para resumir en un conjunto de datos personalizado, utilizando la API de Entrenador. |
Tanmay Thakur |
 |
Ajustar Electra e interpreta con gradientes integrados |
C贸mo ajustar Electra para el an谩lisis de sentimientos e interpretar predicciones con Captum Integrated Gradients |
Eliza Szczechla |
 |
ajustar un modelo GPT-2 que no est谩 en ingl茅s con la clase Trainer |
C贸mo ajustar un modelo GPT-2 que no est谩 en ingl茅s con la clase Trainer |
Philipp Schmid |
 |
Ajustar un modelo DistilBERT para la tarea de clasificaci贸n de m煤ltiples etiquetas |
C贸mo ajustar un modelo DistilBERT para la tarea de clasificaci贸n de m煤ltiples etiquetas |
Dhaval Taunk |
 |
Ajustar ALBERT para la clasificaci贸n de pares de oraciones |
C贸mo ajustar un modelo ALBERT u otro modelo basado en BERT para la tarea de clasificaci贸n de pares de oraciones |
Nadir El Manouzi |
 |
Ajustar a Roberta para el an谩lisis de sentimientos |
C贸mo ajustar un modelo de Roberta para el an谩lisis de sentimientos |
Dhaval Taunk |
 |
Evaluaci贸n de modelos de generaci贸n de preguntas |
驴Qu茅 tan precisas son las respuestas a las preguntas generadas por tu modelo de transformador seq2seq? |
Pascal Zoleko |
 |
Clasificar texto con DistilBERT y Tensorflow |
C贸mo ajustar DistilBERT para la clasificaci贸n de texto en TensorFlow |
Peter Bayerle |
 |
Aprovechar BERT para el resumen de codificador y decodificador en CNN/Dailymail |
C贸mo iniciar en caliente un EncoderDecoderModel con un punto de control bert-base-uncased para resumir en CNN/Dailymail |
Patrick von Platen |
 |
Aprovechar RoBERTa para el resumen de codificador-decodificador en BBC XSum |
C贸mo iniciar en caliente un EncoderDecoderModel compartido con un punto de control roberta-base para resumir en BBC/XSum |
Patrick von Platen |
 |
Ajustar TAPAS en Sequential Question Answering (SQA) |
C贸mo ajustar TapasForQuestionAnswering con un punto de control tapas-base en el conjunto de datos del Sequential Question Answering (SQA) |
Niels Rogge |
 |
Evaluar TAPAS en Table Fact Checking (TabFact) |
C贸mo evaluar un TapasForSequenceClassification ajustado con un punto de control tapas-base-finetuned-tabfact usando una combinaci贸n de 馃 conjuntos de datos y 馃 bibliotecas de transformadores |
Niels Rogge |
 |
Ajustar de mBART para traducci贸n |
C贸mo ajustar mBART utilizando Seq2SeqTrainer para la traducci贸n del hindi al ingl茅s |
Vasudev Gupta |
 |
Ajustar LayoutLM en FUNSD (a form understanding dataset) |
C贸mo ajustar LayoutLMForTokenClassification en el conjunto de datos de FUNSD para la extracci贸n de informaci贸n de documentos escaneados |
Niels Rogge |
 |
Ajustar DistilGPT2 y genere texto |
C贸mo ajustar DistilGPT2 y generar texto |
Aakash Tripathi |
 |
Ajustar LED en tokens de hasta 8K |
C贸mo ajustar LED en pubmed para res煤menes de largo alcance |
Patrick von Platen |
 |
Evaluar LED en Arxiv |
C贸mo evaluar efectivamente LED en res煤menes de largo alcance |
Patrick von Platen |
 |
Ajustar fino de LayoutLM en RVL-CDIP (un conjunto de datos de clasificaci贸n de im谩genes de documentos) |
C贸mo ajustar LayoutLMForSequenceClassification en el conjunto de datos RVL-CDIP para la clasificaci贸n de documentos escaneados |
Niels Rogge |
 |
Decodificaci贸n Wav2Vec2 CTC con ajuste GPT2 |
C贸mo decodificar la secuencia CTC con el ajuste del modelo de lenguaje |
Eric Lam |
 |
Ajustar BART para res煤menes en dos idiomas con la clase Trainer |
C贸mo ajustar BART para res煤menes en dos idiomas con la clase Trainer |
Eliza Szczechla |
 |
Evaluar Big Bird en Trivia QA |
C贸mo evaluar BigBird en respuesta a preguntas de documentos largos en Trivia QA |
Patrick von Platen |
 |
Crear subt铆tulos de video usando Wav2Vec2 |
C贸mo crear subt铆tulos de YouTube a partir de cualquier v铆deo transcribiendo el audio con Wav2Vec |
Niklas Muennighoff |
 |
Ajustar el transformador de visi贸n en CIFAR-10 usando PyTorch Lightning |
C贸mo ajustar el transformador de visi贸n (ViT) en CIFAR-10 usando transformadores HuggingFace, conjuntos de datos y PyTorch Lightning |
Niels Rogge |
 |
Ajustar el Transformador de visi贸n en CIFAR-10 usando el 馃 Entrenador |
C贸mo ajustar el Vision Transformer (ViT) en CIFAR-10 usando HuggingFace Transformers, Datasets y el 馃 Trainer |
Niels Rogge |
 |
Evaluar LUKE en Open Entity, un conjunto de datos de tipificaci贸n de entidades |
C贸mo evaluar LukeForEntityClassification en el conjunto de datos de entidad abierta |
Ikuya Yamada |
 |
Evaluar LUKE en TACRED, un conjunto de datos de extracci贸n de relaciones |
C贸mo evaluar LukeForEntityPairClassification en el conjunto de datos TACRED |
Ikuya Yamada |
 |
Evaluar LUKE en CoNLL-2003, un punto de referencia importante de NER |
C贸mo evaluar LukeForEntitySpanClassification en el conjunto de datos CoNLL-2003 |
Ikuya Yamada |
 |
Evaluar BigBird-Pegasus en el conjunto de datos de PubMed |
C贸mo evaluar BigBirdPegasusForConditionalGeneration en el conjunto de datos de PubMed |
Vasudev Gupta |
 |
Clasificaci贸n de emociones del habla con Wav2Vec2 |
C贸mo aprovechar un modelo Wav2Vec2 preentrenado para la clasificaci贸n de emociones en el conjunto de datos MEGA |
Mehrdad Farahani |
 |
Detectar objetos en una imagen con DETR |
C贸mo usar un modelo entrenado DetrForObjectDetection para detectar objetos en una imagen y visualizar la atenci贸n |
Niels Rogge |
 |
Ajustar el DETR en un conjunto de datos de detecci贸n de objetos personalizados |
C贸mo ajustar DetrForObjectDetection en un conjunto de datos de detecci贸n de objetos personalizados |
Niels Rogge |
 |
Ajustar T5 para el reconocimiento de entidades nombradas |
C贸mo ajustar T5 en una tarea de reconocimiento de entidad nombrada |
Ogundepo Odunayo |
 |