# Transformers installation
! pip install transformers datasets
# To install from source instead of the last release, comment the command above and uncomment the following one.
# ! pip install git+https://github.com/huggingface/transformers.git
¡Entra en marcha con los 🤗 Transformers! Comienza usando pipeline()
para una inferencia veloz, carga un modelo preentrenado y un tokenizador con una AutoClass para resolver tu tarea de texto, visión o audio.
Todos los ejemplos de código presentados en la documentación tienen un botón arriba a la izquierda para elegir entre Pytorch y TensorFlow. Si no fuese así, se espera que el código funcione para ambos backends sin ningún cambio.
pipeline()
es la forma más fácil de usar un modelo preentrenado para una tarea dada.
#@title
from IPython.display import HTML
HTML('<iframe width="560" height="315" src="https://www.youtube.com/embed/tiZFewofSLM?rel=0&controls=0&showinfo=0" frameborder="0" allowfullscreen></iframe>')
El pipeline()
soporta muchas tareas comunes listas para usar:
Texto:
Imagen:
Audio:
Para más detalles acerca del pipeline()
y tareas asociadas, consulta la documentación aquí.
En el siguiente ejemplo, usarás el pipeline()
para análisis de sentimiento.
Instala las siguientes dependencias si aún no lo has hecho:
pip install torch
pip install tensorflow
Importa pipeline()
y especifica la tarea que deseas completar:
from transformers import pipeline
classifier = pipeline("sentiment-analysis")
El pipeline descarga y almacena en caché un modelo preentrenado por defecto y tokeniza para análisis de sentimiento. Ahora puedes usar classifier
en tu texto objetivo:
classifier("We are very happy to show you the 🤗 Transformers library.")
[{'label': 'POSITIVE', 'score': 0.9998}]
Para más de un enunciado entrega una lista de frases al pipeline()
que devolverá una lista de diccionarios:
results = classifier(["We are very happy to show you the 🤗 Transformers library.", "We hope you don't hate it."])
for result in results:
print(f"label: {result['label']}, with score: {round(result['score'], 4)}")
label: POSITIVE, with score: 0.9998 label: NEGATIVE, with score: 0.5309
El pipeline()
también puede iterar sobre un dataset entero. Comienza instalando la biblioteca 🤗 Datasets:
pip install datasets
Crea un pipeline()
con la tarea que deseas resolver y el modelo que quieres usar. Coloca el parámetro device
a 0
para poner los tensores en un dispositivo CUDA:
import torch
from transformers import pipeline
speech_recognizer = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-base-960h", device=0)
A continuación, carga el dataset (ve 🤗 Datasets Quick Start para más detalles) sobre el que quisieras iterar. Por ejemplo, vamos a cargar el dataset MInDS-14:
from datasets import load_dataset, Audio
dataset = load_dataset("PolyAI/minds14", name="en-US", split="train")
Debemos asegurarnos de que la frecuencia de muestreo del conjunto de datos coincide con la frecuencia de muestreo con la que se entrenó facebook/wav2vec2-base-960h
.
dataset = dataset.cast_column("audio", Audio(sampling_rate=speech_recognizer.feature_extractor.sampling_rate))
Los archivos de audio se cargan y remuestrean automáticamente cuando se llama a la columna "audio"
.
Extraigamos las matrices de forma de onda cruda de las primeras 4 muestras y pasémosla como una lista al pipeline:
result = speech_recognizer([ex['array'] for ex in dataset[:4]["audio"]])
print([d["text"] for d in result])
['I WOULD LIKE TO SET UP A JOINT ACCOUNT WITH MY PARTNER HOW DO I PROCEED WITH DOING THAT', "FONDERING HOW I'D SET UP A JOIN TO HET WITH MY WIFE AND WHERE THE AP MIGHT BE", "I I'D LIKE TOY SET UP A JOINT ACCOUNT WITH MY PARTNER I'M NOT SEEING THE OPTION TO DO IT ON THE APSO I CALLED IN TO GET SOME HELP CAN I JUST DO IT OVER THE PHONE WITH YOU AND GIVE YOU THE INFORMATION OR SHOULD I DO IT IN THE AP AND I'M MISSING SOMETHING UQUETTE HAD PREFERRED TO JUST DO IT OVER THE PHONE OF POSSIBLE THINGS", 'HOW DO I TURN A JOIN A COUNT']
Para un dataset más grande, donde los inputs son de mayor tamaño (como en habla/audio o visión), querrás pasar un generador en lugar de una lista que carga todos los inputs en memoria. Ve la documentación del pipeline para más información.
El pipeline()
puede adaptarse a cualquier modelo del Model Hub haciendo más fácil adaptar el pipeline()
para otros casos de uso. Por ejemplo, si quisieras un modelo capaz de manejar texto en francés, usa los tags en el Model Hub para filtrar entre los modelos apropiados. El resultado mejor filtrado devuelve un modelo BERT multilingual fine-tuned para el análisis de sentimiento. Genial, ¡vamos a usar este modelo!
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
Usa AutoModelForSequenceClassification
y ['AutoTokenizer'] para cargar un modelo preentrenado y un tokenizador asociado (más en un AutoClass
debajo):
from transformers import AutoTokenizer, AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Usa TFAutoModelForSequenceClassification
y ['AutoTokenizer'] para cargar un modelo preentrenado y un tokenizador asociado (más en un TFAutoClass
debajo):
from transformers import AutoTokenizer, TFAutoModelForSequenceClassification
model = TFAutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Después puedes especificar el modelo y el tokenizador en el pipeline()
, y aplicar el classifier
en tu texto objetivo:
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
classifier("Nous sommes très heureux de vous présenter la bibliothèque 🤗 Transformers.")
[{'label': '5 stars', 'score': 0.7273}]
Si no pudieras encontrar el modelo para tu caso respectivo de uso necesitarás ajustar un modelo preentrenado a tus datos. Mira nuestro tutorial de fine-tuning para aprender cómo. Finalmente, después de que has ajustado tu modelo preentrenado, ¡por favor considera compartirlo (ve el tutorial aquí) con la comunidad en el Model Hub para democratizar el NLP! 🤗
#@title
from IPython.display import HTML
HTML('<iframe width="560" height="315" src="https://www.youtube.com/embed/AhChOFRegn4?rel=0&controls=0&showinfo=0" frameborder="0" allowfullscreen></iframe>')
Debajo del capó, las clases AutoModelForSequenceClassification
y AutoTokenizer
trabajan juntas para dar poder al pipeline()
. Una AutoClass es un atajo que automáticamente recupera la arquitectura de un modelo preentrenado con su nombre o el path. Sólo necesitarás seleccionar el AutoClass
apropiado para tu tarea y tu tokenizador asociado con AutoTokenizer
.
Regresemos a nuestro ejemplo y veamos cómo puedes usar el AutoClass
para reproducir los resultados del pipeline()
.
Un tokenizador es responsable de procesar el texto a un formato que sea entendible para el modelo. Primero, el tokenizador separará el texto en palabras llamadas tokens. Hay múltiples reglas que gobiernan el proceso de tokenización incluyendo el cómo separar una palabra y en qué nivel (aprende más sobre tokenización aquí). Lo más importante es recordar que necesitarás instanciar el tokenizador con el mismo nombre del modelo para asegurar que estás usando las mismas reglas de tokenización con las que el modelo fue preentrenado.
Carga un tokenizador con AutoTokenizer
:
from transformers import AutoTokenizer
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_name)
Después, el tokenizador convierte los tokens a números para construir un tensor que servirá como input para el modelo. Esto es conocido como el vocabulario del modelo.
Pasa tu texto al tokenizador:
encoding = tokenizer("We are very happy to show you the 🤗 Transformers library.")
print(encoding)
{'input_ids': [101, 11312, 10320, 12495, 19308, 10114, 11391, 10855, 10103, 100, 58263, 13299, 119, 102], 'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
El tokenizador devolverá un diccionario conteniendo:
Como con el pipeline()
, el tokenizador aceptará una lista de inputs. Además, el tokenizador también puede rellenar (pad, en inglés) y truncar el texto para devolver un lote (batch, en inglés) de longitud uniforme:
pt_batch = tokenizer(
["We are very happy to show you the 🤗 Transformers library.", "We hope you don't hate it."],
padding=True,
truncation=True,
max_length=512,
return_tensors="pt",
)
tf_batch = tokenizer(
["We are very happy to show you the 🤗 Transformers library.", "We hope you don't hate it."],
padding=True,
truncation=True,
max_length=512,
return_tensors="tf",
)
Lee el tutorial de preprocessing para más detalles acerca de la tokenización.
🤗 Transformers provee una forma simple y unificada de cargar tus instancias preentrenadas. Esto significa que puedes cargar un AutoModel
como cargarías un AutoTokenizer
. La única diferencia es seleccionar el AutoModel
correcto para la tarea. Ya que estás clasificando texto, o secuencias, carga AutoModelForSequenceClassification
:
from transformers import AutoModelForSequenceClassification
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
pt_model = AutoModelForSequenceClassification.from_pretrained(model_name)
Ve el task summary para revisar qué clase del AutoModel
deberías usar para cada tarea.
Ahora puedes pasar tu lote (batch) preprocesado de inputs directamente al modelo. Solo tienes que desempacar el diccionario añadiendo **
:
pt_outputs = pt_model(**pt_batch)
El modelo producirá las activaciones finales en el atributo logits
. Aplica la función softmax a logits
para obtener las probabilidades:
from torch import nn
pt_predictions = nn.functional.softmax(pt_outputs.logits, dim=-1)
print(pt_predictions)
tensor([[0.0021, 0.0018, 0.0115, 0.2121, 0.7725], [0.2084, 0.1826, 0.1969, 0.1755, 0.2365]], grad_fn=<SoftmaxBackward0>)
🤗 Transformers provee una forma simple y unificada de cargar tus instancias preentrenadas. Esto significa que puedes cargar un TFAutoModel
como cargarías un AutoTokenizer
. La única diferencia es seleccionar el TFAutoModel
correcto para la tarea. Ya que estás clasificando texto, o secuencias, carga TFAutoModelForSequenceClassification
:
from transformers import TFAutoModelForSequenceClassification
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
tf_model = TFAutoModelForSequenceClassification.from_pretrained(model_name)
Ahora puedes pasar tu lote preprocesado de inputs directamente al modelo pasando las llaves del diccionario directamente a los tensores:
tf_outputs = tf_model(tf_batch)
El modelo producirá las activaciones finales en el atributo logits
. Aplica la función softmax a logits
para obtener las probabilidades:
import tensorflow as tf
tf_predictions = tf.nn.softmax(tf_outputs.logits, axis=-1)
print(tf.math.round(tf_predictions * 10**4) / 10**4)
tf.Tensor( [[0.0021 0.0018 0.0116 0.2121 0.7725] [0.2084 0.1826 0.1969 0.1755 0.2365]], shape=(2, 5), dtype=float32)
Todos los modelos de 🤗 Transformers (PyTorch o TensorFlow) producirán los tensores antes de la función de activación final (como softmax) porque la función de activación final es comúnmente fusionada con la pérdida.
Los modelos son torch.nn.Module
o tf.keras.Model
estándares así que podrás usarlos en tu training loop usual. Sin embargo, para facilitar las cosas, 🤗 Transformers provee una clase Trainer
para PyTorch que añade funcionalidades para entrenamiento distribuido, precición mixta, y más. Para TensorFlow, puedes usar el método fit
desde Keras. Consulta el tutorial de entrenamiento para más detalles.
Los outputs del modelo de 🤗 Transformers son dataclasses especiales por lo que sus atributos pueden ser completados en un IDE.
Los outputs del modelo también se comportan como tuplas o diccionarios (e.g., puedes indexar con un entero, un slice o una cadena) en cuyo caso los atributos que son None
son ignorados.
Una vez que tu modelo esté fine-tuned puedes guardarlo con tu tokenizador usando PreTrainedModel.save_pretrained()
:
pt_save_directory = "./pt_save_pretrained"
tokenizer.save_pretrained(pt_save_directory)
pt_model.save_pretrained(pt_save_directory)
Cuando quieras usar el modelo otra vez cárgalo con PreTrainedModel.from_pretrained()
:
pt_model = AutoModelForSequenceClassification.from_pretrained("./pt_save_pretrained")
Una vez que tu modelo esté fine-tuned puedes guardarlo con tu tokenizador usando TFPreTrainedModel.save_pretrained()
:
tf_save_directory = "./tf_save_pretrained"
tokenizer.save_pretrained(tf_save_directory)
tf_model.save_pretrained(tf_save_directory)
Cuando quieras usar el modelo otra vez cárgalo con TFPreTrainedModel.from_pretrained()
:
tf_model = TFAutoModelForSequenceClassification.from_pretrained("./tf_save_pretrained")
Una característica particularmente cool de 🤗 Transformers es la habilidad de guardar el modelo y cargarlo como un modelo de PyTorch o TensorFlow. El parámetro from_pt
o from_tf
puede convertir el modelo de un framework al otro:
from transformers import AutoModel
tokenizer = AutoTokenizer.from_pretrained(tf_save_directory)
pt_model = AutoModelForSequenceClassification.from_pretrained(tf_save_directory, from_tf=True)
from transformers import TFAutoModel
tokenizer = AutoTokenizer.from_pretrained(pt_save_directory)
tf_model = TFAutoModelForSequenceClassification.from_pretrained(pt_save_directory, from_pt=True)