!pip install datasets evaluate transformers[sentencepiece] from transformers import AutoTokenizer checkpoint = "distilbert-base-uncased-finetuned-sst-2-english" tokenizer = AutoTokenizer.from_pretrained(checkpoint) sequence = "I've been waiting for a HuggingFace course my whole life." model_inputs = tokenizer(sequence) sequence = "I've been waiting for a HuggingFace course my whole life." model_inputs = tokenizer(sequence) sequences = ["I've been waiting for a HuggingFace course my whole life.", "So have I!"] model_inputs = tokenizer(sequences) # Sẽ đệm thêm vào chuỗi sao cho độ dài bằng độ dài tối đa của chuỗi model_inputs = tokenizer(sequences, padding="longest") # Sẽ đệm thêm vào chuỗi sao cho độ dài bằng độ dài tối đa của mô hình # (512 cho BERT hoặc DistilBERT) model_inputs = tokenizer(sequences, padding="max_length") # Sẽ đệm thêm vào chuỗi sao cho độ dài bằng độ dài tối đa được chỉ định model_inputs = tokenizer(sequences, padding="max_length", max_length=8) sequences = ["I've been waiting for a HuggingFace course my whole life.", "So have I!"] # Sẽ cắt bớt chuỗi cho bằng độ dài tối đa của mô hình # (512 cho BERT hoặc DistilBERT) model_inputs = tokenizer(sequences, truncation=True) # Sẽ cắt bớt chuỗi có độ dài dài hơn độ dài tối đa được chỉ định model_inputs = tokenizer(sequences, max_length=8, truncation=True) sequences = ["I've been waiting for a HuggingFace course my whole life.", "So have I!"] # Trả về tensor PyTorch model_inputs = tokenizer(sequences, padding=True, return_tensors="pt") # Trả về tensor TensorFlow model_inputs = tokenizer(sequences, padding=True, return_tensors="tf") # Trả về mảng NumPy model_inputs = tokenizer(sequences, padding=True, return_tensors="np") sequence = "I've been waiting for a HuggingFace course my whole life." model_inputs = tokenizer(sequence) print(model_inputs["input_ids"]) tokens = tokenizer.tokenize(sequence) ids = tokenizer.convert_tokens_to_ids(tokens) print(ids) print(tokenizer.decode(model_inputs["input_ids"])) print(tokenizer.decode(ids)) import torch from transformers import AutoTokenizer, AutoModelForSequenceClassification checkpoint = "distilbert-base-uncased-finetuned-sst-2-english" tokenizer = AutoTokenizer.from_pretrained(checkpoint) model = AutoModelForSequenceClassification.from_pretrained(checkpoint) sequences = ["I've been waiting for a HuggingFace course my whole life.", "So have I!"] tokens = tokenizer(sequences, padding=True, truncation=True, return_tensors="pt") output = model(**tokens)