在BertForMaskedLM中,参数masked_lm_labels用于指定BERT模型的输入和预测目标。它是一个与输入tokens张量(input_ids)具有相同形状的张量,用于指示哪些位置的标记需要进行掩码,以便模型进行预测。
masked_lm_labels的形状与input_ids相同,具有一个特殊的掩码值(通常为-100)的位置表示需要进行预测的标记,而其他位置则为-100。模型将尝试预测这些被掩码的标记的正确值。
下面是一个示例代码,展示了如何使用masked_lm_labels参数:
import torch
from transformers import BertTokenizer, BertForMaskedLM
# 加载预训练的BERT模型和tokenizer
model_name = 'bert-base-uncased'
model = BertForMaskedLM.from_pretrained(model_name)
tokenizer = BertTokenizer.from_pretrained(model_name)
# 输入文本
text = "I want to [MASK] the world."
# 对文本进行tokenize并添加特殊标记
tokens = tokenizer.tokenize(text)
tokens = ['[CLS]'] + tokens + ['[SEP]']
# 将token转换为对应的id
input_ids = tokenizer.convert_tokens_to_ids(tokens)
# 创建一个与input_ids相同形状的掩码label张量
masked_lm_labels = [-100] * len(input_ids)
# 需要预测的位置
mask_position = 4
# 将需要预测的位置设置为对应的token id
masked_lm_labels[mask_position] = input_ids[mask_position]
# 将input_ids和masked_lm_labels转换为张量
input_ids = torch.tensor(input_ids).unsqueeze(0) # 添加batch维度
masked_lm_labels = torch.tensor(masked_lm_labels).unsqueeze(0) # 添加batch维度
# 使用BERT模型进行预测
outputs = model(input_ids, masked_lm_labels=masked_lm_labels)
# 输出预测结果
predictions = outputs.logits
predicted_indices = torch.argmax(predictions, dim=-1)
predicted_tokens = [tokenizer.convert_ids_to_tokens(idx.item()) for idx in predicted_indices[0]]
print(predicted_tokens)
在上面的示例中,我们首先加载了预训练的BERT模型和tokenizer。然后,我们将输入文本进行tokenize,并添加了特殊标记。接下来,我们将token转换为对应的id,并创建一个与input_ids相同形状的掩码label张量,所有位置都初始化为-100。然后,我们选择要预测的位置,并将该位置的标签设置为对应的token id。最后,我们将input_ids和masked_lm_labels转换为张量,并将其传递给BERT模型进行预测。
在输出中,我们可以看到预测的tokens。在这个例子中,我们预测的标记应该是"change",因为我们在输入文本中将"[MASK]"的位置设置为"change"。