欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Pytorch BertModel的使用说明

程序员文章站 2022-07-06 13:13:11
基本介绍环境: python 3.5+, pytorch 0.4.1/1.0.0安装:pip install pytorch-pretrained-bert必需参数:--data_dir: "str"...

基本介绍

环境: python 3.5+, pytorch 0.4.1/1.0.0

安装:

pip install pytorch-pretrained-bert

必需参数:

--data_dir: "str": 数据根目录.目录下放着,train.xxx/dev.xxx/test.xxx三个数据文件.

--vocab_dir: "str": 词库文件地址.

--bert_model: "str": 存放着bert预训练好的模型. 需要是一个gz文件, 如"..x/xx/bert-base-chinese.tar.gz ", 里面包含一个bert_config.json和pytorch_model.bin文件.

--task_name: "str": 用来选择对应数据集的参数,如"cola",对应着数据集.

--output_dir: "str": 模型预测结果和模型参数存储目录.

简单例子:

导入所需包

import torch
from pytorch_pretrained_bert import berttokenizer, bertmodel, bertformaskedlm

创建分词器

tokenizer = berttokenizer.from_pretrained(--vocab_dir)

需要参数: --vocab_dir,

拥有函数:

tokenize: 输入句子,根据--vocab_dir和贪心原则切词. 返回单词列表

convert_token_to_ids: 将切词后的列表转换为词库对应id列表.

convert_ids_to_tokens: 将id列表转换为单词列表.

text = '[cls] 武松打老虎 [sep] 你在哪 [sep]'
tokenized_text = tokenizer.tokenize(text)
indexed_tokens = tokenizer.convert_tokens_to_ids(tokenized_text)
segments_ids = [0, 0, 0, 0, 0, 0, 0,0,0,0, 1,1, 1, 1, 1, 1, 1, 1]
tokens_tensor = torch.tensor([indexed_tokens])
segments_tensors = torch.tensor([segments_ids])

这里对标记符号的切词似乎有问题([cls]/[sep]), 而且中文bert是基于字级别编码的,因此切出来的都是一个一个汉字:

['[', 'cl', '##s', ']', '武', '松', '打', '老', '虎', '[', 'sep', ']', '你', '在', '哪', '[', 'sep', ']']

创建bert模型并加载预训练模型:

model = bertmodel.from_pretrained(--bert_model)

放入gpu:

tokens_tensor = tokens_tensor.cuda()
segments_tensors = segments_tensors.cuda()
model.cuda()

前向传播:

encoded_layers, pooled_output= model(tokens_tensor, segments_tensors)

参数:

input_ids: (batch_size, sqe_len)代表输入实例的tensor

token_type_ids=none: (batch_size, sqe_len)一个实例可以含有两个句子,这个相当于句子标记.

attention_mask=none: (batch_size*): 传入每个实例的长度,用于attention的mask.

output_all_encoded_layers=true: 控制是否输出所有encoder层的结果.

返回值:

encoded_layer:长度为num_hidden_layers的(batch_size, sequence_length,hidden_size)的tensor.列表

pooled_output: (batch_size, hidden_size), 最后一层encoder的第一个词[cls]经过linear层和激活函数tanh()后的tensor. 其代表了句子信息

补充:pytorch使用bert

主要分为以下几个步骤:

下载模型放到目录中

使用transformers中的bertmodel,berttokenizer来加载模型与分词器

使用tokenizer的encode和decode 函数分别编码与解码,注意参数add_special_tokens和skip_special_tokens

forward的输入是一个[batch_size, seq_length]的tensor,再需要注意的是attention_mask参数。

输出是一个tuple,tuple的第一个值是bert的最后一个transformer层的hidden_state,size是[batch_size, seq_length, hidden_size],也就是bert最后的输出,再用于下游的任务。

# -*- encoding: utf-8 -*-
import warnings
warnings.filterwarnings('ignore')
from transformers import bertmodel, berttokenizer, bertconfig
import os
from os.path import dirname, abspath
root_dir = dirname(dirname(dirname(abspath(__file__))))
import torch
# 把预训练的模型从官网下载下来放到目录中
pretrained_path = os.path.join(root_dir, 'pretrained/bert_zh')
# 从文件中加载bert模型
model = bertmodel.from_pretrained(pretrained_path)
# 从bert目录中加载词典
tokenizer = berttokenizer.from_pretrained(pretrained_path)
print(f'vocab size :{tokenizer.vocab_size}')
# 把'[pad]'编码
print(tokenizer.encode('[pad]'))
print(tokenizer.encode('[sep]'))
# 把中文句子编码,默认加入了special tokens了,也就是句子开头加入了[cls] 句子结尾加入了[sep]
ids = tokenizer.encode("我是中国人", add_special_tokens=true)
# 从结果中看,101是[cls]的id,而2769是"我"的id
# [101, 2769, 3221, 704, 1744, 782, 102]
print(ids)
# 把ids解码为中文,默认是没有跳过特殊字符的
print(tokenizer.decode([101, 2769, 3221, 704, 1744, 782, 102], skip_special_tokens=false))
# print(model)
inputs = torch.tensor(ids).unsqueeze(0)
# forward,result是一个tuple,第一个tensor是最后的hidden-state
result = model(torch.tensor(inputs))
# [1, 5, 768]
print(result[0].size())
# [1, 768]
print(result[1].size())
for name, parameter in model.named_parameters():
  # 打印每一层,及每一层的参数
  print(name)
  # 每一层的参数默认都requires_grad=true的,参数是可以学习的
  print(parameter.requires_grad)
  # 如果只想训练第11层transformer的参数的话:
  if '11' in name:
    parameter.requires_grad = true
  else:
    parameter.requires_grad = false
print([p.requires_grad for name, p in model.named_parameters()])

添加atten_mask的方法:

其中101是[cls],102是[sep],0是[pad]

>>> a
tensor([[101,  3,  4, 23, 11,  1, 102,  0,  0,  0]])
>>> notpad = a!=0
>>> notpad
tensor([[ true, true, true, true, true, true, true, false, false, false]])
>>> notcls = a!=101
>>> notcls
tensor([[false, true, true, true, true, true, true, true, true, true]])
>>> notsep = a!=102
>>> notsep
tensor([[ true, true, true, true, true, true, false, true, true, true]])
>>> mask = notpad & notcls & notsep
>>> mask
tensor([[false, true, true, true, true, true, false, false, false, false]])
>>> 

以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。

相关标签: Pytorch BertModel