-
Notifications
You must be signed in to change notification settings - Fork 43
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
训练集的padding问题 #28
Comments
好的,谢谢 |
我也是同样的问题,请问是怎么解决的呀 |
更新一下代码看看。 |
改了下。 |
ValueError: Wrong shape for input_ids (shape torch.Size([0])) or attention_mask (shape torch.Size([0])) |
具体错误贴出来看看,我运行了下应该没问题。 |
打印下models.py里面seq_out的形状是什么。 print(seq_out.shape) |
seq_out的形状torch.Size([1, 512, 768]) |
都重新拉下最新的代码,然后按照我给的总结里面的步骤看看。我这边都能够完整的运行。 |
好的 |
好,我重拉一下试一下 |
你解决了吗 |
没有,还是形状不对 |
老哥,能麻烦您提供一下pytorch_triple_extraction-main/bert_re/checkpoints/best.pt这个文件嘛,我想先试试融合预测,回头来再看一下问题在哪 |
在谷歌网盘里,等我有时间把它弄下来。 |
好的,麻烦老哥了 |
https://cowtransfer.com/s/6d3d721a01c24e 点击链接查看 [ best.pt ] ,或访问奶牛快传 cowtransfer.com 输入传输口令 alj6y5 查看; 只训练了一个epoch,可能效果不太好。 |
好的,我先试试看 |
谢谢老哥,我能再要一份这个嘛 |
bert_crf训练的。 |
我应该是发现前面那个问题了,dataloader在过滤超过文本最大长度的那里有bug,你可以试试自己写一个函数处理一下train.txt这个文件,把里面ids超过510的过滤掉,再去训练就不会报错了。 |
麻烦作者了,我在训练的时候,step到310的时候,调用utils.py里面的sequence_padding()函数时,为什么input是空列表,求解答
The text was updated successfully, but these errors were encountered: