vnNLI - VLSP 2021: Vietnamese and English-Vietnamese textual entailment based on pre-trained multilingual language models

Based on the motivation behind these achievements, this paper describes our approach based on fine-tuning pretrained multilingual language models (XLM-R, InfoXLM) to tackle the shared task “Vietnamese and English Vietnamese Textual Entailment” at the 8th International Workshop on Vietnamese Language and Speech Processing (VLSP 20211). |

Không thể tạo bản xem trước, hãy bấm tải xuống
TỪ KHÓA LIÊN QUAN
TÀI LIỆU MỚI ĐĂNG
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.