Báo cáo khoa học: "Assessing the Effect of Inconsistent Assessors on Summarization Evaluation"

National Institute of Standards and Technology We investigate the consistency of human assessors involved in summarization evaluation to understand its effect on system ranking and automatic evaluation techniques. Using Text Analysis Conference data, we measure annotator consistency based on human scoring of summaries for Responsiveness, Readability, and Pyramid scoring.

Bấm vào đây để xem trước nội dung
TÀI LIỆU MỚI ĐĂNG
46    138    7    24-06-2024
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.