Cải tiến phân tích cú pháp tiếng Việt với k?thuật attention
- Th?năm - 04/07/2019 21:22
- In ra
- Đóng cửa s?này
Trong bài báo này chúng tôi s?dụng cơ ch?selft-attention đ?thay th?một b?Encoder LSTM nhằm cải thiện hiệu suất của b?phân tích cú pháp thành phần áp dụng cho tiếng Việt. Việc s?dụng cơ ch?attention làm minh bạch cách thức thông tin được lan truyền giữa các v?trí khác nhau trong câu đầu vào. Chúng tôi phát hiện việc tách thông tin v?trí và thông tin nội dung trong b?Encoder làm cải thiện cho đ?chính xác của b?phân tích cú pháp. Ngoài ra, chúng tôi đánh giá cách tiếp cận khác nhau đ?biểu diễn t?vựng. B?phân tích cú pháp của chúng tôi đạt được kết qu?tiên tiến mới cho các mô hình huấn luyện trong Viet Treebank: 81,15 F1.