Reliable estimation of visual saliency allows appropriateprocessing of dịch - Reliable estimation of visual saliency allows appropriateprocessing of Việt làm thế nào để nói

Reliable estimation of visual salie

Reliable estimation of visual saliency allows appropriate
processing of images without prior knowledge of their contents,
and thus remains an important step in many computer
vision tasks including image segmentation, object recognition,
and adaptive compression. We propose a regional
contrast based saliency extraction algorithm, which simultaneously
evaluates global contrast differences and spatial
coherence. The proposed algorithm is simple, efficient, and
yields full resolution saliency maps. Our algorithm consistently
outperformed existing saliency detection methods,
yielding higher precision and better recall rates, when evaluated
using one of the largest publicly available data sets.
We also demonstrate how the extracted saliency map can
be used to create high quality segmentation masks for subsequent
image processing
0/5000
Từ: -
Sang: -
Kết quả (Việt) 1: [Sao chép]
Sao chép!
Các dự toán đáng tin cậy của thị giác saliency cho phép thích hợpxử lý các hình ảnh mà không có kiến thức trước khi nội dung của họ,và do đó vẫn là một bước quan trọng trong nhiều máy tínhtầm nhìn công việc bao gồm các hình ảnh phân khúc, công nhận đối tượng,và nén thích nghi. Chúng tôi đề xuất một regionalngược lại dựa trên các thuật toán khai thác saliency, mà cùng một lúcđánh giá toàn cầu ngược lại khác biệt và không giantính mạch lạc. Các thuật toán được đề xuất là đơn giản, hiệu quả, vàsản lượng đầy đủ độ phân giải saliency bản đồ. Thuật toán của chúng tôi luôntốt hơn saliency phát hiện phương pháp hiện có,năng suất tỷ lệ chính xác và tốt hơn thu hồi cao hơn, khi đánh giábằng cách sử dụng một trong các bộ dữ liệu lớn nhất có sẵn công khai.Chúng tôi cũng chứng minh làm thế nào có thể chiết xuất saliency đồđược sử dụng để tạo ra chất lượng cao phân khúc mặt nạ cho tiếp theoxử lý hình ảnh
đang được dịch, vui lòng đợi..
Kết quả (Việt) 2:[Sao chép]
Sao chép!
Ước tính đáng tin cậy của saliency thị giác cho phép thích hợp
xử lý các hình ảnh mà bạn không biết trước nội dung của họ,
và do đó vẫn còn là một bước quan trọng trong nhiều máy tính
nhiệm vụ tầm nhìn bao gồm cả phân vùng ảnh, nhận dạng đối tượng,
và nén thích ứng. Chúng tôi đề xuất một khu vực
tương phản dựa trên thuật toán khai thác saliency, mà đồng thời
đánh giá sự khác biệt tương phản toàn cầu và không gian
gắn kết. Các thuật toán đề xuất là đơn giản, hiệu quả và
mang lại bản đồ độ phân giải saliency đầy đủ. Thuật toán của chúng tôi luôn
vượt trội so với các phương pháp phát hiện saliency hiện có,
năng suất có độ chính xác cao hơn và tỷ lệ thu hồi tốt hơn, khi đánh giá
bằng một trong những tập hợp dữ liệu lớn nhất công bố công khai.
Chúng tôi cũng chứng minh cách trích lục bản đồ saliency có thể
được sử dụng để tạo mặt nạ phân khúc chất lượng cao cho sau này
xử lý hình ảnh
đang được dịch, vui lòng đợi..
 
Các ngôn ngữ khác
Hỗ trợ công cụ dịch thuật: Albania, Amharic, Anh, Armenia, Azerbaijan, Ba Lan, Ba Tư, Bantu, Basque, Belarus, Bengal, Bosnia, Bulgaria, Bồ Đào Nha, Catalan, Cebuano, Chichewa, Corsi, Creole (Haiti), Croatia, Do Thái, Estonia, Filipino, Frisia, Gael Scotland, Galicia, George, Gujarat, Hausa, Hawaii, Hindi, Hmong, Hungary, Hy Lạp, Hà Lan, Hà Lan (Nam Phi), Hàn, Iceland, Igbo, Ireland, Java, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Kurd, Kyrgyz, Latinh, Latvia, Litva, Luxembourg, Lào, Macedonia, Malagasy, Malayalam, Malta, Maori, Marathi, Myanmar, Mã Lai, Mông Cổ, Na Uy, Nepal, Nga, Nhật, Odia (Oriya), Pashto, Pháp, Phát hiện ngôn ngữ, Phần Lan, Punjab, Quốc tế ngữ, Rumani, Samoa, Serbia, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenia, Somali, Sunda, Swahili, Séc, Tajik, Tamil, Tatar, Telugu, Thái, Thổ Nhĩ Kỳ, Thụy Điển, Tiếng Indonesia, Tiếng Ý, Trung, Trung (Phồn thể), Turkmen, Tây Ban Nha, Ukraina, Urdu, Uyghur, Uzbek, Việt, Xứ Wales, Yiddish, Yoruba, Zulu, Đan Mạch, Đức, Ả Rập, dịch ngôn ngữ.

Copyright ©2024 I Love Translation. All reserved.

E-mail: