Wynik wyszukiwania
Zapytanie: BIDIRECTIONAL ENCODER REPRESENTATION FROM TRANSFORMERS
Liczba odnalezionych rekordów: 1



Przejście do opcji zmiany formatu | Wyświetlenie wyników w wersji do druku | Pobranie pliku do edytora | Przesłanie wyników do modułu analizy | excel | Nowe wyszukiwanie
1/1
Nr opisu: 0000138966
Tytuł oryginału: Bilinear semi-tensor product attention (BSTPA) model for visual question answering.
Autorzy: Z. Bai, Y. Li, M. Zhou, D. Li, D. Wang, Dawid Połap, Marcin Woźniak.
Źródło: W: 2020 International Joint Conference on Neural Networks. IJCNN, Glasgow, United Kingdom, 19-24 July 2020. Conference proceedings. Los Alamitos : Institute of Electrical and Electronics Engineers, 2020, s. 1-8, bibliogr. 33 poz.
ISBN: 978-1-7281-6927-9978-1-7281-6926-2
Punktacja MNiSW: 140.000
Liczba arkuszy wydawniczych: 0,4
Bazy indeksujące publikację: IEEE Xplore; Scopus
DOI:
Słowa kluczowe polskie: systemy automatycznej odpowiedzi ; dwukierunkowe reprezentacje koderów z transformatorów
Słowa kluczowe angielskie: visual question answering ; bidirectional encoder representation from transformers ; semi-tensor product attention ; multimodal feature fusion
Typ publikacji: RK
Język publikacji: ENG
Zasieg terytorialny: Z
Afiliacja: praca afiliowana w PŚl.
Dostęp on-line:


stosując format:
Nowe wyszukiwanie