6533b85efe1ef96bd12c014d

RESEARCH PRODUCT

Alternatīvas neironu mašīntulkošanas arhitektūras

Eduards Mukāns

subject

InceptionV3TransformerDatorzinātneXLM-RBERTmachine translation

description

Pētījuma mērķis: Izpētīt alternatīvas mašīntulkošanas arhitektūras, pielietojot jaunas pieejas, lai izveidotu angļu-latviešu tulkotāju un apvienot attēlu ar teikumu matricu vienā modelī. Nozīmīgākie rezultāti: Darba ietvaros tika uztrēnēti dažādi mašīntulkotāji. Viens balstās uz «transformer» arhitektūru. Šis modeļis uztrenēts pilnīgi no jauna. Otrs mašīntulkotājs balstās uz pretrenētiem modeliem. Darbā tika salīdzinātas dažādas pieejas un tika izvēlēts labākais pretrenēts modelis XLM-R, uz kura bāzes izveidots tulkotājs. Pirmajā tulkotājā iegūtie tulkojuma rezultāti ir pietiekami precīzi un gramatiski pareizi. Taču šis tulkotājs pielāgots politiski vai juridiski virzītam tekstam, jo uztrenēts izmantojot pārsvarā Eiroparlamenta sesijas datus. Otrajam tulkotājam pietrūka resursu apreķināšanai, lai uztrenētu modeļi ar visiem datiem. Trešais modeļis ieejā pieņem gan XLM-R matricu, gan InceptionV3 matricu. Iegūtie rezultāti nedod viennozīmīgu atbildi par to, kāds modeļis uzbūvē labāku valodas modeļi. Tomēr modeļa rezultāti apstiprināja hipotēzi, ka nav svarīgi no kura avota tiek iegūta matrica, bet būtiski tikai tas, cik precīzi matrica reprezentē savstārpējos attālumus ar citiem teikumiem. Atslēgas vārdi: BERT, XLM-R, InceptionV3, Transformer, mašīntulkošana.

https://dspace.lu.lv/dspace/handle/7/50736