ログイン
Language:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 学術雑誌論文
  2. 5 技術(工学)

Share What You Already Know: Cross-Language-Script Transfer and Alignment for Sentiment Detection in Code-Mixed Data

http://hdl.handle.net/10228/0002001154
http://hdl.handle.net/10228/0002001154
9a2a3b23-cecc-4f7d-89ff-2252a9d3d7f4
名前 / ファイル ライセンス アクション
10443067.pdf 10443067.pdf (1.2 MB)
アイテムタイプ 共通アイテムタイプ(1)
公開日 2025-01-24
タイトル
タイトル Share What You Already Know: Cross-Language-Script Transfer and Alignment for Sentiment Detection in Code-Mixed Data
言語 en
著者 Pahari, Niraj

× Pahari, Niraj

en Pahari, Niraj

Search repository
嶋田, 和孝

× 嶋田, 和孝

WEKO 13734
e-Rad_Researcher 50346863
Scopus著者ID 7403686923
九工大研究者情報 196

en Shimada, Kazutaka

ja 嶋田, 和孝

Search repository
著作権関連情報
権利情報Resource https://creativecommons.org/licenses/by/4.0/
権利情報 This work is licensed under a Creative Commons Attribution International 4.0 License.
著作権関連情報
権利情報 Copyright (c) 2024 Copyright held by the owner/author(s).
抄録
内容記述タイプ Abstract
内容記述 Code-switching entails mixing multiple languages. It is an increasingly occurring phenomenon in social media texts. Usually, code-mixed texts are written in a single script, even though the languages involved have different scripts. Pre-trained multilingual models primarily utilize the data in the native script of the language. In existing studies, the code-switched texts are utilized as they are. However, using the native script for each language can generate better representations of the text owing to the pre-trained knowledge. Therefore, a cross-language-script knowledge-sharing architecture utilizing the cross-attention and alignment of the representations of text in individual language scripts was proposed in this study. Experimental results on two different datasets containing Nepali-English and Hindi-English code-switched texts, demonstrate the effectiveness of the proposed method. The interpretation of the model using the model explainability technique illustrates the sharing of language-specific knowledge between language-specific representations.
言語 en
書誌情報 en : ACM Transactions on Asian and Low-Resource Language Information Processing

巻 23, 号 7, p. 103, 発行日 2024-07-12
出版社
出版者 ACM
キーワード
主題Scheme Other
主題 Code-mixing
キーワード
主題Scheme Other
主題 low-resource languages
キーワード
主題Scheme Other
主題 multi-encoder models
キーワード
主題Scheme Other
主題 Nepali-English
キーワード
主題Scheme Other
主題 romanized text
キーワード
主題Scheme Other
主題 Devanagari script
言語
言語 eng
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
出版タイプ
出版タイプ VoR
出版タイプResource http://purl.org/coar/version/c_970fb48d4fbd8a85
DOI
識別子タイプ DOI
関連識別子 https://doi.org/10.1145/3661307
ISSN
収録物識別子タイプ PISSN
収録物識別子 2375-4699
ISSN
収録物識別子タイプ EISSN
収録物識別子 2375-4702
査読の有無
値 yes
研究者情報
URL https://hyokadb02.jimu.kyutech.ac.jp/html/196_ja.html
論文ID(連携)
値 10443067
連携ID
値 12446
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-24 04:22:58.434835
Show All versions

Share

Share
tweet

Cite as

Other

print

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX
  • ZIP

コミュニティ

確認

確認

確認


Powered by WEKO3


Powered by WEKO3